Wyciek Anthropic – kod źródłowy Claude Code i model Mythos. Co to oznacza dla firm?

Wyciek Anthropic w marcu 2026: tajny model Mythos i 512 tys. linii kodu Claude Code w npm. Co znaleziono i jakie wnioski dla firm korzystających z AI?

Budujesz na AI. Twój zespół korzysta z Claude, GPT albo Gemini w codziennej pracy. Pipeline działa, automatyzacje działają, klienci są zadowoleni. A potem w jednym tygodniu firma, która wydaje miliardy na bezpieczeństwo AI i zatrudnia najlepszych inżynierów na świecie, przypadkiem publikuje 3 000 wewnętrznych dokumentów i pół miliona linii kodu źródłowego. To nie scenariusz. Ten wyciek Anthropic wydarzył się w ostatnim tygodniu marca 2026. I lekcje z niego dotyczą Twojej firmy bardziej, niż myślisz.


Wyciek Anthropic: dwa incydenty, pięć dni

Mythos: tajny model AI (26 marca)

Anthropic zostawił publicznie dostępne około 3 000 niepublikowanych zasobów na swojej stronie. Drafty postów blogowych, materiały wewnętrzne, obrazy, PDF-y. Powód? Błąd konfiguracji CMS-a, przez który robocze dokumenty trafiły do publicznie indeksowanego magazynu danych. Jako pierwszy opisał to magazyn Fortune.

Wśród dokumentów był opis nowego modelu AI o kryptonimie Mythos (wewnętrzna nazwa projektu: Capybara).

Co wiemy z tego wycieku Anthropic o Mythosie:

  • To „nowa klasa modelu, większa i bardziej inteligentna niż modele Opus”
  • Anthropic nazywa go „przełomową zmianą” (step change) w możliwościach AI
  • Wyniki testów programowania, rozumowania i cyberbezpieczeństwa są znacząco lepsze niż Claude Opus 4.6
  • Wewnętrzna ocena stwierdza wprost: Mythos jest „daleko przed każdym innym modelem AI w zdolnościach cyber”

Najpoważniejszy wątek? Dokumenty pokazują, że Anthropic prywatnie ostrzega urzędników rządowych USA przed wzrostem ryzyka cyberataków na dużą skalę w 2026 roku. Więcej o zagrożeniach opisał Euronews.

Ale to nie koniec tego tygodnia.

Kod źródłowy Claude Code w npm (31 marca)

4:23 rano czasu wschodnioamerykańskiego. Chaofan Shou, stażysta w Solayer Labs, ściąga rutynową aktualizację Claude Code z rejestru npm. Paczka waży 59,8 MB. Normalnie to kilka mega. Otwiera, patrzy i widzi pół miliona linii pełnego kodu źródłowego Anthropic. Flagi funkcji, prompty systemowe, plany produktowe. Wszystko. Zanim Anthropic zdążył zareagować, kod był już na GitHubie. Skasowanie paczki z npm nic nie dało.

Jak do tego doszło? Claude Code korzysta z bundlera Bun, który domyślnie generuje source mapy. Plik source map to narzędzie debugowania, które mapuje skompresowany kod z powrotem do czytelnego źródła. Wystarczył brakujący wpis w .npmignore. Szczegółową analizę tego wycieku Anthropic opublikował serwis dev.to.

Skala? 1 900 plików. 512 000+ linii kodu TypeScript. Pełny, czytelny kod flagowego narzędzia Anthropic do programowania z AI.


Co znaleziono po wycieku Anthropic w kodzie?

Analiza kodu pokazała rzeczy, które Anthropic wolałby zachować dla siebie. I które mówią sporo o tym, dokąd zmierza cała branża.

44 flagi funkcji (feature flags)

W kodzie znaleziono 44 feature flagi. Przełączniki kontrolujące dostęp do zbudowanych, ale nieaktywnych funkcji. To nie prototypy. To gotowy, skompilowany kod czekający na włączenie.

KAIROS: agent działający non-stop

Największe odkrycie z wycieku Anthropic. KAIROS (od greckiego „właściwy czas”) pojawia się w kodzie ponad 150 razy. Zamienia Claude Code z narzędzia na żądanie w autonomicznego demona działającego w tle. Sesje z webhookami GitHub, planowanie zadań w trybie cron, automatyczne wznawianie pracy bez komend. A najciekawsze? Proces autoDream, czyli „konsolidacja pamięci” w czasie, gdy użytkownik jest nieaktywny. AI, które pracuje, kiedy śpisz.

Ale KAIROS to nie jedyne odkrycie. Następne jest jeszcze dziwniejsze.

BUDDY: wirtualne zwierzątko

Tego nikt się nie spodziewał. Claude Code ma system wirtualnego towarzysza w stylu Tamagotchi. Gatunki o różnej rzadkości, błyszczące warianty, proceduralnie generowane statystyki. Buddy siedzi w dymku obok pola na tekst. Tak, serio.

Coordinator Mode i inne

W katalogu coordinator/ ukryty jest system orkiestracji wielu agentów. Zamienia Claude Code w koordynatora zarządzającego wieloma agentami równolegle. Oprócz tego: tryb komend głosowych, kontrola przeglądarki przez Playwright, trwała pamięć między sesjami, narzędzia wewnętrzne tylko dla pracowników i wbudowane prompty systemowe.


Wyciek Anthropic: reakcja firmy

Firma potwierdziła istnienie Mythos i określiła go jako „nową klasę modelu” reprezentującą „przełomową zmianę”. Ze względu na obawy o cyberbezpieczeństwo ogranicza wczesny dostęp do organizacji zajmujących się obroną cybernetyczną.

O kodzie Claude Code rzecznik powiedział:

„Dzisiejsze wydanie Claude Code zawierało pewien wewnętrzny kod źródłowy. Nie doszło do ujawnienia danych klientów ani danych uwierzytelniających. To był problem z pakowaniem wydania spowodowany błędem ludzkim, a nie naruszenie bezpieczeństwa.”

Paczka zniknęła z npm. Za późno. Kod był już na GitHubie.


Wyciek Anthropic a bezpieczeństwo Twojej firmy

Syndrom otwartych drzwi

Większość firm myśli, że wyciek to problem hakerski. Że ktoś musi się włamać. Prawda jest taka, że najgroźniejsze wycieki to błędy konfiguracji. Brakujący wpis w .npmignore. Publiczny bucket S3. Draft w CMS-ie bez flagi „prywatny”. Zero hakerstwa, 100% ludzkiego błędu.

Anthropic. Miliardy dolarów budżetu. Inżynierowie z najwyższej półki. Najlepsze praktyki bezpieczeństwa AI w branży. I wystarczył brakujący wpis w jednym pliku konfiguracyjnym.

Nikt się nie włamał. Drzwi były po prostu otwarte. To jest syndrom otwartych drzwi: firmy inwestują w zamki, alarmy i monitoring, a potem zostawiają klucze pod wycieraczką. Pisaliśmy wcześniej o zabezpieczaniu systemów AI w firmie. Te zasady są teraz ważniejsze niż kiedykolwiek.

Pytania do Twojego zespołu

Może myślisz: „ale my nie jesteśmy Anthropic. Nie publikujemy modeli AI ani paczek npm”. Dobrze, ale odpowiedz sobie szczerze: czy wiesz dokładnie, co jest w Twoim obrazie Docker? Czy ktoś sprawdzał, co CMS publikuje jako publiczne? Czy klucze API albo dane testowe na pewno nie siedzą w repozytorium?

Kilka konkretnych pytań na najbliższy standup:

  • Czy pipeline CI/CD sprawdza, co faktycznie trafia do paczki produkcyjnej?
  • Czy ktoś skanuje artefakty przed publikacją?
  • Czy monitorujecie rozmiar paczek? 59,8 MB to sygnał ostrzegawczy
  • Czy pliki .map, .env i dane testowe są wykluczone z produkcji?

Feature flagi zdradzają strategię

44 flagi to pełna mapa drogowa produktu Anthropic. Funkcje, o których firma nigdy publicznie nie mówiła. Dla OpenAI i Google to bezcenna wiedza.

Jeśli Twoja firma korzysta z feature flag: upewnij się, że flagi znikają z kodu po włączeniu funkcji. Że ich nazwy nie zdradzają planów biznesowych. I że kod za nimi nie trafia do publicznych artefaktów.

Mythos zmienia reguły gry

Z dokumentów wynika, że agenty AI mogą prowadzić wiele kampanii hakerskich jednocześnie. Że pracownicy korzystający z agentów AI mogą nieświadomie otworzyć drzwi przestępcom. Że kradzież tożsamości staje się łatwiejsza niż kiedykolwiek. Anthropic ostrzega rząd USA, że to realne zagrożenie na 2026 rok.


Podsumowanie: lekcje z wycieku Anthropic

Co się stałoLekcja
3 000 dokumentów wewnętrznych publicznieRegularnie audytuj co jest dostępne na Twojej infrastrukturze
Source map z pełnym kodem w npmAutomatyzuj kontrolę artefaktów w CI/CD
44 ukryte funkcje ujawniające planyUsuwaj flagi z kodu produkcyjnego
Prompty systemowe w kodzie klienckimWrażliwe instrukcje trzymaj po stronie serwera
Model z zdolnościami cyberZanim sprawdzisz zamki, sprawdź czy drzwi są zamknięte

Co zrobić po wycieku Anthropic?

Dobra wiadomość? Każdy z tych problemów da się rozwiązać. Żadne z zabezpieczeń, które tu opisujemy, nie wymaga miesięcy pracy ani milionowego budżetu. To są zmiany, które Twój zespół może wdrożyć w tym tygodniu.

  1. Przejrzyj pipeline CI/CD. Sprawdź, co trafia do paczek produkcyjnych
  2. Zaudytuj publiczne zasoby. CMS, repozytoria, rejestry paczek, buckety S3
  3. Zaktualizuj politykę bezpieczeństwa AI o ryzyko agentów AI i nowych modeli
  4. Czy Twój zespół wie, czym jest source map? Przeszkol ich.
  5. Monitoruj rozmiary artefaktów. 59 MB paczka CLI to czerwona lampka

Kod Claude Code jest już na GitHubie. Hakerzy analizują go szukając wektorów ataku na firmy korzystające z tego narzędzia. Mythos, model o „bezprecedensowych zdolnościach cyber”, może być dostępny za tygodnie.

Jeśli Twój zespół korzysta z narzędzi AI w codziennej pracy, teraz jest moment na sprawdzenie, czy Wasz pipeline, artefakty i konfiguracje są szczelne. Robimy audyty kodu wraz z optymalizacją(tzw web vitals) : 30-minutowa rozmowa, konkretna lista rzeczy do sprawdzenia żeby Twoja aplikacja była bardziej bezpieczna lub osiągała lepsze wyniki SEO bez zamulania dla Twoich użytkowników. Umów się na bezpłatną konsultację.

Więcej wiedzy

Jeśli ten wpis pokazał Ci, że problemy w sprzedaży online to nie kwestia technologii, tylko procesów - czas na decyzję. Wdrażamy transformację cyfrowej sprzedaży: od strategii przez procesy po rozwiązania technologiczne.

Każdy lead ma właściciela i deadline

System automatycznie przypisuje, przypomina, eskaluje. Zero leadów bez właściciela.

Manager widzi forecast w czasie rzeczywistym

Nie "na czuja", tylko na podstawie danych z systemu. Pełna widoczność procesu.

Procesy są zapisane w systemie

Nowy handlowiec wie co robić od dnia 1. Nie zależysz od jednej osoby.

Rozpocznij transformację cyfrowej sprzedaży

To więcej niż bezpłatna konsultacja. To konkretna rozmowa o wdrożeniu transformacji dla firm gotowych na decyzje i działanie. Wypełnij formularz, a my przygotujemy dla Ciebie wstępną analizę i plan działania.

30–45 minut. Bez zobowiązań.

Nie. To rozmowa kwalifikująca, żeby zobaczyć czy możemy pomóc.

Nie. Po rozmowie dostaniesz rekomendację, decyzja należy do Ciebie.

Tym lepiej. Właśnie takie procesy wdrażamy – dostosowane do Twojego biznesu.