Budujesz na AI. Twój zespół korzysta z Claude, GPT albo Gemini w codziennej pracy. Pipeline działa, automatyzacje działają, klienci są zadowoleni. A potem w jednym tygodniu firma, która wydaje miliardy na bezpieczeństwo AI i zatrudnia najlepszych inżynierów na świecie, przypadkiem publikuje 3 000 wewnętrznych dokumentów i pół miliona linii kodu źródłowego. To nie scenariusz. Ten wyciek Anthropic wydarzył się w ostatnim tygodniu marca 2026. I lekcje z niego dotyczą Twojej firmy bardziej, niż myślisz.
Wyciek Anthropic: dwa incydenty, pięć dni
Mythos: tajny model AI (26 marca)
Anthropic zostawił publicznie dostępne około 3 000 niepublikowanych zasobów na swojej stronie. Drafty postów blogowych, materiały wewnętrzne, obrazy, PDF-y. Powód? Błąd konfiguracji CMS-a, przez który robocze dokumenty trafiły do publicznie indeksowanego magazynu danych. Jako pierwszy opisał to magazyn Fortune.
Wśród dokumentów był opis nowego modelu AI o kryptonimie Mythos (wewnętrzna nazwa projektu: Capybara).
Co wiemy z tego wycieku Anthropic o Mythosie:
- To „nowa klasa modelu, większa i bardziej inteligentna niż modele Opus”
- Anthropic nazywa go „przełomową zmianą” (step change) w możliwościach AI
- Wyniki testów programowania, rozumowania i cyberbezpieczeństwa są znacząco lepsze niż Claude Opus 4.6
- Wewnętrzna ocena stwierdza wprost: Mythos jest „daleko przed każdym innym modelem AI w zdolnościach cyber”
Najpoważniejszy wątek? Dokumenty pokazują, że Anthropic prywatnie ostrzega urzędników rządowych USA przed wzrostem ryzyka cyberataków na dużą skalę w 2026 roku. Więcej o zagrożeniach opisał Euronews.
Ale to nie koniec tego tygodnia.
Kod źródłowy Claude Code w npm (31 marca)
4:23 rano czasu wschodnioamerykańskiego. Chaofan Shou, stażysta w Solayer Labs, ściąga rutynową aktualizację Claude Code z rejestru npm. Paczka waży 59,8 MB. Normalnie to kilka mega. Otwiera, patrzy i widzi pół miliona linii pełnego kodu źródłowego Anthropic. Flagi funkcji, prompty systemowe, plany produktowe. Wszystko. Zanim Anthropic zdążył zareagować, kod był już na GitHubie. Skasowanie paczki z npm nic nie dało.
Jak do tego doszło? Claude Code korzysta z bundlera Bun, który domyślnie generuje source mapy. Plik source map to narzędzie debugowania, które mapuje skompresowany kod z powrotem do czytelnego źródła. Wystarczył brakujący wpis w .npmignore. Szczegółową analizę tego wycieku Anthropic opublikował serwis dev.to.
Skala? 1 900 plików. 512 000+ linii kodu TypeScript. Pełny, czytelny kod flagowego narzędzia Anthropic do programowania z AI.
Co znaleziono po wycieku Anthropic w kodzie?
Analiza kodu pokazała rzeczy, które Anthropic wolałby zachować dla siebie. I które mówią sporo o tym, dokąd zmierza cała branża.
44 flagi funkcji (feature flags)
W kodzie znaleziono 44 feature flagi. Przełączniki kontrolujące dostęp do zbudowanych, ale nieaktywnych funkcji. To nie prototypy. To gotowy, skompilowany kod czekający na włączenie.
KAIROS: agent działający non-stop
Największe odkrycie z wycieku Anthropic. KAIROS (od greckiego „właściwy czas”) pojawia się w kodzie ponad 150 razy. Zamienia Claude Code z narzędzia na żądanie w autonomicznego demona działającego w tle. Sesje z webhookami GitHub, planowanie zadań w trybie cron, automatyczne wznawianie pracy bez komend. A najciekawsze? Proces autoDream, czyli „konsolidacja pamięci” w czasie, gdy użytkownik jest nieaktywny. AI, które pracuje, kiedy śpisz.
Ale KAIROS to nie jedyne odkrycie. Następne jest jeszcze dziwniejsze.
BUDDY: wirtualne zwierzątko
Tego nikt się nie spodziewał. Claude Code ma system wirtualnego towarzysza w stylu Tamagotchi. Gatunki o różnej rzadkości, błyszczące warianty, proceduralnie generowane statystyki. Buddy siedzi w dymku obok pola na tekst. Tak, serio.
Coordinator Mode i inne
W katalogu coordinator/ ukryty jest system orkiestracji wielu agentów. Zamienia Claude Code w koordynatora zarządzającego wieloma agentami równolegle. Oprócz tego: tryb komend głosowych, kontrola przeglądarki przez Playwright, trwała pamięć między sesjami, narzędzia wewnętrzne tylko dla pracowników i wbudowane prompty systemowe.
Wyciek Anthropic: reakcja firmy
Firma potwierdziła istnienie Mythos i określiła go jako „nową klasę modelu” reprezentującą „przełomową zmianę”. Ze względu na obawy o cyberbezpieczeństwo ogranicza wczesny dostęp do organizacji zajmujących się obroną cybernetyczną.
O kodzie Claude Code rzecznik powiedział:
„Dzisiejsze wydanie Claude Code zawierało pewien wewnętrzny kod źródłowy. Nie doszło do ujawnienia danych klientów ani danych uwierzytelniających. To był problem z pakowaniem wydania spowodowany błędem ludzkim, a nie naruszenie bezpieczeństwa.”
Paczka zniknęła z npm. Za późno. Kod był już na GitHubie.
Wyciek Anthropic a bezpieczeństwo Twojej firmy
Syndrom otwartych drzwi
Większość firm myśli, że wyciek to problem hakerski. Że ktoś musi się włamać. Prawda jest taka, że najgroźniejsze wycieki to błędy konfiguracji. Brakujący wpis w .npmignore. Publiczny bucket S3. Draft w CMS-ie bez flagi „prywatny”. Zero hakerstwa, 100% ludzkiego błędu.
Anthropic. Miliardy dolarów budżetu. Inżynierowie z najwyższej półki. Najlepsze praktyki bezpieczeństwa AI w branży. I wystarczył brakujący wpis w jednym pliku konfiguracyjnym.
Nikt się nie włamał. Drzwi były po prostu otwarte. To jest syndrom otwartych drzwi: firmy inwestują w zamki, alarmy i monitoring, a potem zostawiają klucze pod wycieraczką. Pisaliśmy wcześniej o zabezpieczaniu systemów AI w firmie. Te zasady są teraz ważniejsze niż kiedykolwiek.
Pytania do Twojego zespołu
Może myślisz: „ale my nie jesteśmy Anthropic. Nie publikujemy modeli AI ani paczek npm”. Dobrze, ale odpowiedz sobie szczerze: czy wiesz dokładnie, co jest w Twoim obrazie Docker? Czy ktoś sprawdzał, co CMS publikuje jako publiczne? Czy klucze API albo dane testowe na pewno nie siedzą w repozytorium?
Kilka konkretnych pytań na najbliższy standup:
- Czy pipeline CI/CD sprawdza, co faktycznie trafia do paczki produkcyjnej?
- Czy ktoś skanuje artefakty przed publikacją?
- Czy monitorujecie rozmiar paczek? 59,8 MB to sygnał ostrzegawczy
- Czy pliki
.map,.envi dane testowe są wykluczone z produkcji?
Feature flagi zdradzają strategię
44 flagi to pełna mapa drogowa produktu Anthropic. Funkcje, o których firma nigdy publicznie nie mówiła. Dla OpenAI i Google to bezcenna wiedza.
Jeśli Twoja firma korzysta z feature flag: upewnij się, że flagi znikają z kodu po włączeniu funkcji. Że ich nazwy nie zdradzają planów biznesowych. I że kod za nimi nie trafia do publicznych artefaktów.
Mythos zmienia reguły gry
Z dokumentów wynika, że agenty AI mogą prowadzić wiele kampanii hakerskich jednocześnie. Że pracownicy korzystający z agentów AI mogą nieświadomie otworzyć drzwi przestępcom. Że kradzież tożsamości staje się łatwiejsza niż kiedykolwiek. Anthropic ostrzega rząd USA, że to realne zagrożenie na 2026 rok.
Podsumowanie: lekcje z wycieku Anthropic
| Co się stało | Lekcja |
|---|---|
| 3 000 dokumentów wewnętrznych publicznie | Regularnie audytuj co jest dostępne na Twojej infrastrukturze |
| Source map z pełnym kodem w npm | Automatyzuj kontrolę artefaktów w CI/CD |
| 44 ukryte funkcje ujawniające plany | Usuwaj flagi z kodu produkcyjnego |
| Prompty systemowe w kodzie klienckim | Wrażliwe instrukcje trzymaj po stronie serwera |
| Model z zdolnościami cyber | Zanim sprawdzisz zamki, sprawdź czy drzwi są zamknięte |
Co zrobić po wycieku Anthropic?
Dobra wiadomość? Każdy z tych problemów da się rozwiązać. Żadne z zabezpieczeń, które tu opisujemy, nie wymaga miesięcy pracy ani milionowego budżetu. To są zmiany, które Twój zespół może wdrożyć w tym tygodniu.
- Przejrzyj pipeline CI/CD. Sprawdź, co trafia do paczek produkcyjnych
- Zaudytuj publiczne zasoby. CMS, repozytoria, rejestry paczek, buckety S3
- Zaktualizuj politykę bezpieczeństwa AI o ryzyko agentów AI i nowych modeli
- Czy Twój zespół wie, czym jest source map? Przeszkol ich.
- Monitoruj rozmiary artefaktów. 59 MB paczka CLI to czerwona lampka
Kod Claude Code jest już na GitHubie. Hakerzy analizują go szukając wektorów ataku na firmy korzystające z tego narzędzia. Mythos, model o „bezprecedensowych zdolnościach cyber”, może być dostępny za tygodnie.
Jeśli Twój zespół korzysta z narzędzi AI w codziennej pracy, teraz jest moment na sprawdzenie, czy Wasz pipeline, artefakty i konfiguracje są szczelne. Robimy audyty kodu wraz z optymalizacją(tzw web vitals) : 30-minutowa rozmowa, konkretna lista rzeczy do sprawdzenia żeby Twoja aplikacja była bardziej bezpieczna lub osiągała lepsze wyniki SEO bez zamulania dla Twoich użytkowników. Umów się na bezpłatną konsultację.






