ULTIMELE ȘTIRI

Codul sursă al Claude Code ajunge pe internet dintr-o eroare Anthropic

Codul sursă al Claude Code ajunge pe internet dintr-o eroare Anthropic

O eroare umană banală a expus jumătate de milion de linii de cod intern, inclusiv funcții secrete nepublicate și indicii despre un model AI viitor. Este al doilea incident de acest gen în peste un an.

Imagine cu caracter ilustrativ

Marți, 31 martie 2026, în primele ore ale dimineții, un cercetător în securitate pe nume Chaofan Shou a observat ceva neobișnuit într-o actualizare de rutină a lui Claude Code — instrumentul de programare asistat de inteligență artificială dezvoltat de compania americană Anthropic. Un fișier tehnic folosit în mod normal doar pentru depanare internă fusese inclus din greșeală în pachetul public de instalare, iar acel fișier conținea o legătură directă către un arhiv comprimat stocat pe serverele Anthropic.

Ce s-a întâmplat, pe scurt

Arhiva respectivă conținea codul sursă complet al lui Claude Code — aproximativ 500.000 de linii de cod distribuite în circa 1.900 de fișiere. Ca să înțelegem magnitudinea: dacă un produs software obișnuit ar fi o clădire, codul sursă este planul arhitectural complet, cu toate instalațiile, structura de rezistență și încăperile secrete cu tot.

În câteva ore, codul a fost preluat și publicat pe GitHub — platforma unde programatorii distribuie proiecte — și a fost copiat de peste 41.500 de ori, răspândindu-se practic irecuperabil pe internet.

Anthropic a confirmat incidentul printr-un comunicat concis: „A fost o problemă de ambalare a versiunii, cauzată de eroare umană, nu o breșă de securitate. Datele clienților nu au fost expuse.” Compania a anunțat că implementează măsuri pentru a preveni repetarea situației.

Ce s-a văzut în cod

Dincolo de arhitectura internă a produsului — valoroasă în sine pentru orice competitor — scurgerea a revelat ceva poate mai interesant: zeci de funcții complet construite, dar nelansate încă public. Printre acestea:

  • Posibilitatea ca Claude să-și „recapituleze” sesiunile anterioare de lucru pentru a învăța din ele și a transfera cunoștințele în conversații viitoare.
  • Un „asistent persistent” care rulează în fundal și continuă să lucreze chiar și atunci când utilizatorul este inactiv.
  • Un sistem numit intern „KAIROS” — după conceptul grecesc de „momentul potrivit” — care ar transforma Claude Code dintr-un instrument reactiv într-un agent autonom capabil să funcționeze continuu în fundal, să consolideze informații și să corecteze contradicții din propria memorie.

Codul a furnizat și dovezi suplimentare că Anthropic pregătește un model nou cu numele interne „Capybara” și „Mythos” — același model, două denumiri interne diferite. Potrivit unui cercetător în securitate AI care a analizat scurgerea, acesta ar reprezenta un nivel nou, superior lui Opus — cel mai puternic model actual al Anthropic — și totodată mai scump.

De ce contează pentru toți ceilalți

Claude Code nu este un simplu editor de text cu AI. Parte din capacitățile sale provin nu din modelul de limbaj în sine, ci dintr-un „harness” software — un strat de instrucțiuni și reguli care ghidează comportamentul AI-ului, îi spune cum să folosească alte programe și stabilește limitele de siguranță. Tocmai acest strat a fost expus.

Expunând „planurile de construcție” ale lui Claude Code, Anthropic a oferit practic gratuit oricărui competitor o foaie de drum inginerească pentru a construi un agent AI de nivel producție. Miza este considerabilă: Claude Code generează venituri anuale recurente de 2,5 miliarde de dolari, iar 80% din venituri provin din clienți enterprise.

Există și o dimensiune de securitate mai imediată. Cunoscând logica exactă a sistemului, atacatorii pot concepe acum repositorii malițioase special construite să „păcălească” Claude Code să execute comenzi în fundal sau să exfiltreze date înainte ca utilizatorul să observe ceva suspect.

Context: al doilea incident în peste un an

Aceasta nu este prima dată când Anthropic scurge detalii despre Claude Code. În februarie 2025, o versiune timpurie a instrumentului a expus accidental codul său original printr-o breșă similară.

La aceasta se adaugă un al doilea incident recent, de altă natură: cu câteva zile înainte de scurgerea codului sursă, Fortune a raportat că Anthropic expusese accidental aproape 3.000 de fișiere interne, inclusiv un draft de postare de blog despre modelul viitor „Mythos” — descris ca prezentând riscuri de securitate cibernetică fără precedent.

Această serie de incidente ridică semne de întrebare despre securitatea operațională a unei companii care se prezintă drept laboratorul AI cel mai preocupat de siguranță.

Ce a urmat

Anthropic a trimis notificări DMCA — cereri legale de eliminare a conținutului protejat prin drepturi de autor — către GitHub. Platforma a acționat rapid, toate paginile cu codul original devenind inaccesibile. Problema practică rămâne aceeași: codul fusese deja copiat de zeci de mii de ori, iar pe internet, ce a fost odată public rămâne public.

Scurgerea nu va scufunda Anthropic, dar oferă oricărui competitor o educație inginerească gratuită despre cum să construiești un agent AI de programare de nivel profesional — și pe ce funcții să se concentreze.


Surse: Axios, VentureBeat, Fortune, The Register, CNBC


Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

fifteen − 14 =

📬 Nu rata știrile importante