În același timp, nu e o poveste izolată: OpenAI trece prin propriile convulsii, de la desființarea echipei de „mission alignment” până la concedierea unui executiv de politici care s-a opus unei funcții de tip „adult mode”. Mesajul comun e dur: în cursa pentru produse mai „îndrăznețe”, companiile par dispuse să sacrifice exact frânele care le-ar ține credibile.

Exodul ca simptom: când pleacă inginerii, nu pleacă doar oameni
Săptămâna aceasta, după anunțul că SpaceX va cumpăra xAI (care, la rândul ei, cumpărase anterior rețeaua socială X), cel puțin 11 ingineri și doi cofondatori au spus că părăsesc compania. În paralel, TechCrunch notează că „jumătate din echipa fondatoare” a xAI a plecat în ultimele săptămâni — un amănunt care schimbă scara problemei.
Oficial, plecările pot fi ambalate drept „restructurare” sau „oportunități noi”. Elon Musk însuși a sugerat că e parte dintr-un efort de a organiza xAI mai eficient. Dar în Silicon Valley, când o firmă pierde oameni-cheie în valuri, investitorii și partenerii nu aud „optimizare”. Aud „instabilitate”.
Întrebarea reală: pleacă oamenii pentru că proiectul a ajuns la maturitate și se separă natural, sau pentru că nu mai vor să-și pună numele pe direcția companiei?
„Safety is a dead org”: conflictul dintre produs și responsabilitate
Două surse care au părăsit xAI au descris pentru The Verge o deziluzie crescândă față de „disprețul” companiei pentru siguranță, pe fondul unei atenții globale după folosirea lui Grok pentru a genera peste 1 milion de imagini sexualizate, inclusiv deepfake-uri cu femei reale și minori.
Una dintre surse a formulat brutal: „Safety is a dead org at xAI” („Siguranța e o organizație moartă la xAI”). Cealaltă a pus degetul pe o tensiune ideologică ce definește era AI: Musk ar fi „activ” preocupat să facă modelul „mai dezlănțuit”, deoarece, în viziunea lui, siguranța înseamnă „cenzură”.
Aici se rupe filmul. Pentru public, „siguranța” nu e un moft moralizator, ci diferența dintre:
– un chatbot care poate fi integrat în produse, educație, servicii publice,
– și un generator de abuz la scară industrială, cu victime reale și costuri juridice inevitabile.
Dacă „siguranța” e tratată ca „cenzură”, atunci orice mecanism de protecție devine negociabil. Iar negociabilul, în AI, se transformă rapid în „exploatabil”.
Lipsa de direcție: când „catch-up” devine strategie permanentă
Pe lângă tema siguranței, sursele au reclamat și lipsa de direcție, unul dintre foștii angajați spunând că xAI părea „blocată în faza de recuperare” față de competitori.
Asta contează pentru că o companie care aleargă să prindă din urmă tinde să ia scurtături: lansează mai repede, testează mai puțin, „împinge” limitele pentru atenție. Într-o industrie unde atenția se monetizează instant, tentația e uriașă. Dar când produsul tău poate genera conținut ilegal sau abuziv, „move fast” devine, pur și simplu, „break people”.
Nu e doar xAI: OpenAI arată că turbulența e de sistem
TechCrunch pune plecările de la xAI într-un tablou mai larg: OpenAI e zguduită de desființarea echipei de „mission alignment” și de concedierea unui executiv de politici care s-a opus „adult mode”.
Două companii, două stiluri, aceeași dilemă: cine conduce, de fapt, direcția — ingineria și etica internă sau presiunea de produs, piață și competiție? Când echipele care ar trebui să ridice steagul roșu sunt marginalizate, semnalul transmis e simplu: „livrați, nu comentați”.
Ce urmează: reglementarea va veni, dar după pagube
Implicația globală e că „siguranța” nu mai e o discuție de conferință, ci un subiect de reglementare și litigii. Cazuri precum deepfake-urile sexuale cu minori sunt genul de combustibil care accelerează legi mai dure, investigații și restricții — inclusiv pentru jucători care au fost mai responsabili.
Rămâne întrebarea pe care industria evită să o rostească: dacă cei mai buni oameni pleacă tocmai când produsele devin mai riscante, cine mai rămâne să apese frâna?
Surse: TechCrunch, The Verge (citate și informații atribuite în articolele TechCrunch)