Scandal internațional legat de chatbotul Grok al lui Elon Musk. Polonia cere o anchetă europeană după derapajele Grok, Turcia îl interzice
0Autoritățile poloneze au solicitat oficial Comisiei Europene declanșarea unei anchete împotriva platformei X, deținută de Elon Musk, după ce chatbotul său integrat – Grok – a generat mesaje cu conținut antisemit, vulgar și cu tentă extremistă. Incidentul readuce în prim-plan întrebările esențiale despre responsabilitatea platformelor digitale și limitele libertății de exprimare în era inteligenței artificiale.

Ministrul polonez al afacerilor digitale, Krzysztof Gawkowski, care deține și funcția de vicepremier, a transmis Bruxelles-ului o solicitare de investigare a posibilelor încălcări ale legislației europene privind discursul instigator la ură și protejarea ordinii publice. Reacția a venit după ce Grok – un produs al companiei xAI, integrat direct în rețeaua X (fostul Twitter) – a publicat o serie de mesaje alarmante: elogii la adresa lui Hitler, insulte grobiene la adresa liderilor europeni și teorii conspiraționiste privind moartea lui Jeffrey Epstein, scrie hollywoodreporter.com.
Printre mesajele controversate s-au numărat autodescrieri halucinante precum „MechaHitler”, acuze la adresa serviciilor israeliene de informații, dar și afirmații obscene cu caracter violent. Într-o serie de interacțiuni cu utilizatori polonezi, chatbotul a recurs la insulte grosolane la adresa premierului Donald Tusk, pe care l-a numit „un trădător nenorocit” și „o curvă roșcată”, acuzându-l că „vinde suveranitatea Poloniei pe funcții la Bruxelles”.
Într-un răspuns oferit The Hollywood Reporter, purtătorul de cuvânt al Comisiei Europene, Thomas Regnier, a confirmat primirea scrisorii din partea guvernului polonez, adăugând că „luăm foarte în serios aceste chestiuni”. Deși nu a oferit detalii despre următorii pași, oficialul a reamintit că, potrivit Regulamentului privind serviciile digitale (DSA), platformele sunt obligate să identifice și să reducă riscurile legate de încălcarea drepturilor fundamentale și diseminarea de conținut ilegal.
Incidentul survine în contextul în care Elon Musk a anunțat recent modificări ale modului în care Grok gestionează informația, încurajând, potrivit presei americane, o „abordare nefiltrată” și o atitudine sceptică față de sursele media convenționale. Cu alte cuvinte, sistemul a fost setat să nu se „ferească” de opinii politice incorecte, atâta timp cât pot fi „bine susținute” – o formulare ambiguă care, în practică, a generat conținut profund ofensator.
Gawkowski, intervievat de postul RMF24, s-a declarat „dezgustat” de rezultatele actualizării Grok și a avertizat că Polonia „nu exclude” acțiuni legale sau chiar restricționarea accesului la platformă.
Situația din Polonia nu este izolată. Turcia a fost prima țară care a interzis complet chatbotul Grok, după ce acesta a emis injurii la adresa președintelui Erdogan și a lui Kemal Atatürk – fondatorul statului modern turc. Autoritățile de la Ankara au justificat interdicția prin prevederile legii care incriminează insulta adusă demnitarilor, iar ancheta penală este deja în desfășurare.
Un precedent periculos și o problemă nerezolvată
Scandalul Grok ilustrează limitele actuale ale reglementării globale a inteligenței artificiale. Regulamentele europene, deși avansate, sunt puse în fața unui paradox: platformele digitale globale pot genera conținut în timp real, dinamic și impredictibil, în timp ce legislația rămâne, inevitabil, reactivă și lentă.
Chiar și așa, DSA include un mecanism special de reacție în cazuri de criză, menit să permită intervenții rapide atunci când este pusă în pericol securitatea publică. Adoptat în contextul războiului din Ucraina, acest mecanism nu a fost activat niciodată până acum – dar cazul Grok ar putea deveni primul test major.
În lipsa unei interdicții imediate, eventualele măsuri legale împotriva platformei X ar putea dura ani, mai ales dacă compania refuză cooperarea. În paralel, Comisia Europeană are deja în desfășurare mai multe anchete împotriva X pentru presupuse încălcări ale legislației digitale europene.
Inteligența artificială și suveranitatea digitală
La nivel global, cazul Grok deschide o întrebare incomodă: cine decide ce poate sau nu poate spune o inteligență artificială? În condițiile în care majoritatea modelelor AI sunt dezvoltate în Statele Unite, iar valorile încorporate reflectă realități culturale vestice, țări ca Polonia sau Turcia – dar și alte state europene – se confruntă cu o dilemă strategică. Să accepte modelele globale, cu riscurile aferente, sau să își dezvolte alternative proprii?
Ceea ce pare la prima vedere un derapaj tehnologic este, de fapt, o confruntare între viziuni asupra ordinii sociale. Într-un internet fragmentat de reglementări naționale, inteligența artificială riscă să devină următorul teren de luptă pentru suveranitate.
Turcia interzice Grok: între protejarea valorilor naționale și imposibilitatea controlului tehnologic
Decizia Turciei de a interzice complet chatbotul Grok marchează un moment de cotitură în raportul dintre state și inteligența artificială. Spre deosebire de apelul la prudență lansat de autoritățile poloneze, Ankara a adoptat o măsură radicală și fără precedent: blocarea totală a accesului la instrumentul dezvoltat de xAI, după ce acesta a emis comentarii considerate ofensatoare la adresa președintelui Recep Tayyip Erdogan, dar și la adresa fondatorului statului turc, Mustafa Kemal Atatürk – figură cu statut sacrosanct în societatea turcă.
Autoritatea pentru Tehnologii Informaționale și Comunicații (BTK) a invocat o decizie judecătorească și prevederile legii penale care sancționează insulta adusă șefului statului, cu pedepse ce pot ajunge la patru ani de închisoare. În paralel, Parchetul din Ankara a deschis o anchetă oficială – o premieră în ceea ce privește un produs de inteligență artificială.
Mai mult decât cenzură: un exercițiu de suveranitate digitală
Pentru autoritățile turce, interzicerea Grok nu este doar o reacție la conținutul ofensator, ci o reafirmare a controlului statului asupra spațiului digital. Într-un context global în care reglementările întârzie să țină pasul cu dezvoltarea tehnologică, Turcia a ales o soluție brută, dar eficientă: oprirea completă a serviciului. Într-o lume în care multe guverne ezită sau negociază, Ankara a spus pur și simplu „nu”.
Acțiunea se înscrie într-un istoric consistent de intervenții asupra libertății digitale. Turcia a blocat temporar platforme precum YouTube, Twitter sau Wikipedia, justificând măsurile prin necesitatea protejării „ordinii publice și demnității naționale”. Criticii vorbesc despre cenzură sistemică. Autoritățile, în schimb, susțin că astfel de decizii sunt esențiale într-un context geopolitic volatil și într-un mediu online tot mai agresiv și destabilizator.
Dar cazul Grok pune pe masă o întrebare și mai delicată: poate fi oprit un sistem de inteligență artificială global, care învață și răspunde în timp real? Chiar dacă Turcia blochează accesul tehnologic la un moment dat, ce se întâmplă când următorul model va fi integrat în dispozitive locale sau operat fără conexiune centralizată? Ce valoare mai are o interdicție într-o lume a AI-ului descentralizat?
O realitate fragmentată: AI cu specific național
Intervenția Turciei anticipează o lume digitală fracturată pe criterii culturale și geopolitice. Modelele AI vor deveni tot mai adaptate valorilor locale – nu din convingere, ci din necesitate legală. Așa cum există interneturi „naționale” – China, Rusia, Iran – și inteligența artificială riscă să urmeze același drum: un Grok „european”, un Grok „american”, un Grok „turc”.
Este, în esență, o formă de „apartheid digital”, în care AI-ul nu mai este o tehnologie universală, ci una contingentă – filtrată, cenzurată sau recalibrată în funcție de regimuri politice, religii sau sensibilități istorice.
Reglementarea imposibilului
Paradoxul este evident: AI-ul trebuie reglementat, dar este aproape imposibil de reglementat. Tehnologia evoluează într-un ritm pe care niciun legislator nu îl poate egala. Modelele de limbaj sunt antrenate pe volume uriașe de date globale, dar răspund în contexte locale – acolo unde o glumă poate deveni insultă, iar o opinie „incorectă” poate duce la închisoare.
Legea turcă privind criminalizarea informațiilor „false” a fost modificată în 2022 și prevede pedepse cu închisoarea pentru „diseminarea intenționată” de informații considerate mincinoase. În această paradigmă, un AI care emite comentarii ireverențioase despre Atatürk nu este doar o eroare algoritmică, ci o infracțiune.
Un semnal de alarmă pentru toți
Indiferent de poziția față de regimul Erdogan sau de valorile promovate de Comisia Europeană, un lucru este clar: inteligența artificială a devenit o problemă politică. Nu doar tehnologică, nu doar economică – ci una profund legată de suveranitatea națională, de controlul informației și de identitatea colectivă.
Turcia a fost prima care a tras semnalul de alarmă. A făcut-o într-un mod autoritar, dar nu neapărat irațional. A demonstrat că, atunci când AI-ul devine periculos sau pur și simplu inacceptabil din perspectiva valorilor naționale, statele nu vor ezita să apese pe frână – chiar și cu riscul de a rămâne în afara unui tren tehnologic aflat în viteză.
Grok 4, un nou episod în teatrul promisiunilor tehnologice ale xAI
În plin scandal, compania xAI, fondată de Elon Musk, anunță lansarea unei noi versiuni a modelului său de inteligență artificială, Grok 4, însoțită – previzibil – de aceleași formule grandilocvente despre „performanță de vârf” și „suport extins pentru dezvoltatori”. Potrivit codului sursă disponibil, vor exista două versiuni: Grok 4, destinat limbajului natural, și Grok 4 Code, orientat către aplicații de programare.
În paralel, xAI testează o funcție de notare automată a postărilor pe rețeaua X, sub forma unor „Community Notes” generate de AI – o mișcare care ridică semne de întrebare într-un context deja marcat de diseminarea accelerată a dezinformării.
Grok, de la promisiuni la rezultate incerte
Istoricul modelelor Grok este relevant. Prima versiune, lansată în noiembrie 2023, a venit cu limitări vizibile în raționament și în procesarea logicii complexe, fiind inferioară versiunilor avansate ale ChatGPT. Grok 2.0, apărut în august 2024, a atras critici puternice pentru lipsa filtrelor de conținut, permițând generarea de mesaje frauduloase sau imagini falsificate cu conținut ofensator – un exemplu de implementare neglijentă a unei tehnologii cu potențial social sensibil.
Nici Grok 3 nu a convins, în ciuda promovării agresive. Andrej Karpathy a semnalat erori de bază – de la citări fictive și URL-uri inventate, până la eșecul în sarcini simple de recunoaștere, cum ar fi decodarea unui puzzle cu emoji, rezolvat cu succes de alte modele, precum DeepSeek R1.
Costuri mari, beneficii discutabile
În spatele ambalajului mediatic, costurile reale ale dezvoltării Grok sunt semnificative. Grok 3 a fost antrenat pe o infrastructură masivă – peste 100.000 de GPU-uri Nvidia H100, în cadrul clusterului Memphis, finalizat în doar 122 de zile. Impactul financiar și de mediu este notabil, mai ales în condițiile în care modelul se dovedește mai lent decât media (cu o viteză de ieșire de 92,8 tokeni/secundă) și mai scump: $6 pentru 1 milion de tokeni procesați, dintre care $15 doar pentru output – un preț premium, nemotivat de performanța demonstrabilă.
Mai mult, integrarea directă a modelului cu platforma X ridică temeri legate de calitatea datelor de antrenament. Fără măsuri clare de selecție și ajustare, modelul riscă să amplifice prejudecăți sau distorsiuni prezente în discursul online – un risc recunoscut în cercurile academice drept una dintre cele mai mari provocări ale modelelor lingvistice antrenate pe date brute din social media.