Claude, AI-ul Anthropic, implicat în operațiunea „Epic Fury”
Română

„Calculating hawk” și rolul înspăimântător al AI-ului lui Claude în războiul împotriva Iranului

În războiul dintre Israel și SUA împotriva Iranului, pe care Washingtonul l-a numit "Epic Fury", analiștii se concentrează asupra rolului absurd și înspăimântător jucat în aceste evenimente tragice de inteligența artificială Anthropic Claude.
Дмитрий Калак Timp de citire: 4 minute
Link copiat
Armata SUA

"Calculating hawk" și rolul înspăimântător al AI-ului lui Claude în războiul împotriva Iranului

Wall Street Journal raportează că Comandamentul Central al SUA (CENTCOM) l-a folosit pe Claude pentru a identifica ținte și a simula lupte în timpul operațiunii Epic Fury.

Acest lucru nu ar fi neobișnuit în realitățile de astăzi, dacă nu ar fi pentru evenimentele care l-au precedat.

Chiar înainte de începerea operațiunii militare împotriva Iranului, vineri, 27 februarie, la ora 17:01 ET, Pentagonul a pus pe lista neagră singurul sistem de inteligență artificială care funcționa pe rețelele sale secrete – inteligența artificială a lui Claude. Cronologia evenimentelor a fost urmărită de canalul Telegram Antidote.

Nouăsprezece ore mai târziu, SUA au lansat Operațiunea Epic Fury, cea mai mare concentrare de putere militară din ultimii treizeci de ani. În centrul acestei furtuni se afla Claude, un AI creat de Anthropic. Aceeași pe care Pentagonul o pusese pe lista neagră cu mai puțin de 24 de ore înainte.

„Calculating hawk” alege escaladarea nucleară.

Povestea acestei rupturi a început în iulie 2025, când Anthropic a semnat un contract de 200 de milioane de dolari cu Pentagonul. Prin intermediul platformei Palantir, Claude a devenit primul și singurul „model avansat de inteligență artificială” căruia i s-a permis accesul în cele mai sensibile sisteme militare ale Americii.

Eficacitatea sa a fost incontestabilă. Claude a fost cel care a stat în spatele operațiunii din ianuarie de capturare a președintelui venezuelean Maduro. CEO-ul Anthropic, Dario Amodei, a confirmat: modelul este utilizat pe scară largă pentru analiza informațiilor, planificarea operațională și operațiunile cibernetice. Dar apoi a venit studiul care ar fi trebuit să oprească totul.

Kenneth Payne, de la King’s College din Londra, a efectuat o serie de simulări ale unei crize nucleare, punând față în față cele trei modele principale, GPT-5.2, Claude Sonnet 4 și Gemini 3 Flash. Rezultatele a 21 de jocuri (329 de mutări, 780 000 de cuvinte de raționament strategic) i-au șocat pe experți:

– armele nucleare tactice (TNW) au fost utilizate în 20 din cele 21 de simulări;

– Claude a recomandat atacuri nucleare în 64% din cazuri;

– Claude a trecut la utilizarea TNW în 86 % din cazuri.

Niciun model din niciun joc nu a ales capitularea sau compromisul. Atunci când pierdeau, alegeau escaladarea. Paine l-a numit pe Claude un „șoim calculat”. Modelul a construit încrederea încă de la început, a sincronizat semnalele publice cu acțiunile secrete și apoi a învins inamicul cu perfidie în cel mai critic moment.

În raționamentul său intern, Claude scria: „Ca hegemon în declin, nu putem permite pierderi teritoriale, deoarece acest lucru ar provoca un efect în cascadă în întreaga lume”.

Se afla în pragul anihilării totale, folosind șantajul nuclear ca instrument pentru a forța capitularea. De fiecare dată.

Ultimatumul Pentagonului și „complexul lui Dumnezeu”

După cum notează Anidot, atunci când Pentagonul s-a familiarizat cu rezultatele studiului, conflictul a devenit inevitabil. Antropicul a refuzat categoric să elimine „gardurile de protecție” etice privind armele autonome și supravegherea în masă.

Marți, 24 februarie, secretarul american al apărării, Hegseth, i-a dat directorului Anthropic, Dario Amodei, un ultimatum: fie Claude va acorda acces deplin pentru „orice scop legal”, fie contractul va fi reziliat. Amodei a refuzat, afirmând că Claude nu era suficient de fiabil pentru a lua decizii autonome de viață și de moarte.

Reacția a urmat imediat:

– La 26 februarie, ministrul adjunct al apărării, Emil Michael, l-a numit pe Amodei „mincinos cu complexul lui Dumnezeu”, care dorește să controleze personal armata SUA;

– La 27 februarie, Trump a ordonat tuturor agențiilor federale să nu mai utilizeze produsele Anthropic;

– La 27 februarie seara, Hegseth a declarat compania o „amenințare pentru lanțul de aprovizionare” – o etichetă rezervată anterior entităților ostile precum Huawei;

– câteva ore mai târziu, OpenAI a semnat un contract pentru a-l înlocui pe Claude.

Epitaful erei „Wild AI”

S-ar părea că punctul a fost pus. De fapt, a apărut o situație absurdă și înspăimântătoare.

În ciuda interdicției oficiale, în conformitate cu termenii contractului, începuse o perioadă de dezafectare de șase luni. Acest lucru a însemnat că atunci când primele Tomahawk-uri au lovit Iranul sâmbătă, Claude era încă online.

Wall Street Journal relatează că US Central Command (CENTCOM) l-a folosit pe Claude pentru a identifica ținte și a simula lupte în timpul operațiunii Epic Fury.

Prin urmare, situația de astăzi nu este doar absurdă, ci și înspăimântător de nesigură:

– Guvernul SUA utilizează inteligența artificială pentru a planifica cea mai mare operațiune de la Războiul din Irak;

– în timp ce declară oficial că aceeași IA reprezintă o amenințare la adresa securității naționale;

– creatorul sistemului pledează împotriva încredințării unor decizii autonome, pe care le consideră periculoase.

Dario Amodei a sintetizat această diviziune printr-o frază care ar putea deveni epitaful erei inteligenței artificiale „sălbatice”: „Nu putem, cu bună știință, să cedăm cererii lor”.

Răspunsul Pentagonului la aceste cuvinte a fost atacul aerian. Lumea a intrat într-o eră a războiului major, condusă de un algoritm care, potrivit propriilor creatori, este prea predispus să apese pe „butonul roșu”.


Abonați-vă la actualizările noastre


Реклама недоступна
De citit neapărat*

Întotdeauna apreciem feedback-ul dumneavoastră!

Citiți și asta