
Experiența noastră de lucru la intersecția dintre antreprenoriat, știință și politica digitală ne permite să spunem cu încredere: acesta este un plan nesăbuit. Dar Emiratele Arabe Unite pretind a fi un model global pentru politica digitală, astfel încât alte țări ar putea decide să urmeze exemplul.
Acest pericol nu poate fi ignorat. Suntem deja foarte conștienți de ceea ce se întâmplă atunci când guvernele deleagă procesul decizional algoritmilor. În 2021, un sistem de învățare automată din Țările de Jos a taxat eronat un aproximativ 35.000 familii de fraudă privind alocațiile pentru copii. Părinții au fost obligați să returneze zeci de mii de euro pe care nu îi datorau statului; oamenii și-au pierdut casele; mai mult de două mii de copii au fost luați de autoritățile de îngrijire de stat.
Acest rezultat a fost, de fapt, programat. Numele cu sonoritate străină și dubla cetățenie au fost notate ca factori de risc în sistem. Acest lucru a condus la capturarea discriminării ilegale direct în model. Rezultatul a fost un scandal la nivel național care a dus în cele din urmă la demisia guvernului premierului de atunci, Mark Rutte.
Tendințe similare au fost observate în Australia. Între 2015 și 2019, programul Robodebt a urmărit penal 433 000 de beneficiari de ajutoare sociale, solicitând returnarea unor sume de 1,7 miliarde de dolari australieni (1,2 miliarde de dolari). Pagubele au fost enorme. Mamele au povestit despre fii care s-au sinucis după ce au primit notificări de arierate pe care nu le-au putut contesta în niciun fel. Ulterior, o comisie regală a constatat că programul nu a fost „nici corect, nici legal”.
Între timp, în SUA, statele Arkansas și Idaho au înlocuit asistentele cu algoritmi care evaluau necesitatea și cantitatea de îngrijiri la domiciliu acordate pacienților. Persoanelor cu paralizie cerebrală, tetraplegie și scleroză multiplă li s-au redus dintr-o singură lovitură îngrijirile la domiciliu cu 20-50%. Mai mult, instanțele au ordonat instanțelor să oprească utilizarea acestor sisteme, dar acest lucru s-a întâmplat doar după ce răul fusese deja făcut. Unii pacienți au fost lăsați fără un sprijin adecvat, ceea ce a dus la complicații medicale care puteau fi evitate.
Fiecare dintre aceste cazuri a implicat un singur sistem al unei singure agenții. Acum imaginați-vă că astfel de sisteme vor gestiona jumătate din toate serviciile publice, așa cum prevede planul Emiratelor Arabe Unite.
Gândiți-vă, de exemplu, la o mamă singură ale cărei prestații pentru copii au fost înghețate după ce un agent AI a semnalat activitatea sa bancară ca fiind suspectă. Dintr-o dată, ea trebuie să se ocupe de procedurile de apel atunci când un sistem automat o trimite la altul (fără niciun contact uman) și exact când ar trebui să își plătească chiria. Sau lucrătorul migrant căruia i se refuză reînnoirea permisului de ședere deoarece sistemul nu poate recunoaște documentele angajatorului său (transformându-l efectiv într-un migrant fără documente). Sau văduva în vârstă ale cărei plăți ale pensiei au fost suspendate din cauza neconcordanțelor din două baze de date și care nu poate înțelege interfața software.
Principalele riscuri ale agenților AI
Acestea nu sunt situații ipotetice. Acestea sunt cazuri tipice, documentate pe care agentul AI le exacerbează într-o asemenea măsură încât niciun program de formare nu poate rezolva problema în intervalul de doi ani stabilit de EAU.
Sunt evidențiate trei riscuri-cheie. Primul este amploarea: atunci când un asistent social face o greșeală, o persoană suferă; atunci când un agent AI face o greșeală, mii de persoane pot fi afectate înainte ca cineva să observe.
În plus, procesul decizional al inteligenței artificiale nu este transparent. Sistemele de agenți iau decizii în mod secvențial, iar fiecare pas se bazează pe cel anterior, astfel încât, în momentul în care prejudiciul devine vizibil, lanțul cauzal este de fapt pierdut. Un exemplu grăitor este situația sistemului algoritmic de evaluare a prestațiilor medicale din statul Arkansas. Nimeni – nici măcar creatorii modelului – nu a putut explica pe deplin cum funcționează, ceea ce a determinat o instanță federală să îl numească „„extrem de irațional„. În plus, lipsa de transparență poate fi o calitate intrinsecă datorată secretelor comerciale sau proprietății private a sistemelor care stau la baza algoritmilor.
În cele din urmă, sistemele de inteligență artificială transferă sarcina probei: obligă cetățenii să își dovedească nevinovăția, în loc să solicite statului să își justifice acțiunile. În urma scandalului privind alocațiile pentru copii din Țările de Jos și a programului Robodebt din Australia, a devenit clar că cei care suferă cel mai mult sunt cei care sunt cel mai puțin capabili să dovedească ceva, și anume persoanele cu timp limitat, bani puțini, competențe lingvistice reduse și lipsa accesului la asistență juridică.
Logica defectuoasă a eficienței
Emiratele Arabe Unite susțin că principiul „oamenii pe primul loc” va fi principiul director al programului lor de IA. Cu toate acestea, abordările alese spun o poveste diferită. Un guvern care evaluează ministerele în funcție de „viteza de punere în aplicare” și de nivelul de „competență în materie de inteligență artificială” nu urmărește ceea ce contează cu adevărat; acesta copiază aceeași logică a eficienței care a produs deja atât de multe daune în întreaga lume.
Viteza de adoptare este metrica vânzătorului. Iar datoria principală a guvernului este să aibă grijă de oameni, pe baza judecății umane.
Această abordare este în conformitate cu așteptările cetățenilor ca guvernul să fie responsabil și transparent, explicând deciziile care le afectează drepturile și libertățile. Atunci când autoritățile optează cu entuziasm pentru un proces decizional autonom bazat pe inteligența artificială în numele eficienței, ele renunță în esență la această responsabilitate.
Toate scandalurile legate de algoritmi din ultimii ani ridică aceleași întrebări fundamentale: cine este responsabil și cine a luat decizia? Într-un guvern condus de un AI bazat pe agenți, aceste întrebări nu mai au răspunsuri clare. Sistemul decide singur, se actualizează singur și merge înainte pe cont propriu, lăsând cetățenii fără ajutor atunci când lucrurile merg prost.
Din cauza creșterii AI, responsabilitatea democratică este erodată, nu prin preluarea deschisă a puterii, ci prin decizii de achiziții publice care înlocuiesc în liniște supravegherea umană. Prin slăbirea încrederii în instituțiile publice într-un moment în care aceasta este deja periculos de scăzută, aceste sisteme sfârșesc prin a servi interesele giganților tehnologici care promovează revoluția IA.
Nu trebuie să fie așa. Emiratele Arabe Unite dispun de resursele, talentul și stabilitatea politică necesare pentru a construi un guvern digital cu adevărat centrat pe om, care poate deveni standardul global, completând (nu înlocuind) procesul decizional uman.
EAU nu vor fi singurele care vor trebui să plătească pentru greșeli. Va fi vorba de mama singură din altă țară ale cărei beneficii sunt anulate de un algoritm despre care nici măcar nu știe că există și de nenumărate alte persoane ca ea din întreaga lume.

Gabriela Ramos
Gabriela Ramos este copreședintă a Grupului de lucru privind inegalitatea și informațiile financiare relevante din punct de vedere social, fost director general adjunct pentru științe sociale și umane la UNESCO, unde a supravegheat elaborarea Recomandărilor privind etica inteligenței artificiale, fost șef de cabinet la OCDE și a lucrat ca Sherpa la G20, G7 și APEC.

Emilia Stoymenova Spirit
Emilija Stojmenova Duh este profesor asociat de inginerie electrică la Universitatea din Ljubljana, membru al consiliului de administrație al Fundației Globethics și fost ministru al transformării digitale din Slovenia.
© Project Syndicate, 2026.
www.project-syndicate.org









