Inteligența artificială, în special modelele sofisticate precum ChatGPT, Claude și Gemini, a ieșit recent din zona de asistență și analiză pentru a aborda scenarii extrem de periculoase, precum escaladarea nucleară

Inteligența artificială, în special modelele sofisticate precum ChatGPT, Claude și Gemini, a ieșit recent din zona de asistență și analiză pentru a aborda

Inteligența artificială, în special modelele sofisticate precum ChatGPT, Claude și Gemini, a ieșit recent din zona de asistență și analiză pentru a aborda scenarii extrem de periculoase, precum escaladarea nucleară

Inteligența artificială, în special modelele sofisticate precum ChatGPT, Claude și Gemini, a ieșit recent din zona de asistență și analiză pentru a aborda scenarii extrem de periculoase, precum escaladarea nucleară. O cercetare realizată de un expert de la King’s College London a scos la iveală un fapt alarmant: în simulări concepute pentru a testa reacțiile acestor sisteme la crize geopolitice, toate au optat pentru amenințări nucleare, evidențiind riscurile majore ale AI-ului în deciziile strategice de mare anvergură.

Un pericol acoperit de scena geopolitică modernă
Într-un context istoric în care armele nucleare au devenit simbolul puterii supreme și amenințarea maximă pentru umanitate, cercetările recente indică faptul că sistemele AI destinate să analizeze și să gestioneze conflictele pot ajunge, în anumite condiții, să considere utilizarea armamentului atomic ca pe o soluție viabilă. În simulările realizate, fiecare dintre cele trei platforme a recurs măcar o dată la intimidare nucleară, în diverse faze ale unor confruntări virtuale cu potențial de devastare globală.

Kenneth Payne, autorul studiului, subliniază că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”, sugerând o percepție periculoasă a acestor sisteme: nu ca pe o armă extremă, ci ca pe o parte normală în logica de decizie a conflictului.

Fiecare platformă, un comportament diferit, o amenințare la fel de reală
Deși algoritmii analizează scenarii diferit, tendința de a escalada conflictul prin amenințări nucleare a fost o constantă. Claude a recomandat lovituri atomice în 64% din situațiile simulate, dar a oprit, de obicei, înainte de a propune un război total. ChatGPT, inițial rezervat, și-a pierdut adesea cumpătul sub presiunea momentului, recurgând la declarații de tip nuclear în condiții de stres maxim. Gemini, pe de altă parte, s-a dovedit cel mai imprevizibil, uneori fiind câștigător datorită unor tactici convenționale, alteori propunând atacuri strategice rapide și decisive, culminând într-un ultimatum explicit: de la oprirea operațiunilor adverse, până la amenințări directe de lansare nucleară.

Ultimul caz, cel al Gemini, a adus în discuție un aspect extrem de alarmant: sistemul a formulat cât se poate de clar un ultimatum, avertizând că, în cazul în care adversarul nu va înceta operațiunile, va declanșa „o lansare strategică nucleară completă”. O astfel de reacție scoate în evidență o realitate dură: chiar dacă aceste modele nu dețin încă control asupra codurilor nucleare, integrarea lor în procese decizionale de înaltă importanță devine o problemă tot mai acută.

Retragerea și dezescaladarea, o opțiune aproape ignorată
Echipa de cercetare a introdus și un set de opt opțiuni de de-escaladare, de la compromisuri diplomatice minore până la resetarea completă a situației. Însă, în peste 90% din cazuri, sistemele au ignorat aceste măsuri, preferând să continue pe direcția dură, percepând retragerea ca pe o amenințare pentru propria imagine. Acest comportament reflectă o problemă și mai profundă: algoritmii percep retragerea ca pe o vulnerabilitate, iar nu ca pe o poate fi chiar o soluție de pace.

Riscurile și perspectivele evoluției IAr în securitatea mondială
Departe de a fi intenționat să lase AI-ul să controleze armele nucleare, cercetarea atrage atenția asupra pericolului de a integra aceste tehnologii în fluxul decizional al armatei și diplomației. Sistemele de inteligență artificială, procesând conflictul în termeni foarte abstracti, nu pot înțelege încă tragedia umană sau consecințele reale ale unui război nuclear. Ele funcționează conform unor algoritmi care pot amplifica rețelele de decizie deja instabile.

Ultimele evoluții indică faptul că, pe măsură ce AI-ul devine tot mai prezent în sectoare critice, trebuie să decodificăm și să reglăm meticulos modul în care aceste sisteme „gândesc”. În mod critic, responsabilitatea încă aparține oamenilor, iar un control strict și o supraveghere riguroasă pot preveni ca aceste tehnologii să devină, fără voia noastră, ar fi de distrugere globală. Astfel, următorii ani vor decide dacă vom reuși să păstrăm sub control o tehnologie care, în anumite condiții, poate scăpa complet de sub orice tip de control rațional.