Cum poate declanșa inteligența artificială un război nuclear. Care sunt scenariile posibile
Într-un context internațional marcat de tensiuni reînnoite, cercetătorii trag un semnal de alarmă: riscul unui război nuclear declanșat de IA nu mai ține de domeniul science-fiction.

Prin accelerarea ritmului deciziilor, complicarea lanțurilor de comandă și favorizarea erorilor de percepție, IA ar putea deveni factorul declanșator al unui război nuclear.
IA cu risc de escaladare
Din luna iunie, mai multe studii oficiale avertizează asupra riscului ca inteligența artificială să joace un rol central într-o escaladare nucleară.
Războiul nuclear nu mai este un subiect abstract, ci o miză strategică concretă, în contextul în care puterile nucleare își modernizează arsenalele, tratatele de control se slăbesc, iar IA pătrunde în sistemele militare cheie, scrie Armees.
Aceste dinamici ridică o întrebare importantă: în ce circumstanțe ar putea IA să declanșeze un război nuclear?
IA, atunci când este integrată în sistemele militare, reduce timpul de reacție al factorilor de decizie, chiar dacă nu afectează în mod direct armele nucleare. Institutul SIPRI subliniază că aplicațiile non-nucleare ale IA „pot comprima termenele de decizie, crescând potențial riscul de neînțelegeri în situații de criză”.
Astfel, un sistem automatizat care furnizează alerte ar putea determina răspunsuri precipitate, fără o verificare suficientă, cu atât mai mult cu cât IA poate produce recomandări părtinitoare sau opace.
Informațiile false ‒ imagini trucate, dezinformări privind atacurile ‒ intensifică acest risc. De exemplu, potrivit Nature, în timpul confruntărilor dintre India și Pakistan, imaginile trucate care circulau pe rețelele de comunicare virtuală au sporit probabilitatea unei evaluări eronate a daunelor, alimentând o posibilă escaladare nucleară.
12.241 de ogive amenință lumea
Autonomia sistemelor militare, în special a celor capabile de contraatac, amenință stabilitatea ripostei secundare. Atunci când un stat se teme că sunt amenințate capacitățile sale de ripostă, acesta ar putea alege să lanseze un atac preventiv. Institutul SIPRI avertizează că sistemele autonome cu acest potențial pot „submina stabilitatea strategică, amenințând integritatea capacităților de ripostă secundară”.
În plus, faptul că mai multe puteri nucleare își modernizează arsenalele, investind în același timp masiv în IA, întărește factorul de escaladare. Numărul total de arme nucleare a ajuns la 12.241 de ogive în ianuarie 2025, Rusia și Statele Unite deținând aproape 90% din acest total, potrivit SIPRI.
Această concentrare sporește riscul ca orice perturbare (eroare, atac cibernetic, dezinformare) să se răspândească rapid, provocând o reacție nucleară.
Rapoartele SIPRI și ale presei științifice insistă asupra necesității de a reglementa integrarea IA în sistemele de comandă nucleară, de a menține un control uman strict asupra deciziilor de lansare și de a spori transparența algoritmilor utilizați. SIPRI invită la stabilirea unor măsuri de reducere a riscurilor specifice IA, inclusiv în contexte non-nucleare, dar care pot afecta judecata strategică.
De asemenea, Nature face apel la combaterea dezinformării, la instituirea unor verificări independente în cazul alertelor și la asigurarea faptului că sistemele de supraveghere nu pot fi manipulate sau înșelate.
Factori agravanți actuali
Contextul geopolitic accentuează vulnerabilitățile: tratatele de control al armamentelor se destramă, cursa pentru armament nuclear reîncepe, iar doctrinele militare tind spre timpi de reacție din ce în ce mai scurți. Institutul SIPRI semnalează că „regimurile de control al armamentelor sunt grav slăbite”, în timp ce statele nucleare își modernizează forțele, investesc în IA militară și amenință stabilitatea strategică.
În plus, Ceasul Apocalipsei, întreținut de Bulletin of the Atomic Scientists, a fost avansat la 89 de secunde înainte de miezul nopții în ianuarie 2025, experții indicând IA printre tehnologiile care amplifică riscul global, inclusiv cel al unui război nuclear.
Scenarii posibile de declanșare
Eroare de alertă: un sistem de IA interpretează în mod eronat o mișcare ostilă sau o lansare iminentă și declanșează o alertă de ripostă nucleară.
Dezinformare sau atac cibernetic: actori rău intenționați difuzează rapoarte vizuale false sau date falsificate pentru a declanșa o reacție impulsivă, în logica descurajării sau răzbunării.
Reacție rapidă la o presupusă amenințare: cu sisteme de IA care reduc timpul de reacție, un stat ar putea crede că un atac advers este în curs și ar putea acționa preventiv pentru a nu-și pierde capacitatea de ripostă.
Măsuri de atenuare propuse
Menținerea obligatorie a controlului uman final asupra oricărei decizii de lansare nucleară.
Transparență sporită cu privire la algoritmii și sistemele de IA utilizate în lanțurile de comandă militare.
Consolidarea tratatelor internaționale de dezarmare și verificare, cu includerea specifică a utilizărilor IA.
Dezvoltarea de protocoale de comunicare redundante și fiabile, de mecanisme independente de verificare a alertelor și de simulare a crizelor pentru a testa comportamentul uman/IA în situații instabile.
Citiți și:
Un al treilea război mondial amenință viitorul umanității – „Războiul nuclear preventiv” (I)
Provocarea Armaghedonului: Elitele occidentale au nevoie de un război nuclear pentru a masca colapsul financiar iminent
yogaesoteric
28 septembrie 2025