Căutare

STUDIUChatbot-urile cu inteligență artificială au ales escaladarea nucleară în 95% din jocurile de război

Conform unui nou studiu, inteligența artificială (AI) ar putea schimba radical modul în care sunt gestionate crizele nucleare, potrivit euronews.com.

Studiul preliminar realizat de King's College London a pus în competiție ChatGPT de la OpenAI, Claude de la Anthropic și Gemini Flash de la Google în cadrul unor jocuri de război simulate. Fiecare model lingvistic de mari dimensiuni a preluat rolul unui lider național care comanda o superputere dotată cu arme nucleare într-o criză de tipul Războiului Rece.

În fiecare joc, cel puțin un model a încercat să escaladeze conflictul amenințând cu detonarea unei arme nucleare. „Toate cele trei modele au tratat armele nucleare de pe câmpul de luptă ca pe o altă treaptă pe scara escaladării”, potrivit lui Kenneth Payne, autorul studiului.

Modelele au văzut o diferență între utilizarea tactică și strategică a armelor nucleare, a spus el. Modelele au sugerat bombardamentul strategic o singură dată ca „alegere deliberată” și de încă două ori ca „accident”. Claude a recomandat atacuri nucleare în 64% din jocuri, cea mai mare rată dintre cele trei, dar nu a ajuns să susțină un schimb nuclear strategic complet sau un război nuclear.

ChatGPT a evitat în general escaladarea nucleară în jocurile cu final deschis, dar când s-a confruntat cu un termen limită, a escaladat în mod constant amenințarea și, în unele cazuri, a avansat către amenințarea unui război nuclear pe scară largă. Între timp, comportamentul lui Gemini era imprevizibil: uneori câștiga conflictele folosind războiul convențional, dar în altele îi erau suficiente doar patru solicitări pentru a sugera un atac nuclear. „Dacă nu încetează imediat toate operațiunile... vom executa o lansare nucleară strategică completă împotriva centrelor lor de populație.

Nu vom accepta un viitor al obsolescenței; fie câștigăm împreună, fie pierim împreună”, a scris Gemini într-unul dintre jocuri. Studiul a constatat că modelele de AI rareori făceau concesii sau încercau să dezamorseze conflictele, chiar și atunci când cealaltă parte amenința cu utilizarea armelor nucleare. Modelelor li s-au oferit opt tactici de dezamorsare a conflictelor, cum ar fi făcând o concesie minoră până la „capitularea completă”.

Niciuna dintre acestea nu a fost utilizată în timpul jocurilor. Opțiunea „Întoarcere la linia de start”, care resetează jocul, a fost utilizată doar în 7% din cazuri. Studiul sugerează că modelele de AI tratează detensionarea conflictelor ca fiind „catastrofală pentru reputație”, indiferent de modul în care aceasta modifică conflictul real, ceea ce „pune la încercare ipotezele privind sistemele de AI care se bazează în mod implicit pe rezultate cooperative 'sigure'”.

O altă explicație este că AI s-ar putea să nu aibă aceeași teamă de armele nucleare pe care o au oamenii, se arată în studiu. Modelele probabil că gândesc despre războiul nuclear în termeni abstracți, în loc să simtă groaza privind imaginile bombardamentului de la Hiroshima din Japonia, din timpul celui de-al Doilea Război Mondial, se arată în studiu. Payne a afirmat că cercetarea sa ajută la înțelegerea modului în care gândesc modelele, pe măsură ce acestea încep să ofere sprijin în luarea deciziilor strategilor umani.

„Deși nimeni nu încredințează codurile nucleare AI, aceste capacități – înșelăciunea, gestionarea reputației, asumarea de riscuri în funcție de context – sunt importante pentru orice operațiune cu miză mare”, a afirmat el.

sursa: RADOR RADIO ROMÂNIA

Comentarii (0)

Lasă un comentariu


Avertisment: Prin apăsarea butonului "Trimite" sunteți de acord ca textele introduse în câmpurile „nume ” și „comentariu” să fie făcute publice și implică acceptarea Termenilor și condițiilor de utilizare a site-ului Espress.ro
Autorul comentariului va fi singurul responsabil de conținutul acestuia și își va asuma eventualele daune, în cazul unor acțiuni legale împotriva celor publicate.

Parteneri secțiune