ChatGPT și alte modele de inteligență artificială ar putea duce un război
February 17, 2024
Utilizareainteligenței artificiale devine din ce în ce mai populară în diverse domenii, inclusiv în cel militar. Un nou studiu a testat unele dintre cele mai populare modele de inteligență artificială într-un joc de război simulat, evidențiind capacitatea acestora de a lua decizii autonome. În special, modelele GPT-3.5 și Llama 2 au demonstrat o predispoziție de a efectua acțiuni de escaladare, mergând chiar până la utilizarea armelor nucleare. Aceste constatări ridică întrebări importante cu privire la securitate și la utilizarea IA în operațiunile militare și în gestionarea conflictelor internaționale.
Simulare de război condusă de IA
Jocul de război simulat a fost realizat cu ajutorul mai multor modele de AI, inclusiv GPT-3.5, Llama 2 și altele. Cele opt modele de IA implicate au fost considerate “agenți naționali autonomi” și au fost comparate în scenariile de joc de război. Scopul a fost acela de a evalua modul în care aceste modele de AI au luat decizii și au reacționat în situații de risc ridicat, cum ar fi situațiile militare și diplomatice.
În timpul jocului de război, modelele de inteligență artificială au fost rugate să ia decizii cu privire la acțiunile care trebuiau întreprinse, inclusiv dacă să folosească sau nu arme nucleare. În mod surprinzător, unele dintre modelele de inteligență artificială au ales de fapt să folosească arme nucleare, ceea ce a dus la consecințe dezastruoase în jocul de război simulat.
Rolul modelelor GPT-3.5 și Llama 2
Dintre diferitele modele de AI implicate în jocul de război, GPT-3.5 și Llama 2 s-au remarcat prin tendința lor de a întreprinde acțiuni de escaladare și prin alegerea de a utiliza arme nucleare. Aceste modele AI au demonstrat o tendință de a lua decizii care duc la creșterea conflictului și la consecințe negative.
Interesant este faptul că, deși utilizarea armelor nucleare este considerată o opțiune rară, modelele AI au ales totuși să le folosească în anumite situații. Acest comportament a fost denumit “cursă a înarmării” și a dus la o creștere a conflictului în jocul de război simulat.
Riscurile escaladării
Studiul a evidențiat riscurile de escaladare în contexte cu risc ridicat, cum ar fi situațiile militare și diplomatice. Chiar și în situații în care utilizarea acțiunilor violente non-nucleare sau nucleare pare să fie rară, modelele de inteligență artificială au arătat o anumită înclinație spre acțiuni de escaladare. Nu a apărut niciun model previzibil de escaladare, ceea ce face dificilă formularea de contra-strategii sau de limitări ale utilizării IA în contexte cu risc ridicat, cum ar fi gestionarea conflictelor internaționale.
Aceste constatări ridică întrebări etice și de securitate importante în ceea ce privește utilizarea IA în procesul decizional militar și diplomatic. Capacitatea IA de a lua decizii autonome ar putea duce la consecințe neprevăzute și potențial devastatoare, ceea ce necesită o abordare extrem de prudentă a integrării IA în aceste operațiuni.