Cum arata un test al armatei americane de utilizare a Inteligentei Artificiale pe campul de lupta. Sfaturi instantanee: „Capturati podul”
Oamenii de stiinta de la Laboratorul de cercetare al armatei americane testeaza tehnologia OpenAI pentru a vedea daca aceasta le poate imbunatati abilitatile de planificare a luptei, relateaza Interesting Engineering.
In loc de tactici de moda veche, ei testeaza chatboti AI comerciali in contextul unui joc video militar stiintifico-fantastic numit Starcraft II.
In cadrul experimentului recent, cercetatorii din armata au creat un scenariu nu foarte complicat, cu o mana de unitati militare si o cunoastere foarte clara a campului de lupta. Acestia au dat drumul la chatboti cu inteligenta artificiala pentru a actiona ca asistent al unui comandant militar virtual.
Acesti chatboti, alimentati de modelele GPT-4 Turbo si GPT-4 Vision de la OpenAI, au o misiune. Ei trebuie sa distruga toate fortele inamice si sa ocupe un punct crucial de pe harta.
Rapizi ca fulgerul, asistentii au propus mai multe cursuri de actiune. De exemplu, acestia i-au oferit jucatorului-comandant optiunea de a prelua controlul unui anumit pod.
Inainte de aceasta, OpenAI si-a actualizat politicile in ianuarie 2024 pentru a permite anumite aplicatii militare. Cu toate acestea, a existat o restrictie privind joaca cu dezvoltarea de arme si ranirea oamenilor.
Josh Wallin de la Center for a New American Security din Washington, D.C., subliniaza ca a avea consilieri AI intr-un joc de razboi imaginar este un lucru, dar a te baza pe ei in conflicte complexe din viata reala este altceva.
„Aceasta idee ca vei folosi o inteligenta artificiala care iti va spune ‘iata planul tau strategic’, din punct de vedere tehnic, nu este fezabila in acest moment”, spune Wallin, „si cu siguranta nu este fezabila din punct de vedere etic sau juridic”, mai spune el.
Lauren Kahn de la Center for Security and Emerging Technology crede ca tehnologia nu este pregatita pentru aceste aplicatii de mare anvergura. „Sunt foarte ingrijorata de aceste tipuri de cazuri de utilizare”, a spus ea.
Vorbind de ingrijorari, Carol Smith de la Software Engineering Institute face o precizare cruciala. Oamenii ar putea urma orbeste sfaturile oferite de sistemele automate chiar si atunci cand au dovezi ca nu este cea mai buna cale de actiune.
Acest fenomen este cunoscut sub numele de prejudecata de automatizare. Cu alte cuvinte, doar pentru ca AI spune ceva, nu inseamna ca este corect. „Nu as recomanda utilizarea niciunui model lingvistic mare sau a unui sistem generativ de inteligenta artificiala pentru nicio situatie cu miza mare”, adauga Smith.