externe

Cum arata un test al armatei americane de utilizare a Inteligentei Artificiale pe campul de lupta. Sfaturi instantanee: „Capturati podul”

Oamenii de stiinta de la Laboratorul de cercetare al armatei americane testeaza tehnologia OpenAI pentru a vedea daca aceasta le poate imbunatati abilitatile de planificare a luptei, relateaza Interesting Engineering.

In loc de tactici de moda veche, ei testeaza chatboti AI comerciali in contextul unui joc video militar stiintifico-fantastic numit Starcraft II.

In cadrul experimentului recent, cercetatorii din armata au creat un scenariu nu foarte complicat, cu o mana de unitati militare si o cunoastere foarte clara a campului de lupta. Acestia au dat drumul la chatboti cu inteligenta artificiala pentru a actiona ca asistent al unui comandant militar virtual.

Acesti chatboti, alimentati de modelele GPT-4 Turbo si GPT-4 Vision de la OpenAI, au o misiune. Ei trebuie sa distruga toate fortele inamice si sa ocupe un punct crucial de pe harta.

Rapizi ca fulgerul, asistentii au propus mai multe cursuri de actiune. De exemplu, acestia i-au oferit jucatorului-comandant optiunea de a prelua controlul unui anumit pod.

Inainte de aceasta, OpenAI si-a actualizat politicile in ianuarie 2024 pentru a permite anumite aplicatii militare. Cu toate acestea, a existat o restrictie privind joaca cu dezvoltarea de arme si ranirea oamenilor.

Josh Wallin de la Center for a New American Security din Washington, D.C., subliniaza ca a avea consilieri AI intr-un joc de razboi imaginar este un lucru, dar a te baza pe ei in conflicte complexe din viata reala este altceva.

„Aceasta idee ca vei folosi o inteligenta artificiala care iti va spune ‘iata planul tau strategic’, din punct de vedere tehnic, nu este fezabila in acest moment”, spune Wallin, „si cu siguranta nu este fezabila din punct de vedere etic sau juridic”, mai spune el.

Lauren Kahn de la Center for Security and Emerging Technology crede ca tehnologia nu este pregatita pentru aceste aplicatii de mare anvergura. „Sunt foarte ingrijorata de aceste tipuri de cazuri de utilizare”, a spus ea.

Vorbind de ingrijorari, Carol Smith de la Software Engineering Institute face o precizare cruciala. Oamenii ar putea urma orbeste sfaturile oferite de sistemele automate chiar si atunci cand au dovezi ca nu este cea mai buna cale de actiune.

Acest fenomen este cunoscut sub numele de prejudecata de automatizare. Cu alte cuvinte, doar pentru ca AI spune ceva, nu inseamna ca este corect. „Nu as recomanda utilizarea niciunui model lingvistic mare sau a unui sistem generativ de inteligenta artificiala pentru nicio situatie cu miza mare”, adauga Smith.

Urmareste-ne si pe:
Victor Mihalache

Share
Published by
Victor Mihalache

Recent Posts

Se infierbanta campania. Ciuca ii cere lui Ciolacu sa prezinte „lista vizitatorilor vilei RAAPPS din strada Cucu Starostescu nr. 6”. Surse, cine ar fi locuit acolo

Presedintele PNL, Nicolae Ciuca, i-a cerut joi premierului Marcel Ciolacu sa prezinte "lista vizitatorilor vilei…

2 ore ago

Rusia interzice minarea criptomonedelor in mai multe zone vaste din cauza lipsei de electricitate. Ce prevad noile legi rusesti legate de criptomonede

In unele regiuni din Rusia, minarea de criptomonede va fi in curand interzisa la nivel…

12 minute ago

Voyager 1 este in viata: Nava spatiala NASA reintra din nou in functiune la 24 de miliarde de kilometri distanta de Pamant

Voyager 1 s-a aventurat adanc in spatiul interstelar. Dupa o scurta tacere, o transmisiune a…

O oră ago

Operatiuni politienesti de amploare in Berlin dupa ce politia a descoperit o geanta cu explozibili intr-o gara: „A fost prevenit un atac”

O cautare a politiei este in curs de desfasurare joi in capitala germana, Berlin, dupa…

O oră ago

Bucuresti: Avocat suspectat ca a angajat un ucigas pentru a razbuna moartea fiului sau. Vizate erau iubita fiului si alte doua persoane

Procurori din Capitala au efectuat joi perchizitii la locuinta unui avocat suspendat, A.M.D., acesta fiind…

2 ore ago