Agentiile de informatii americane folosesc inteligenta artificiala inca de acum 5 ani. Rezultate spectaculoase, a fost prevazuta si invadarea Ucrainei de catre Rusia
Cu mult timp inainte de boom-ul IA generativa, o firma din Silicon Valley contractata pentru a colecta si analiza date neclasificate privind traficul ilicit de fentanil din China a prezentat un argument convingator pentru adoptarea acesteia de catre agentiile de informatii din SUA, relateaza Association Press.
Rezultatele operatiunii au depasit cu mult analizele efectuate de oameni, descoperind de doua ori mai multe companii si cu 400% mai multe persoane implicate in comertul ilegal sau suspect cu acest opioid mortal.
Oficiali entuziasmati ai serviciilor de informatii americane au promovat public rezultatele – inteligenta artificiala a facut conexiuni bazate in principal pe date de pe internet si de pe dark-web – si le-au furnizat autoritatilor de la Beijing, indemnand la o actiune de reprimare.
Operatiunea, denumita Sable Fear, a fost lansata in 2019, cu trei ani inainte de lansarea produsului revolutionar ChatGPT al OpenAI. Utilizarea inteligentei artificiale inca de atunci a economist nenumarate ore de lucru.
„Nu ai fi putut face acest lucru fara inteligenta artificiala”, a declarat Brian Drake, directorul de atunci al Agentiei de Informatii a Apararii pentru Inteligenta Artificiala si coordonatorul proiectului.
Contractorul, Rhombus Power, avea sa foloseasca mai tarziu inteligenta artificiala generativa pentru a prezice invazia Rusiei in Ucraina cu o certitudine de 80% cu patru luni inainte, pentru un alt client al guvernului american. Rhombus spune ca alerteaza, de asemenea, clientii guvernamentali, pe care refuza sa ii numeasca, in legatura cu iminenta lansarilor de rachete nord-coreene si a operatiunilor spatiale chinezesti.
Agentiile de informatii din SUA se grabesc sa adopte inteligenta artificiala, considerand ca, in caz contrar, vor fi sufocate de cresterea exponentiala a datelor, pe masura ce tehnologia de supraveghere generata de senzori va acoperi si mai mult planeta.
Dar oficialii sunt foarte constienti de faptul ca tehnologia este tanara si fragila si ca AI generativa – modele de predictie antrenate pe seturi vaste de date pentru a genera la cerere text, imagini, videoclipuri si conversatii asemanatoare cu cele umane – nu este deloc potrivita pentru o meserie periculoasa si plina de informatii false.
Analistii au nevoie de „modele sofisticate de inteligenta artificiala care pot digera cantitati uriase de informatii din surse deschise si dobandite clandestin”, a scris recent directorul CIA, William Burns, in Foreign Affairs. Dar acest lucru nu va fi simplu.
Nand Mulchandani, director de tehnologie al CIA, considera ca, din cauza faptului ca modelele de inteligenta artificiala generica „halucineaza”, cel mai bine ar fi sa fie tratate ca un „prieten nebun si beat” – capabil de o mare perspicacitate si creativitate, dar si de minciuna.
Totusi, acest lucru nu opreste experimentele, care se desfasoara in mare parte in secret.
O exceptie: Mii de analisti din cele 18 agentii de informatii americane folosesc in prezent o inteligenta artificiala generica dezvoltata de CIA, numita Osiris. Acesta functioneaza pe date neclasificate si disponibile in mod public sau comercial – ceea ce se numeste open-source. Aceasta redacteaza rezumate adnotate, iar functia sa de chatbot le permite analistilor sa aprofundeze cautarile.
Mulchandani spune ca gen AI este buna mai ales ca asistent virtual care cauta „acul in stiva de ace”. Ceea ce nu va face niciodata, insista oficialii, este sa inlocuiasca analistii umani.
Cea mai importanta utilizare a inteligentei artificiale va fi in analiza predictiva, crede directorul executiv al Rhombus Power, Anshu Roy. „Aceasta va fi, probabil, una dintre cele mai mari schimbari de paradigma din intregul domeniu al securitatii nationale – capacitatea de a prezice ce vor face adversarii tai”, spune el.