Un grup de 20 de companii tehnologice de top a anuntat vineri un angajament comun de combatere a dezinformarii legate de inteligenta artificiala in alegerile din acest an, relateaza CNBC.
Industria vizeaza in mod special deepfake-urile, care pot folosi materiale audio, video si imagini inselatoare pentru a imita persoane cheie in alegerile democratice sau pentru a furniza informatii false despre vot.
Microsoft, Meta, Google, Amazon, IBM, Adobe si producatorul de cipuri Arm au semnat cu totii acest acord. Start-up-urile de inteligenta artificiala OpenAI, Anthropic si Stability AI s-au alaturat, de asemenea, grupului, alaturi de companii de social media precum Snap, TikTok si X.
Platformele tehnologice se pregatesc pentru un an cu numeroase runde de alegeri in intreaga lume, care afecteaza peste patru miliarde de oameni din peste 40 de tari. Cresterea continutului generat de AI a condus la preocupari serioase referitoare la dezinformarea legata de alegeri, numarul de deepfakes care au fost create crescand cu 900% de la an la an, potrivit datelor Clarity, o firma de invatare automata.
Dezinformarea in alegeri a fost o problema majora care dateaza inca din campania prezidentiala din 2016, cand propagande rusa a gasit modalitati ieftine si usoare de a raspandi continut inexact pe platformele sociale. Legiuitorii sunt si mai ingrijorati astazi, avand in vedere cresterea rapida a inteligentei artificiale.
„Exista motive de ingrijorare serioasa cu privire la modul in care inteligenta artificiala ar putea fi folosita pentru a induce in eroare alegatorii in campanii”, a declarat intr-un interviu Josh Becker, un senator democrat din statul California.
„Este incurajator sa vedem ca unele companii sunt de acord sa combata dezinformarea, dar in acest moment nu vad suficiente detalii, asa ca probabil vom avea nevoie de o legislatie care sa stabileasca standarde clare”, a mai spus el.
Intre timp, tehnologiile de detectare utilizate pentru identificarea deepfake-urilor nu au avansat suficient de repede pentru a tine pasul. Deocamdata, companiile se inteleg doar asupra a ceea ce reprezinta un set de standarde tehnice si mecanisme de detectare.
Chiar daca platformele din spatele imaginilor si videoclipurilor generate de inteligenta artificiala sunt de acord sa includa elemente precum filigrane invizibile si anumite tipuri de metadate, exista modalitati de a ocoli aceste masuri de protectie.
Companiile participante la acord au convenit asupra a opt angajamente, printre care evaluarea riscurilor legate de modele, „incercarea de a detecta” si de a aborda distribuirea de astfel de continut pe platformele lor si asigurarea transparentei acestor procese pentru public. La fel ca in cazul majoritatii angajamentelor voluntare din industria tehnologica si nu numai, comunicatul a precizat ca angajamentele se aplica doar „acolo unde sunt relevante pentru serviciile pe care le ofera fiecare companie”.
„Democratia se bazeaza pe alegeri sigure si securizate”, a declarat Kent Walker, presedintele pentru afaceri globale al Google, intr-un comunicat. Acordul reflecta efortul industriei de a se confrunta cu „dezinformarea electorala generata de inteligenta artificiala care erodeaza increderea”, a spus el.
Presedintele iranian Masoud Pezeshkian a promis luni ca se va asigura ca politia morala nu…
UE va trimite opt avioane de stingere a incendiilor in Portugalia pentru a ajuta la…
Ultimele cuvinte auzite de la echipajul format din cinci persoane al submersibilului Titan inainte ca…
O interdictie a privind acordarea de noi licente pentru inchirierea de apartamente pe termen scurt…
Informatiile conform carora prim-ministrul israelian Benjamin Netanyahu se gandea sa-l demita pe ministrul Apararii Yoav…
Premierul britanic Keir Starmer a salutat luni eforturile Italiei de a combate imigratia ilegala, spunand…