Video AI cu Ion Iliescu in 2099: „Romania s-a schimbat mai mult decat mi-as fi imaginat vreodata”

life

Iliescu AI

Un video realizat cu instrumente ale Inteligentiei Artificiale, in care apare Ion Iliescu in anul 2099, in posturi realiste, a devenit viral pe retelele de socializare.

Filmarea a fost realizata de Aurel Manea. „Dupa 12 ore de munca (inclusiv toata noaptea asta), facut dataseturi, trainat 2 modele, clonat voci, luptat 7 Softuri de AI si o leaca de Davinci Resolve am reusit sa fac asta”, a explicat Manea.

Iata filmarea:

Ion Iliescu s-a nascut pe 3 martie 1930. In anul 2099, el ar avea 169 de ani.

In luna martie, Parlamentul European a aprobat Legea privind inteligenta artificiala, care garanteaza siguranta si respectarea drepturilor fundamentale si stimuleaza inovatia.

Regulamentul, convenit in decembrie 2023 in cadrul negocierilor cu statele membre, a fost adoptat de deputatii europeni cu 523 voturi pentru, 46 impotriva si 49 abtineri.

El urmareste sa protejeze drepturile fundamentale, democratia, statul de drept si sustenabilitatea mediului in fata sistemelor de IA cu grad ridicat de risc. Actul legislativ vizeaza si sa incurajeze inovatia si sa asigure un rol de lider in domeniu pentru Europa. Regulamentul impune obligatii in cazul inteligentei artificiale, in functie de riscurile sale potentiale si de impactul preconizat.

Noile norme interzic anumite utilizari ale inteligentei artificiale care ameninta drepturile cetatenilor, inclusiv sistemele biometrice de clasificare bazate pe caracteristicile sensibile ale persoanelor. Extragerea fara scop precis a imaginilor faciale de pe internet ori din inregistrarile camerelor video cu circuit inchis pentru a crea baze de date de recunoastere faciala se numara si ea printre utilizarile interzise. Nu vor fi permise nici recunoasterea emotiilor la locul de munca si in scoli, atribuirea unui punctaj social, sistemele de politie predictiva (cand acestea se bazeaza doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale) si IA care manipuleaza comportamentul uman sau exploateaza vulnerabilitatile oamenilor.

Folosirea sistemelor de identificare biometrica de catre organele de aplicare a legii este in principiu interzisa, cu exceptia unor situatii enumerate in mod exhaustiv si definite in mod strict. Sistemele de identificare biometrica „in timp real” pot fi instalate doar daca se respecta garantii stricte, de exemplu, daca folosirea lor este limitata in timp si geografic si este aprobata in prealabil de o autoritate judiciara sau de un organ administrativ. Ele pot fi folosite, de pilda, pentru a cauta o persoana disparuta sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto (sistemele de identificare biometrica „ulterioara”) este considerata un caz de utilizare cu grad ridicat de risc si este posibila doar in virtutea emiterii unei autorizatii judiciare legate de o infractiune penala.

Textul prevede si obligatii clare pentru alte sisteme de IA cu grad ridicat de risc, din cauza potentialului lor ridicat de a afecta negativ sanatatea, siguranta, drepturile fundamentale, mediul, democratia si statul de drept. Iata cateva exemple de utilizari ale IA care prezinta un grad ridicat de risc: infrastructura critica, educatia si formarea profesionala, serviciile publice si private esentiale (sanatatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migratia si gestionarea frontierelor, justitia si procesele democratice (de exemplu, pentru a preveni influentarea alegerilor). Aceste sisteme trebuie sa evalueze si sa reduca riscurile, sa mentina asa-numite „fisiere de jurnalizare” care permit inregistrarea automata a evenimentelor, sa fie transparente si precise si sa faca obiectul supravegherii umane. Cetatenii vor avea dreptul sa depuna plangeri in legatura cu sistemele de IA si sa primeasca explicatii despre deciziile bazate pe sisteme de IA cu grad ridicat de risc care le afecteaza drepturile.

Sistemele de inteligenta artificiala de uz general si modelele de IA de uz general pe care se bazeaza acestea trebuie sa respecte anumite cerinte in materie de transparenta, inclusiv legislatia UE in domeniul drepturilor de autor si publicarea unor rezumate detaliate ale continutului utilizat la antrenarea modelelor de IA. Modelele mai puternice pentru sistemele IA de uz general care ar putea prezenta riscuri sistemice vor trebui sa respecte cerinte suplimentare, inclusiv privind evaluarea modelelor, evaluarea si reducerea riscurilor sistemice si raportarea incidentelor.

In plus, imaginile si continuturile audio si video artificiale sau manipulate (de tip „deepfake”) trebuie sa fie etichetate clar ca atare.

Urmareste-ne si pe:

Comentarii: