Fizicianul Max Tegmark de la MIT crede ca directorii din domeniul tehnologiei nu vor intrerupe dezvoltarea inteligentiei artificiale pentru a evalua riscurile. Concurenta este prea intensa, relateaza The Guardian.
Omul de stiinta, care a cerut public luarea unei pauze in dezvoltarea unor sisteme puternice de inteligenta artificiala, a declarat ca directorii din domeniul tehnologiei nu si-au oprit activitatea pentru ca sunt blocati intr-o „cursa fara sfarsit”.
Max Tegmark, co-fondator al Future of Life Institute, a publicat in martie o scrisoare deschisa in care a cerut o pauza de sase luni in dezvoltarea unor sisteme gigantice de inteligenta artificiala.
In ciuda sprijinului a peste 30.000 de semnatari, printre care Elon Musk si cofondatorul Apple, Steve Wozniak, documentul nu a reusit sa obtina o pauza in dezvoltarea celor mai ambitioase sisteme.
Vorbind pentru The Guardian, la sase luni distanta, Tegmark a declarat ca nu se astepta ca scrisoarea sa opreasca companiile de tehnologie sa lucreze la modele de inteligenta artificiala mai puternice decat GPT-4, modelul de limbaj care alimenteaza ChatGPT, deoarece concurenta a devenit atat de intensa.
„Am simtit ca, in privat, o multime de lideri de companii cu care am vorbit au vrut [o pauza], dar au fost prinsi in aceasta cursa fara sfarsit impotriva celorlalti. Asa ca nicio companie nu poate face o pauza singura”, a spus el.
Scrisoarea avertiza asupra unei „curse scapate de sub control” pentru a dezvolta inteligente pe care nimeni nu le-ar putea „intelege, prezice sau controla in mod fiabil” si indemna guvernele sa intervina daca nu se poate ajunge la un acord intre principalele companii de inteligenta artificiala, cum ar fi Google, OpenAI, proprietarul ChatGPT si Microsoft, in vederea introducerii unui moratoriu asupra dezvoltarii unor sisteme mai puternice decat GPT-4.
„Ar trebui sa dezvoltam minti non-umane care ar putea, in cele din urma, sa ne depaseasca numeric, sa fie mai inteligente si sa ne inlocuiasca? Ar trebui sa riscam sa pierdem controlul asupra civilizatiei noastre?”, s-a intrebat el.
Tegmark, profesor de fizica la Massachusetts Institute of Technology, considera ca scrisoarea a fost un succes.
„Scrisoarea a avut un impact mai mare decat am crezut ca va avea”, a spus el, subliniind trezirea politica privind IA care a inclus audieri in Senatul SUA cu directori din domeniul tehnologiei si convocarea de catre guvernul britanic a unui summit global privind siguranta IA in noiembrie.
Exprimarea ingrijorarii cu privire la inteligenta artificiala a trecut de la un tabu la un punct de vedere general de la publicarea scrisorii, a spus Tegmark. Scrisoarea grupului sau de reflectie a fost urmata, in luna mai, de o declaratie a Centrului pentru siguranta IA, sustinuta de sute de directori din domeniul tehnologiei si de cadre universitare, in care se declara ca IA ar trebui sa fie considerata un risc societal la fel de mare ca pandemiile si razboiul nuclear.
„Am simtit ca exista o multime de anxietate reprimata in legatura cu mersul inainte cu IA, pe care oamenii din intreaga lume se temeau sa o exprime de frica sa nu para niste oameni slabi. Scrisoarea a legitimat discutiile despre acest subiect. Astfel, oameni ca Yuval Noah Harari [semnatar al scrisorii] spun acest lucru, iar politicienii incep sa puna intrebari dificile”, a declarat Tegmark, al carui thinktank cerceteaza amenintarile existentiale si beneficiile potentiale ale tehnologiei de ultima ora.
Temerile legate de dezvoltarea inteligentei artificiale variaza de la cele imediate, cum ar fi capacitatea de a genera videoclipuri deepfake si de a produce dezinformare in masa, pana la riscul existential reprezentat de inteligentele artificiale superdezvoltate care se sustrag controlului uman sau iau decizii ireversibile si cu consecinte majore.
Omul de stiinta suedezo-american a declarat ca summitul britanic privind siguranta inteligentei artificiale din noiembrie, care va avea loc la Bletchley Park, este un „lucru minunat”. Grupul sau de reflectie a declarat ca summitul ar trebui sa vizeze trei realizari: stabilirea unei intelegeri comune a gravitatii riscurilor pe care le prezinta inteligenta artificiala, recunoasterea faptului ca este necesar un raspuns global unificat si acceptarea necesitatii unei interventii guvernamentale urgente.
El a adaugat ca este nevoie de o pauza in dezvoltare pana cand vor fi indeplinite standardele de siguranta convenite la nivel mondial. „Realizarea unor modele mai puternice decat cele pe care le avem acum trebuie sa fie pusa pe pauza pana cand acestea pot indeplini standardele de siguranta convenite.” El a adaugat: „A ajunge la un acord asupra standardelor de siguranta va determina, in mod natural, o pauza.”
De asemenea, Tegmark a indemnat guvernele sa ia masuri privind modelele de inteligenta artificiala cu sursa deschisa care pot fi accesate si adaptate de catre public. Meta a lui Mark Zuckerberg a lansat recent un model de limbaj de mari dimensiuni cu sursa deschisa, numit Llama 2 si a fost avertizat de un expert britanic ca o astfel de actiune este similara cu „a da oamenilor un sablon pentru a construi o bomba nucleara”.
„Tehnologia periculoasa nu ar trebui sa fie open source, indiferent daca este vorba de arme biologice sau de software”, a declarat Tegmark.
Intr-un articol scris joi pe blogul sau, ideologul regimului de la Kremlin, Alexandr Dughin, isi…
Vineri dimineata, in jurul orei 4.00, politistii de la Brigada Rutiera au fost sesizati printr-un…
Donald Trump Jr., fiul presedintelui ales Donald Trump, a spus ca doreste ca doar oamenii…
De la 1 ianuarie 2025, va fi interzisa acoperirea fetei in locurile publice din intreaga…
Planul politic cel mai important al noului presedinte Donald Trump este punerea in aplicare a…
Secretarul de stat din Ministerul Sanatatii, dr. Alexandru Rogobete, a facut joi, la Ploiesti, declaratii…