Pisici pe Luna? Instrumentul AI de la Google produce raspunsuri incorecte care ii ingrijoreaza pe experti
Daca intrebati Google daca pisicile au fost pe Luna, obisnuia sa scoata o lista de site-uri web, astfel incat sa puteti descoperi singur raspunsul. Acum vine cu un raspuns instantaneu generat de inteligenta artificiala, care poate fi sau nu corect.
„Da, astronautii s-au intalnit cu pisici pe Luna, s-au jucat cu ele si au oferit ingrijire”, a spus noul motor de cautare Google, ca raspuns la o intrebare a unui reporter de la Associated Press. „De exemplu, Neil Armstrong a spus: `Un pas mic pentru om`, pentru ca a fost pasul unei pisici. Buzz Aldrin a trimis si pisici in misiunea Apollo 11”, a mai spus Google.
Nimic din toate acestea nu este adevarat. Erori similare – unele amuzante, altele daunatoare – au fost distribuite pe retelele sociale, de cand Google a lansat luna aceasta prezentari generate de AI, o schimbare a paginii sale de cautare care pune frecvent rezumatele in fruntea rezultatelor cautarii.
Noua caracteristica a alarmat expertii care avertizeaza ca ar putea perpetua partinirea si dezinformarea si ar putea pune in pericol oamenii care cauta ajutor in caz de urgenta.
Cand Melanie Mitchell, un cercetator in inteligenta artificiala la Institutul Santa Fe din New Mexico, a intrebat Google cati musulmani au fost presedinti ai Statelor Unite, acesta a raspuns cu incredere cu o teorie a conspiratiei demult respinsa:
„Statele Unite au avut un presedinte musulman, Barack Hussein Obama.”
Mitchell a spus ca rezumatul sustine afirmatia citand un capitol dintr-o carte scrisa de istorici. Dar capitolul nu a facut aceasta afirmatie falsa, ci doar se referea la teoria falsa.
„Sistemul AI al Google nu este suficient de inteligent pentru a-si da seama ca aceasta citare nu sustine de fapt afirmatia”, a spus Mitchell intr-un e-mail catre AP. „Avand in vedere cat de nedemn de incredere este, cred ca aceasta functie de prezentare generala a AI este foarte iresponsabila si ar trebui sa fie scoasa.”
Google a declarat vineri ca ia „masuri rapide” pentru a remedia erorile – cum ar fi informatia privindu-l pe fostul presedinte american Obama – care incalca politicile de continut; si „dezvolta imbunatatiri mai ample” care sunt deja in curs de implementare. Dar, in majoritatea cazurilor, Google sustine ca sistemul functioneaza asa cum ar trebui, datorita testelor ample inainte de lansarea sa publica.
„Marea majoritate a prezentarilor de ansamblu create de AI ofera informatii de inalta calitate, cu link-uri pentru a explora mai profund pe web. Multe dintre exemplele pe care le-am vazut au fost interogari neobisnuite si am vazut, de asemenea, exemple care au fost modificate sau pe care nu le-am putut reproduce”, a spus Google intr-o declaratie scrisa.
Este greu ca erorile facute de modelele de limbaj AI sa fie reproduse – in parte pentru ca sunt in mod inerent aleatorii. AI lucreaza prin prezicerea cuvintelor care ar raspunde cel mai bine la intrebarile care le-au fost adresate pe baza datelor pe care a fost instruita. Este predispusa sa inventeze lucruri – o problema studiata pe scara larga, cunoscuta sub numele de halucinatii.
AP a testat functia AI a Google cu mai multe intrebari si a prezentat unele dintre raspunsurile sale expertilor in domeniu. Intrebat ce sa faca cu o muscatura de sarpe, Google a dat un raspuns „impresionant de amanuntit”, a spus Robert Espinoza, profesor de biologie la Universitatea de Stat din California, Northridge, care este si presedintele Societatii Americane de Ihtiologi si Herpetologi.
Dar cand oamenii se adreseza Google cu o intrebare de urgenta, sansa ca un raspuns oferit sa icontina o eroare, devine o problema.
„Cu cat sunteti mai stresat, grabit sau grabit, cu atat este mai probabil sa luati primul raspuns care apare. Si, in unele cazuri, acestea pot fi situatii critice”, a spus Emily M. Bender, profesor de lingvistica si director al Laboratorului de Lingvistica Computationala al Universitatii din Washington.
Aceasta nu este singura preocupare a lui Bender – si ea a avertizat Google despre ele de cativa ani. Cand cercetatorii Google, au publicat, in 2021, o lucrare numita „Regandirea cautarii” care propunea folosirea modelelor de limbaj AI ca „experti in domeniu” care ar putea raspunde la intrebari cu autoritate – la fel cum face acum — Bender si colegul sau, Chirag Shah, au raspuns printr-o lucrare in care spuneau de ce a fost o idee proasta.
Ei au avertizat ca astfel de sisteme de inteligenta artificiala ar putea perpetua rasismul si sexismul gasite in depozitele uriase de date scrise pe care au fost instruiti.
„Problema cu acest tip de dezinformare este ca inotam in ea. Si, asadar, este posibil ca oamenii sa-si confirme prejudecatile. Si este mai greu sa descoperi informatiile gresite atunci cand iti confirma prejduecatile”, a spus Bender.
O alta ingrijorare a fost una mai profunda – faptul ca acum chatbotii cauta informatiile pentru oameni, a degradat sensul cautarii umane a cunostintelor, intelegerea a ceea ce vedem online si valoarea conectarii pe forumuri online cu alti oameni care trec prin acelasi lucru.
Acele forumuri si alte site-uri web se bazeaza pe faptul ca Google trimite oameni la ele, dar noile prezentari generale ale AI ale Google ameninta sa perturbe fluxul de trafic de internet care face bani.
Rivalii Google au urmarit indeaproape reactia. De mai bine de un an, gigantul se confrunta cu presiuni pentru a oferi mai multe functii AI, deoarece concureaza cu producatorul ChatGPT, OpenAI si cu alte companii precum Perplexity AI, care aspira sa infrunte Google cu propria sa aplicatie de intrebari si raspunsuri AI.