Escrocheriile de clonare a vocii cu autorul inteligentei artificiale sunt in plin avant, avertizeaza un expert
Escrocii apeleaza din ce in ce mai des la instrumente de inteligenta artificiala (AI) pentru a clona vocile persoanelor pe care le vizeaza pe retelele de socializare pentru a efectua apeluri de panica catre familia sau prietenii acestora, in speranta de a convinge destinatarul involuntar al apelului sa le dea bani sau acces la informatii sensibile, potrivit Fox Business.
Mike Scheumack, directorul de inovatii al firmei de protectie impotriva furtului de identitate si de monitorizare a scorului de credit IdentityIQ, a declarat pentru FOX Business ca „AI exista de mult timp, iar companiile de software o folosesc de ceva vreme pentru a avansa tehnologia. Am vazut cum a inceput sa intre incet in acest tip de spatiu al criminalitatii cibernetice, apoi, dintr-o data, a crescut foarte rapid in ultimul an sau cam asa ceva”.
„Am vazut multe in ceea ce priveste escrocheriile de phishing avansate, escrocherii de phishing cu tinta precisa, am vazut ca inteligenta artificiala este folosita pentru a genera e-mailuri foarte specifice, iar limbajul este foarte specific in ceea ce priveste persoana vizata”, a adaugat el. „De asemenea, am vazut cum escrocheriile de clonare a vocii prin inteligenta artificiala au crescut in ultimul an, ceea ce este un subiect foarte infricosator.”
Escrocii care efectueaza escrocherii de clonare a vocii vor inregistra vocea unei persoane sau vor gasi un clip audio pe retelele de socializare sau in alta parte pe internet. „Tot ceea ce le trebuie sunt doar 3 secunde, 10 secunde este chiar mai bine, pentru a obtine o clona foarte realista a vocii dumneavoastra”, a explicat Scheumack. Proba audio este apoi rulata printr-un program de inteligenta artificiala care reproduce vocea, permitandu-i escrocului sa o faca sa spuna tot ceea ce tasteaza, pe langa faptul ca poate adauga ras, frica si alte emotii in vocea clonata.
Pentru a demonstra cat de sofisticate sunt programele de clonare a vocii AI, IdentityIQ a luat un esantion audio dintr-un interviu pe care autorul acestui articol l-a acordat in primavara acestui an in cadrul podcastului „Fox News Rundown”. Ei au folosit acel esantion audio pentru a crea o clona de voce AI a unui apel telefonic panicat catre un membru al familiei care solicita un transfer de bani prin aplicatie in urma unui accident de masina fictiv:
„Mama, trebuie sa vorbesc cu tine. Eu, eu urma sa intervievez pe cineva astazi pentru un articol la care lucrez si am fost implicat intr-un accident de masina. Sunt bine, dar am nevoie de ajutorul tau acum. Am lovit bara de protectie a celeilalte masini. Vor 1.000 de dolari pentru a acoperi costurile de reparare a pagubelor, altfel vor suna la politie si vor raporta totul la asigurare. Au nevoie de bani acum, iar eu am nevoie de ajutorul tau. Poti sa-mi trimiti, te rog, 1.000 de dolari prin Zelle? Va pot spune cum sa faceti asta”, a spus clona vocala.
Scheumack a remarcat ca apelurile clonelor vocale ale escrocilor sunt de obicei mai scurte decat acest exemplu si pot incerca sa intrerupa o potentiala conversatie spunand ceva de genul „Nu pot vorbi acum”, in timp ce transmit cererea de bani, acces la cont sau alte informatii sensibile.
„Scopul escrocului este de a va pune in situatia de a lupta sau de a fugi si de a va crea in minte urgenta ca persoana iubita se confrunta cu o problema. Asadar, cel mai bun mod de a face fata acestor situatii este sa inchideti si sa sunati imediat pe persoana iubita pentru a verifica daca este vorba despre ea sau nu”, a explicat el.
Scheumack a citat un exemplu recent al unui interviu realizat de IdentityIQ cu o persoana care a primit ceea ce credea ca este un apel de panica de la fiica ei care se afla intr-o tabara, dar care era de fapt o clona vocala generata de AI a fiicei sale. Escrocii gasisera pe retelele de socializare o postare pe care fiica sa o publicase, despre plecarea in tabara, si au folosit-o pentru a face apelul mai realist.
Escrocii care realizeaza escrocherii cu voce AI folosesc, de asemenea, programe AI pentru a cauta pe internet informatii despre persoane si intreprinderi, inclusiv postari audio sau video pe retelele de socializare sau in alta parte, pentru detalii care pot fi folosite pentru a face apeluri mai convingatoare catre victimele nestiutoare, a precizat Scheumack.
„Ceea ce este infricosator este ca nu vecinul tau de alaturi face asta… Este o organizatie sofisticata, nu o face o singura persoana. Aveti oameni fac cercetari pe retelele de socializare si aduna date despre oameni.”
In ceea ce priveste masurile pe care le pot lua persoanele fizice pentru a se asigura ca nu cad victime ale unei escrocherii de clonare a vocii AI, Scheumack a spus ca ar trebui sa fie atenti la ceea ce posteaza online si ce este disponibil publicului publicului larg si sa se gandeasca de doua ori inainte de a raspunde la un apel urgent de la un numar necunoscut.
„Fiti atenti la ceea ce postati online, acesta este un prim pas”, a spus Scheumack. „Al doilea pas este daca primiti un apel telefonic de la un numar necunoscut si este vorba de cineva pe care il iubiti, in general, fiti precauti cu asta – asta ar trebui sa fie un semnal de alarma pentru voi daca primiti un apel de la un numar necunoscut si este vorba de o ruda sau de o persoana draga si exista o situatie urgenta. Ar trebui cu siguranta sa va ganditi o secunda la asta.”
Scheumack a recomandat ca familiile sa ia in considerare implementarea unui fel de parola care este declansata de utilizarea unei alte fraze care poate fi folosita pentru a verifica daca cel care suna si care invoca un fel de urgenta este intr-adevar membrul familiei care spune ca este.