Comitetul european pentru protectia datelor spune ca ChatGPT nu indeplineste inca standardele de acuratete a datelor
Eforturile OpenAI de a produce rezultate mai putin false din partea chatbot-ului sau ChatGPT nu sunt suficiente pentru a asigura conformitatea deplina cu Directiva privind protectia datelor in UE, a declarat un grup de lucru din cadrul organismului de supraveghere al confidentialitatii al UE, potrivit Reuters.
„Desi masurile luate pentru a respecta principiul transparentei sunt benefice pentru a evita interpretarea gresita a rezultatelor ChatGPT, ele nu sunt suficiente pentru a respecta principiul acuratetii datelor”, a declarat grupul de lucru intr-un raport publicat vineri pe site-ul sau.
Organismul care reuneste institutiile nationale de supraveghere a confidentialitatii din Europa a infiintat grupul de lucru pentru ChatGPT anul trecut, dupa ce autoritatile nationale de reglementare conduse de autoritatea italiana si-au exprimat ingrijorarea cu privire la serviciul de inteligenta artificiala utilizat pe scara larga.
Diversele investigatii lansate de organismele nationale de supraveghere a confidentialitatii din unele state membre sunt inca in desfasurare, se arata in raport, adaugand ca, prin urmare, nu a fost inca posibil sa se furnizeze o descriere completa a rezultatelor. Constatarile urmau sa fie intelese ca un „numitor comun” in randul autoritatilor nationale.
Acuratetea datelor este unul dintre principiile directoare ale setului de norme UE de protectie a datelor.
„De fapt, din cauza naturii probabilistice a sistemului, abordarea actuala de instruire duce la un model care poate produce, de asemenea, rezultate partinitoare sau inventate. In plus, rezultatele furnizate de ChatGPT sunt susceptibile de a fi considerate exacte din punct de vedere real de catre utilizatorii finali, inclusiv informatiile referitoare la persoane, indiferent de acuratetea lor reala”, se arata in raport.