3.7 C
București
luni, noiembrie 25, 2024

„Nașul inteligenței artificiale” și alți experți, îndeamnă, printr-o scrisoarea deschisă, la regelementări mai dure

Experții în inteligență artificială și directori din industrie, inclusiv unul dintre pionierii tehnologiei Yoshua Bengio, au semnat o scrisoare deschisă prin care solicită mai multe reglementări în ceea ce privește crearea de deepfake, scrie Reuters.

„Astăzi, deepfake-urile implică adesea imagini sexuale, fraudă sau dezinformare politică. Deoarece AI progresează rapid și face deepfakes mult mai ușor de creat, sunt necesare garanții”, a spus grupul în scrisoarea, care a fost elaborată de Andrew Critch, cercetator AI la UC Berkeley.

Conţinuturile ”deepfake” sunt imagini, înregistrări audio şi video realiste, dar trucate, create de algoritmi de inteligenţă artificială, iar progresele recente ale acestei tehnologii au făcut ca ele să devină din ce în ce mai greu de diferenţiat de conţinuturile create de oameni.

Scrisoarea deschisă, intitulată „Disrupting the Deepfake Supply Chain” („Întreruperea lanţului de aprovizionare pentru deepfake”), face o serie de recomandări cu privire la modul de reglementare a conţinuturilor „deepfake”, inclusiv incriminarea completă a pornografiei infantile de tip „deepfake” şi sancţiuni penale pentru orice persoană care creează sau facilitează cu bună ştiinţă răspândirea de „deepfake” dăunătoare, solicitând totodată companiilor de inteligenţă artificială să împiedice produsele lor să creeze conţinuturi „deepfake” dăunătoare.

Peste 400 de persoane au semnat scrisoarea

Până miercuri dimineaţă, peste 400 de persoane din diverse industrii, inclusiv din mediul academic, divertisment şi politică, au semnat scrisoarea.

Printre semnatari se numără Steven Pinker, profesor de psihologie la Universitatea Harvard, Joy Buolamwini, fondatoarea Ligii Justiţiei Algoritmice, doi foşti preşedinţi estonieni, cercetători de la Google DeepMind şi un cercetător de la OpenAI.

Garantarea faptului că sistemele de inteligenţă artificială nu dăunează societăţii a fost o prioritate pentru autorităţile de reglementare după ce compania OpenAI, susţinută de Microsoft, a lansat ChatGPT la sfârşitul anului 2022, care a uimit utilizatorii prin capacitatea sa de a susţine conversaţii asemănătoare cu cele umane şi prin uşurinţa cu care îndeplineşte diverse alte sarcini.

Au existat mai multe avertismente din partea unor personalităţi proeminente cu privire la riscurile generate de AI, în special o scrisoare semnată de Elon Musk anul trecut, în care se cerea o pauză de şase luni în dezvoltarea unor sisteme mai puternice decât modelul de inteligenţă artificială GPT-4 creat de OpenAI. 

Ultimele știri
Citește și...

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.