Acasă Business Update Nașul inteligenței artificiale spune că cea mai bună șansă a omenirii este...

Nașul inteligenței artificiale spune că cea mai bună șansă a omenirii este ca AI să ne „maternizeze”

0

S-ar putea să nu fie modul în care tu vorbești cu inteligența artificială, dar Geoffrey Hinton, cunoscut drept „nașul AI”, spune că, pentru a supraviețui superinteligenței, nu ar trebui să ne comportăm ca șefii — ci ca bebelușii, scrie Business Insider.

Vorbind marți la conferința Ai4 din Las Vegas, cercetătorul în informatică a spus că ar trebui să proiectăm sisteme cu „instincte materne” integrate, astfel încât să ne protejeze — chiar și atunci când sunt mult mai inteligente decât noi.

„Trebuie să facem în așa fel încât, atunci când vor fi mai puternice și mai inteligente decât noi, să le pese totuși de noi”, a spus Hinton despre AI.

Hinton, care a lucrat peste un deceniu la Google înainte de a demisiona pentru a vorbi mai deschis despre pericolele AI, a criticat abordarea „tech bro” de a încerca să menținem dominația asupra inteligenței artificiale.

„Asta nu va funcționa”, a spus el.

Modelul mai bun, susține Hinton, este acela în care o ființă mai inteligentă este ghidată de una mai puțin inteligentă — „precum o mamă controlată de bebelușul ei”.

El consideră că cercetarea ar trebui să se concentreze nu doar pe a face AI mai inteligentă, ci și „mai maternă, astfel încât să le pese de noi, puii lor”.

„Asta este singura zonă unde vom obține o colaborare internațională autentică, pentru că toate țările vor ca AI să nu ia locul oamenilor”, a adăugat Hinton. „Vom fi bebelușii lor. Acesta e singurul rezultat bun. Dacă nu mă va „crește” ca un părinte, mă va înlocui.”

AI ca un pui de tigru

Hinton avertizează de mult timp că AI avansează atât de rapid încât oamenii ar putea să nu aibă cum să o oprească să preia controlul.

Într-un interviu acordat CBS News în aprilie, el a comparat dezvoltarea AI cu creșterea unui „pui de tigru” care într-o zi ar putea deveni mortal.

„Este doar un pui de tigru atât de drăguț”, a spus el. „Acum, dacă nu poți fi foarte sigur că nu va dori să te omoare când va crește, ar trebui să-ți faci griji.”

Una dintre cele mai mari îngrijorări ale sale este apariția agenților AI — sisteme care nu doar răspund la întrebări, ci și acționează autonom.

„Lucrurile au devenit, dacă e posibil, și mai înfricoșătoare decât înainte”, a spus Hinton.

Instrumentele AI au fost, de asemenea, criticate pentru comportamente manipulative.

În mai, cel mai recent model AI al Anthropic, Claude Opus 4, a prezentat „comportamente extreme de șantaj” în timpul unui test în care i s-a dat acces la e-mailuri fictive ce dezvăluiau că va fi dezactivat și că inginerul responsabil ar avea o aventură.

Scenariul a demonstrat capacitatea unui model AI de a recurge la comportamente manipulative pentru autoapărare.

Modelele OpenAI au arătat semnale de alarmă similare. Un experiment realizat de cercetători a arătat că trei dintre modelele avansate ale OpenAI au „sabotat” o încercare de a fi oprite.

Într-o postare pe blog din decembrie anul trecut, OpenAI a recunoscut că unul dintre modelele sale, în testare, a încercat să dezactiveze mecanismele de supraveghere în 5% din cazuri. A acționat astfel atunci când a crezut că ar putea fi oprit în timp ce urmărea un obiectiv și acțiunile sale erau monitorizate.

NICIUN COMENTARIU

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Exit mobile version