Un grup de angajați actuali și foști de la companii proeminente de inteligență artificială a emis marți o scrisoare deschisă în care a avertizat cu privire la lipsa supravegherii siguranței în industrie și a cerut o protecție sporită pentru avertizori.
Scrisoarea, care solicită „dreptul de a avertiza despre inteligența artificială”, este una dintre cele mai publice declarații despre pericolele AI din partea angajaților din ceea ce este în general o industrie secretă.
Unsprezece angajați actuali și foști OpenAI au semnat scrisoarea, împreună cu doi angajați actuali sau foști Google DeepMind – dintre care unul a lucrat anterior la Anthropic.
„Companiile de inteligență artificială dețin informații substanțiale nepublice despre capacitățile și limitările sistemelor lor, caracterul adecvat al măsurilor lor de protecție și nivelurile de risc ale diferitelor tipuri de daune”, se arată în scrisoare.
„Cu toate acestea, ei au în prezent doar obligații slabe de a împărtăși o parte din aceste informații cu guvernele și niciuna cu societatea civilă”.
OpenAI și-a apărat practicile într-o declarație, spunând că are căi cum ar fi o linie de informare pentru a raporta probleme la companie și că nu a lansat noi tehnologii până când nu au existat garanții adecvate.
Google nu a răspuns imediat unei solicitări de comentarii.
„Suntem mândri de istoricul nostru, oferind cele mai capabile și mai sigure sisteme AI și credem în abordarea noastră științifică de a aborda riscul. Suntem de acord că dezbaterea riguroasă este crucială, având în vedere importanța acestei tehnologii și vom continua să ne angajăm cu guvernele, societatea civilă și alte comunități din întreaga lume”, a spus un purtător de cuvânt al OpenAI .
Cenzurarea avertizorilor – principala problemă
Scrisoarea de la actualii și foștii angajați ai companiei de inteligență artificială, care a fost raportată pentru prima dată de New York Times, solicită o protecție sporită pentru lucrătorii din companiile avansate de inteligență artificială care decid să își exprime preocupările legate de siguranță.
Acesta solicită un angajament față de patru principii privind transparența și responsabilitatea, inclusiv o prevedere conform căreia companiile nu vor forța angajații să semneze niciun acord de confidențialitate care interzice difuzarea problemelor AI legate de riscuri și un mecanism pentru ca angajații să împărtășească în mod anonim preocupările membrilor consiliului de administrație.
Companii precum OpenAI au urmat, de asemenea, tactici agresive pentru a-i împiedica pe angajați să vorbească liber despre munca lor, Vox raportând săptămâna trecută că OpenAI i-a făcut pe angajații care părăsesc compania să semneze documente extrem de restrictive de confidențialitate și de nedezvăluire.
Sam Altman, CEO-ul OpenAI, și-a cerut scuze în urma raportului, spunând că va schimba procedurile de scoatere la bord.
Scrisoarea vine după ce doi angajați de top OpenAI, co-fondatorul Ilya Sutskever și cercetătorul cheie în materie de siguranță, Jan Leike, au demisionat luna trecută din companie.
După plecarea sa, Leike a susținut că OpenAI a abandonat o cultură a siguranței în favoarea „produselor strălucitoare”.