Publicația Business Insider a vorbit cu Harsh Varshney, 31 de ani, angajat la Google în securitate AI. Textul de mai jos a fost editat pentru claritate și concizie.
Inteligența artificială a devenit rapid un partener tăcut în viețile noastre de zi cu zi, iar eu nu-mi mai pot imagina viața fără instrumente AI.
În activitatea zilnică, acestea mă ajută la cercetare aprofundată, luarea de notițe, programare și căutări online.
Însă jobul meu mă face extrem de conștient de riscurile de confidențialitate asociate utilizării AI. Lucrez la Google din 2023 și am petrecut doi ani ca inginer software în echipa de confidențialitate, unde am construit infrastructură pentru protejarea datelor utilizatorilor.
Ulterior, m-am mutat în echipa de securitate AI pentru Chrome, unde contribui la protejarea browserului Google Chrome împotriva amenințărilor malițioase, precum hackeri sau persoane care folosesc agenți AI pentru campanii de phishing.
Modelele AI folosesc date pentru a genera răspunsuri utile, iar noi, utilizatorii, trebuie să ne protejăm informațiile private pentru ca entități periculoase — precum infractorii cibernetici sau brokerii de date — să nu aibă acces la ele.
Iată cele patru obiceiuri pe care le-am adoptat și pe care le consider esențiale pentru protejarea datelor atunci când folosesc AI.
Tratează AI-ul ca pe o carte poștală publică
Uneori, un fals sentiment de intimitate cu AI-ul îi determină pe oameni să împărtășească online informații pe care altfel nu le-ar divulga niciodată. Companiile de AI pot avea angajați care lucrează la îmbunătățirea confidențialității modelelor, dar nu este recomandat să împărtășești cu chatboții date de card bancar, numere de securitate socială, adresa de acasă, istoricul medical sau alte informații cu caracter personal identificabil.
În funcție de versiunea folosită, informațiile partajate cu chatboți publici pot fi utilizate pentru antrenarea viitoarelor modele și pentru generarea unor răspunsuri mai relevante.
Acest lucru poate duce la așa-numitul „training leakage”, situație în care modelul memorează informații personale despre un utilizator și le redă ulterior în răspunsurile către altcineva. În plus, există riscul unor breșe de securitate care ar putea expune ceea ce ai împărtășit cu un chatbot.
Eu tratez chatboții AI ca pe o carte poștală publică. Dacă nu aș scrie o informație pe o carte poștală care poate fi citită de oricine, nu o voi împărtăși nici cu un instrument AI public. Nu am certitudinea modului în care datele mele ar putea fi folosite pentru antrenări viitoare.
Știi în ce „cameră” te afli
Este important să identifici dacă folosești un instrument AI public sau unul de tip enterprise.
Deși nu este clar cum sunt utilizate conversațiile pentru antrenarea modelelor publice, companiile pot plăti pentru modele „enterprise”. În aceste cazuri, modelele nu sunt, de regulă, folosite pentru a se antrena pe conversațiile utilizatorilor, ceea ce le face mai sigure pentru discuții despre muncă și proiecte interne.
Este ca diferența dintre o conversație într-o cafenea aglomerată, unde poți fi auzit de oricine, și o ședință confidențială în birou, care rămâne între participanți.
Au existat cazuri raportate în care angajați au divulgat accidental date ale companiei în ChatGPT. Dacă lucrezi la proiecte nepublicate sau încerci să obții un brevet, probabil nu vrei să-ți discuți planurile cu un chatbot care nu este de nivel enterprise, din cauza riscului de scurgeri de informații.
Eu nu discut proiectele la care lucrez la Google cu chatboți publici. În schimb, folosesc un model enterprise, chiar și pentru sarcini minore, precum editarea unui e-mail de serviciu. Sunt mult mai confortabil să împărtășesc informații, deoarece conversațiile mele nu sunt folosite pentru antrenare, dar chiar și așa, minimizez datele personale pe care le oferă.
Șterge-ți istoricul în mod regulat
Chatboții AI păstrează de obicei istoricul conversațiilor, însă recomand ștergerea periodică a acestuia, atât pentru modelele publice, cât și pentru cele enterprise, pentru a proteja confidențialitatea pe termen lung. Având în vedere riscul ca un cont să fie compromis, acesta este un obicei de precauție util, chiar dacă ești convins că nu introduci date sensibile în aceste instrumente.
Odată, am fost surprins că un chatbot Gemini de tip enterprise a reușit să-mi spună adresa exactă, deși nu-mi aminteam să o fi menționat. S-a dovedit că, anterior, îi cerusem ajutorul pentru a rafina un e-mail care conținea adresa mea. Deoarece instrumentul are funcții de memorie pe termen lung, capabile să rețină informații din conversații anterioare, a putut identifica și păstra adresa.
Uneori, când caut lucruri pe care nu vreau ca chatbotul să le rețină, folosesc un mod special, similar cu modul incognito, în care conversațiile nu sunt stocate și nu sunt folosite pentru antrenarea modelelor. ChatGPT și Gemini numesc această opțiune „chat temporar”.
Folosește instrumente AI cunoscute
Este mai sigur să folosești instrumente AI cunoscute, care au șanse mai mari să dispună de cadre clare de confidențialitate și mecanisme de protecție bine definite.
În afară de produsele Google, îmi place să folosesc ChatGPT de la OpenAI și Claude de la Anthropic.
De asemenea, este util să consulți politicile de confidențialitate ale oricărui instrument pe care îl folosești. Uneori, acestea explică mai detaliat modul în care datele tale sunt utilizate pentru antrenarea modelului. În setările de confidențialitate, poți găsi și opțiunea „îmbunătățește modelul pentru toată lumea”. Asigurându-te că această setare este dezactivată, previi folosirea conversațiilor tale pentru antrenare.
Tehnologia AI este extrem de puternică, dar trebuie să fim prudenți pentru a ne asigura că datele și identitatea noastră rămân în siguranță atunci când o folosim.