4.1 C
București
vineri, februarie 6, 2026

Frauda prin deepfake a devenit un fenomen „industrial”: escrocheriile generate de AI scapă de sub control

Frauda prin deepfake a devenit „industrială”, arată o analiză publicată de experți în inteligență artificială.

Instrumentele care permit crearea de înșelătorii adaptate, chiar personalizate – folosind, de exemplu, videoclipuri deepfake cu jurnaliști suedezi sau cu președintele Ciprului – nu mai sunt de nișă, ci ieftine și ușor de folosit la scară largă, potrivit analizei realizate de AI Incident Database.

Raportul a catalogat peste o duzină de exemple recente de „uzurpare de identitate în scop de profit”, inclusiv un videoclip deepfake cu premierul Australiei de Vest, Robert Cook, care promova un presupus plan de investiții, sau medici falși care recomandau creme pentru piele.

Aceste cazuri fac parte dintr-o tendință mai amplă, în care escrocii folosesc instrumente AI larg disponibile pentru a comite fraude din ce în ce mai bine țintite. Anul trecut, un responsabil financiar al unei multinaționale din Singapore a plătit aproape 500.000 de dolari escrocilor, crezând că participă la un apel video cu conducerea companiei. În Marea Britanie, consumatorii ar fi pierdut aproximativ 9,4 miliarde de lire sterline din cauza fraudelor în cele nouă luni până în noiembrie 2025.

„Capacitățile au ajuns brusc la un nivel la care conținutul fals poate fi produs practic de oricine”, a declarat Simon Mylius, cercetător la MIT și colaborator al unui proiect asociat AI Incident Database.

Potrivit acestuia, „fraudele, escrocheriile și manipularea țintită” au reprezentat cea mai mare parte a incidentelor raportate în baza de date în 11 din ultimele 12 luni. „A devenit extrem de accesibil, într-atât încât practic nu mai există o barieră de intrare”, a spus el.

Scara fenomenului se schimbă

„Scara fenomenului se schimbă”, a declarat Fred Heiding, cercetător la Harvard care studiază escrocheriile bazate pe AI. „Devine atât de ieftin încât aproape oricine îl poate folosi. Modelele devin foarte bune – mult mai rapid decât cred majoritatea experților.”

La începutul lunii ianuarie, Jason Rebholz, directorul executiv al companiei de securitate AI Evoke, a publicat o ofertă de angajare pe LinkedIn și a fost contactat imediat de o persoană din rețeaua sa, care i-a recomandat un candidat.

În câteva zile, Rebholz a început să facă schimb de e-mailuri cu cineva care, pe hârtie, părea un inginer foarte talentat.

„M-am uitat la CV și mi-am spus: acesta este, de fapt, un CV foarte bun. Așa că, deși existau unele semnale de alarmă, am decis să avem totuși o conversație”, a povestit el.

Apoi lucrurile au devenit ciudate. E-mailurile candidatului ajungeau direct în spam. CV-ul avea unele particularități. Totuși, Rebholz mai întâlnise candidați neobișnuiți și a decis să continue cu interviul.

În momentul în care a început apelul, imaginea video a candidatului a apărut abia după aproape un minut.

Dacă noi suntem vizați, atunci toată lumea este vizată

„Fundalul era extrem de fals”, a spus el. „Totul părea foarte, foarte artificial. Avea dificultăți mari în a reda marginile corpului – părți din corp apăreau și dispăreau… iar fața era foarte estompată la contur.”

Rebholz a continuat interviul, nevrând să creeze o situație stânjenitoare întrebând direct dacă persoana era, de fapt, o escrocherie elaborată. Ulterior, a trimis înregistrarea unui contact de la o companie specializată în detectarea deepfake-urilor, care i-a confirmat că imaginea video a candidatului era generată de AI. Candidatul a fost respins.

Rebholz nu știe nici acum ce urmărea escrocul – un salariu de inginer sau acces la secrete comerciale. Deși au existat cazuri în care hackeri nord-coreeni au încercat să se angajeze la Amazon, Evoke este un startup, nu un gigant.

„Dacă noi suntem vizați, atunci toată lumea este vizată”, a spus Rebholz.

Heiding avertizează că ce este mai rău urmează. În prezent, tehnologia de clonare a vocii prin deepfake este deja extrem de performantă, permițând escrocilor să se dea, de exemplu, drept un nepot aflat în pericol la telefon. Videoclipurile deepfake, în schimb, mai au încă loc de îmbunătățire.

Consecințele ar putea fi grave: pentru procesele de angajare, pentru alegeri și pentru societate în ansamblu. „Aici va fi marea problemă”, a concluzionat Heiding, „lipsa totală de încredere în instituțiile digitale – și, în general, în instituții și în informație.”

Ultimele știri
Citește și...

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.