23.7 C
București
sâmbătă, iulie 27, 2024

Cum să identifici un impostor AI în video, audio sau text. Tehnologia deepfake este o practică tot mai uzuală

Carl Froggett a lucrat ca unul dintre ofițerii șefi de securitate a informațiilor Citibank timp de peste două decenii, protejând infrastructura băncii de atacuri cibernetice din ce în ce mai sofisticate.

Și în timp ce criminalitatea, de la falsificarea de bancnote până la escrocherii rudimentare prin e-mail, a afectat de mult serviciile bancare și lumea afacerilor, tehnologia deepfake alimentată de AI generativă este ceva nemaivăzut până acum.

„Sunt foarte îngrijorat că deepfake-urile sunt folosite în afaceri”, a spus Froggett, care este acum CIO al Deep Instinct, o companie care folosește AI pentru a combate criminalitatea cibernetică, conform CNBC.

Instrumentele video și audio generative AI sunt implementate și se îmbunătățesc rapid.

OpenAI și-a lansat instrumentul de generare video ”Sora” în februarie și, la sfârșitul lunii martie, a introdus un instrument audio numit Voice Engine care poate recrea în mod realist un individ care vorbește dintr-un sunet de 15 secunde.

OpenAI a declarat că a lansat Voice Engine pentru un grup mic de utilizatori, având în vedere pericolele pe care le prezintă tehnologia pe care o prezintă.

Este nevoie de doar un fragment de 30 de secunde sau mai puțin din cineva care vorbește pentru a face un deepfake impecabil, a spus președintele Check Point Software, Rupal Hollenbeck, iar criminalii cibernetici pot acum să obțină acces la instrumente de deepfake bazate pe inteligență artificială pentru bani.

„Dar asta nu este doar pentru partea audio. Același lucru este valabil și pentru videoclipuri, iar asta schimbă jocul”, a spus Hollenbeck.

Pașii pe care corporațiile încep să îi ia pentru a preveni deepfake-urile de succes sunt instructivi pentru modul în care toți indivizii ar trebui să-și conducă viața într-o lume tot mai afectată de AI.

Cum să identifici un impostor video AI

Există multe moduri de a identifica un impostor AI, unele relativ simple.

Pentru început, Hollenbeck spune că dacă există vreo îndoială cu privire la veridicitatea unui videoclip, cereți-i să întoarcă capul la dreapta sau la stânga sau să privească înapoi. Dacă persoana se conformează, dar capul îi dispare pe ecranul video, încheiați imediat apelul, a spus Hollenbeck.

„În acest moment, voi spune asta tuturor celor pe care îi cunosc, să-i îl pună pe interlocutor să miște capul în dreapta sau în stânga. AI nu are capacitatea de a depăși ceea ce poți vedea”, a spus ea.

Dar nu se știe cât va dura asta.

Chris Pierson, CEO al Blackcloak, o companie specializată în protecția executivă digitală, crede că este doar o chestiune de timp până când deepfake-urile să aibă capacitatea 3D.

„Modelele se îmbunătățesc atât de repede încât acele trucuri vor cădea pe margine”, a spus Pierson.

Cum poate ajuta utilizarea cuvintelor cod și a codurilor QR

Cuvintele cod de modă veche pot fi și ele eficiente, dacă sunt transmise doar printr-un mediu separat și se păstrează în formă nescrisă.

Atât Hollenbeck, cât și Pierson recomandă echipelor executive ale companiilor generarea unui cuvânt cod pentru fiecare lună, stocat în seifuri de parole criptate.

Dacă există vreo îndoială cu privire la persoana cu care vorbiți, puteți cere ca cuvântul cod să fie trimis prin text. Și setați un prag pentru a implementa cuvântul cod. De exemplu, dacă cineva vă cere să efectuați o tranzacție de peste 100.000 dolari, atunci tactica cuvântului cod ar trebui să fie implementată.

Pentru companii, apelurile corporative numai pe canalele companiei aprobate reduce, de asemenea, foarte mult riscul de a fi înșelat de un deepfake.

Exemplele din lumea reală de deepfake de afaceri sunt în creștere, a spus Nirupam Roy, profesor asistent de informatică la Universitatea din Maryland, și nu este vorba doar despre transferurile de conturi bancare.

„Nu este greu de imaginat cum astfel de deepfake-uri pot fi folosite pentru defăimare țintită pentru a păta reputația unui produs sau a unei companii”, a spus el.

Roy și echipa sa au dezvoltat un sistem numit TalkLock care funcționează pentru a identifica atât falsurile profunde, cât și falsurile superficiale – pe care el le descrie ca se bazează „mai puțin pe tehnici de editare complexe și mai mult pe conectarea adevărurilor parțiale la minciuni mici”.

Ultimele știri
Citește și...

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.