Escrocii s-au folosit de un video generat de Inteligența Artificială pentru a se da drept directorul financiar al companiei într-o videoconferință, spun polițiștii din Hong Kong.
În această înșelătorie elaborată, angajatul a fost păcălit să participe la o convorbire video cu ceea ce el credea că sunt mai mulți membri ai personalului, dar toți erau, de fapt, reconstituiri deepfake.
"În videoconferința cu mai multe persoane, s-a dovedit că toată lumea era falsă", a declarat superintendentul principal Baron Chan Shun-ching pentru postul public de televiziune din oraș, RTHK.
Un e-mail cu o tranzacție secretă
Chan a declarat că angajatul a devenit suspicios după ce a primit un mesaj care se presupunea că provine de la directorul financiar al companiei din Marea Britanie.
Inițial, acesta a bănuit că este vorba de un e-mail de phishing, deoarece în textul mesajului se vorbea despre necesitatea efectuării unei tranzacții secrete.
Cu toate acestea, angajatul companiei a lăsat îndoielile la o parte după apelul video, deoarece alte persoane prezente arătau și sunau exact ca niște colegi pe care îi recunoscuse, a spus Chan.
O păcăleală de peste 25 de milioane de dolari
Crezând că toți ceilalți participanți la convorbire sunt reali, bărbatul a fost de acord să trimită în total aproximativ 25,6 milioane de dolari, notează CNN.
Cazul este unul dintre mai multe episoade recente în care se crede că escrocii au folosit tehnologia deepfake pentru a modifica înregistrări video și alte imagini disponibile publicului pentru a înșela oamenii.
Poliția din Hong Kong a declarat că a efectuat șase arestări în legătură cu astfel de escrocherii.
Zeci de cereri de împrumuturi din bancă prin tehnologia deepfake
Chan a declarat că opt cărți de identitate furate din Hong Kong - toate fiind declarate pierdute de către proprietarii lor - au fost folosite pentru a face 90 de cereri de împrumut și 54 de înregistrări de conturi bancare între iulie și septembrie anul trecut.
Potrivit poliției, în cel puțin 20 de ocazii, au fost folosite clipuri create cu inteligența artificială pentru a păcăli programele de recunoaștere facială, imitând persoanele ilustrate pe cărțile de identitate.
Escrocheria în care era implicat falsul director financiar a fost descoperită abia când angajatul făcut verificări ulterioare la sediul central al corporației.
Poliția din Hong Kong nu a dezvăluit numele sau detaliile companiei sau ale angajatului păcălit de infractorii cibernetici.
Tehnologia care poate fi transformată într-o armă ce face rău
”Cei mai noi algoritmi de inteligență artificială pot fi utilizați pentru a face creații sintetice aproape imposibil de distins de fețele, vocile și evenimentele reale. Aceste creații sunt denumite "deepfakes".
Deepfakes pot fi folosite în diverse scopuri productive. Ele sunt folosite pentru a îmbunătăți jocurile video și alte forme de divertisment. Și sunt folosite pentru a face progrese în cercetarea medicală.
Dar tehnologia deepfake poate fi transformată în armă pentru a face rău.
Poate fi folosită pentru a face ca oamenii să pară că spun sau fac lucruri pe care de fapt nu le-au spus sau făcut. Poate fi folosită pentru a comite diverse infracțiuni, inclusiv fraude financiare și furturi de proprietate intelectuală. Și poate fi folosită de actori antiamericani pentru a crea amenințări la adresa securității naționale”, avertiza Nancy Mace, membră a Camerei Reprezentanților a Statelor Unite ale Americii, la finele anului trecut.
Realitatea creată pe computer
Crearea acestor imagini este mai ușoară ca niciodată, deoarece oricine poate descărca instrumentele de inteligență artificială pe computerul său și poate crea imagini prin simpla introducere a unei scurte descrieri a ceea ce dorește să vadă, mai spun oficialii americani.
Videoclipurile și fotografiile falsificate care circulă pe rețelele de socializare îngreunează, de asemenea, separarea realității de ficțiune în conflictele care au loc în întreaga lume. Videoclipuri care se presupune că au fost luate de pe teren în Israel, Gaza și Ucraina au circulat rapid pe rețelele de socializare - doar pentru a se dovedi a fi neautentice.