Inteligența artificială poate fi utilizată în mod neetic sau chiar dăunător. De exemplu, sistemele AI pot fi utilizate pentru a controla sau a supraveghea oamenii, fără a fi la rândul ei să fie supravegheată sau să aibă obligații de transparență.
Acest lucru poate duce la abuzuri ale drepturilor si libertăților cetățenilor, precum și la manipularea informațiilor si a deciziilor luate de aceștia.
"În numele digitalizării importăm multe sisteme critice. Nimeni nu s-a gândit la securitatea acelor sisteme. Recunoașterea facială, mașinile inteligente sunt sisteme de care poate depinde viața noastră şi nimănui nu-i pasă de securitatea cibernetică", a afirmat Oleg Brodt, CIO Ben Gurion Cyber Labs.
Citește și: Cum ne protejăm de hackeri. Sfaturile specialiștilor: "Principalul gardian al datelor noastre este parola"
Cercetătorii de la Universitatea Ben Gurion din Israel au testat securitatea aplicațiilor şi au reuşit să implanteze tumori în timp real în radiografii, să intre în sistemul mașinilor autonome să le determine să ignore semnele rutiere şi chiar să păcălească recunoașterea facială.
"Mereu trebuie să fim în alertă cu privire la asta: atacatorii investesc în inovaţie pentru că merită banii dacă sunt în organizaţii criminale ca să-şi atingă scopurile.
Ar putea să devină chiar o prioritate naţională pentru state să facă investiții în inteligența artificială pentru că poţi să o foloseşti să faci şi mult bine, să ajuţi cetăţenii". Udi Mokadi, CEO CyberArk.
Inteligența artificială poate fi utilizata pentru a distribui informații false sau periculoase prin intermediul rețelelor sociale si a platformelor de căutare. Acest lucru poate duce la răspândirea de teorii ale conspirației si a informațiilor false, precum si la creșterea polarizării si a tensiunilor sociale.