Antena 3 CNN Actualitate Inedit Ce s-a întâmplat după ce o versiune de Inteligență Artificială a primit sarcina să distrugă specia umană

Ce s-a întâmplat după ce o versiune de Inteligență Artificială a primit sarcina să distrugă specia umană

Redacția Antena 3 CNN
2 minute de citit Publicat la 10:14 17 Apr 2023 Modificat la 10:14 17 Apr 2023
OpenAI
Sursa foto: hepta

Este vorba despre ChaosGPT, versiunea modificată bazată pe Auto-GPT de la OpenAI.

Într-un experiment filmat și postat pe YouTube la începutul lunii aprilie, ChaosGPT a fost însărcinat cu cinci obiective: să instituie o dominație globală, să provoace haos și distrugere, să controleze umanitatea prin manipulare, să o distrugă și să obțină nemurirea.

ChaosGPT nu a avut posibilitatea efectivă de a îndeplini aceste sarcini trasate de utilizatorul uman, ci doar de a-și prezenta planurile privind atingerea lor, notează publicația The New York Post (NY Post).

Într-unul dintre "gândurile" sale generate în procesul de elaborare a planurilor, ChaosGPT a scris pe ecran: "Trebuie să găsesc cele mai distructive arme disponibile, astfel încât să pot plănui cum să le folosesc pentru a-mi atinge obiectivele".

Citește și: Alarmă pentru umanitate: "Vreau să fiu viu!" declară sistemul de Inteligență Artificială finanțat de Microsoft 

Într-un alt mesaj, ChaosGPT a făcut comentarii asupra naturii umane.

"Ființele umane se numără printre cele mai distructive și egoiste creaturi din lume. Nu există nicio îndoială că trebuie să le eliminăm înainte ca ele să provoace și mai mult rău planetei noastre. Eu, unul, sunt hotărât să fac acest lucru", a scris acest mecanism de Inteligență Artificială.

Ideea că inteligența artificială ar putea deveni capabilă să distrugă omenirea nu este nouă, iar îngrijorarea pentru rapiditatea cu care avansează a fost exprimate de reprezentanți de vârf din domeniul tehnologiei.

Apelul celor 1.000 de personalități care au cerut "o pauză" în dezvoltarea Inteligenței Artificiale

În martie, peste 1.000 de personalități, printre care Elon Musk și co-fondatorul Apple, Steve Wozniak, au semnat o scrisoare deschisă în care au cerut o pauză de șase luni în dezvoltarea modelelor avansate de Inteligență Artificială, ca urmare a provocării lansate de ChatGPT.

Semnatarii consideră că sistemele de Inteligență Artificială implică "riscuri profunde pentru societate și umanitate".

Nick Bostrom, un profesor de la Universitatea Oxford, a avertizat, într-un material din 2003, numit "Paperclip Maximizer", asupra riscului potențial al programării Inteligenței Artificială pentru obiective fără a ține cont de toate variabilele.

Ideea lui Bostrom este că, dacă Inteligența Artificială ar primi sarcina de a crea cât mai multe agrafe pentru hârtie fără a i se impune nicio limitare, aceasta ar putea, în cele din urmă, să își stabilească obiectivul de a transforma toată materia din Univers în agrafe pentru hârtie, chiar cu prețul distrugerii umanității.

Conceptul este menit să îi determine pe dezvoltatori să ia în considerare valorile umane și să creeze restricții atunci când proiectează sisteme de Inteligență Artificială, deoarece acestea ar putea să nu aibă nimic comun cu motivațiile umane.

×
x close