Antena 3 CNN High Tech Echipa din spatele ChatGPT face apel la reglementare pentru a preveni distrugerea umanității de către inteligența artificială

Echipa din spatele ChatGPT face apel la reglementare pentru a preveni distrugerea umanității de către inteligența artificială

Redacția Antena 3 CNN
2 minute de citit Publicat la 13:43 24 Mai 2023 Modificat la 13:43 24 Mai 2023

Într-o scurtă notă publicată pe site-ul web al companiei, cofondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, solicită ca un organism internațional de reglementare să înceapă să lucreze la modalitatea prin care să "inspecteze sistemele, să solicite audituri, să testeze conformitatea cu standardele de siguranță și să impună restricții privind gradele de implementare și nivelurile de securitate" pentru a reduce "riscul existențial" pe care l-ar putea reprezenta astfel de sisteme.

"Este de conceput ca, în următorii 10 ani, sistemele de inteligență artificială vor depăși nivelul de îndemânare al experților în majoritatea domeniilor și vor desfășura la fel de multe activități productive ca una dintre cele mai mari corporații de astăzi. Atât în ceea ce privește potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care omenirea a trebuit să se confrunte în trecut. Putem avea un viitor mai prosper, dar trebuie să gestionăm riscurile pentru a ajunge acolo. Având în vedere posibilitatea unui risc existențial, nu putem fi doar reactivi",  scriu ei.

Pe termen scurt, cei trei fac apel la "un anumit grad de coordonare" între companiile care lucrează în domeniul cercetării de vârf în domeniul inteligenței artificiale pentru a se asigura că dezvoltarea unor modele din ce în ce mai puternice se integrează fără probleme în societate, acordând în același timp prioritate siguranței. Această coordonare ar putea fi realizată, de exemplu, printr-un proiect condus de guvern sau printr-un acord colectiv pentru a limita creșterea capacității de inteligență artificială.

Cercetătorii avertizează de zeci de ani asupra potențialelor riscuri pe care le presupune "superinteligența", dar, pe măsură ce dezvoltarea IA a luat amploare, aceste riscuri au devenit mai concrete. Centrul pentru siguranța inteligenței artificiale (CAIS), cu sediul în SUA, care se ocupă de "reducerea riscurilor la nivel de societate generate de inteligența artificială", descrie opt categorii de riscuri "catastrofale" și "existențiale" pe care le-ar putea prezenta dezvoltarea IA.

În timp ce unii își fac griji cu privire la posibilitatea ca o inteligență artificială puternică să distrugă complet omenirea, accidental sau intenționat, CAIS descrie alte efecte mai periculoase. O lume în care sistemele de inteligență artificială primesc în mod voluntar din ce în ce mai multe sarcini ar putea duce la "pierderea capacității de autoguvernare a umanității și la o dependență totală de mașini", descrisă ca "slăbire"; iar un grup mic de persoane care controlează aceste sisteme ar putea "transforma inteligența artificială într-o forță centralizatoare", ceea ce ar duce la o "blocare a valorilor", un sistem de caste etern între cei care conduc și cei care sunt conduși.

Liderii OpenAI spun că aceste riscuri înseamnă că "oamenii din întreaga lume ar trebui să decidă în mod democratic limitele și valorile implicite ale sistemelor de inteligență artificială", dar admit că "nu știm încă cum să concepem un astfel de mecanism". Cu toate acestea, ei spun că dezvoltarea continuă a unor sisteme puternice merită riscul.

"Credem că va duce la o lume mult mai bună decât cea pe care ne-o putem imagina astăzi (vedem deja primele exemple în domenii precum educația, munca creativă și productivitatea personală)", scriu ei. "Pentru că avantajele sunt atât de enorme, costul pentru a-l construi scade în fiecare an, numărul de actori care îl construiesc crește rapid și face parte în mod inerent din calea tehnologică pe care ne aflăm. Oprirea sa ar necesita ceva de genul unui regim de supraveghere globală, și nici măcar asta nu este garantat că va funcționa. Așadar, trebuie să o facem cum trebuie".

Citește mai multe din High Tech
» Citește mai multe din High Tech
TOP articole