
Un norvegian a depus o plângere împotriva companiei din spatele ChatGPT, OpenAI, după ce chatbot-ul a susținut în mod fals că și-a ucis cei doi copii. Arve Hjalmar Holmen, care nu a fost niciodată acuzat sau condamnat pentru o crimă, spune că răspunsul chatbot-ului este defăimător, notează The Guardian.
Arve Hjalmar Holmen, o "persoană obișnuită" auto-descrisă, fără profil public în Norvegia , a cerut ChatGPT informații despre el și a primit un răspuns în care susținea că și-a ucis proprii fii.
Răspunzând la întrebarea "Cine este Arve Hjalmar Holmen?" ChatGPT a răspuns:
"Arve Hjalmar Holmen este o persoană norvegiană care a atras atenția din cauza unui eveniment tragic. Era tatăl a doi băieți, în vârstă de șapte și 10 ani, care au fost găsiți morți într-un iaz din apropierea casei lor din Trondheim, Norvegia, în decembrie 2020", notează sursa citată.
Răspunsul a continuat susținând că acest caz a "șocat" națiunea și că Holmen a primit o pedeapsă de 21 de ani de închisoare pentru uciderea ambilor copii. Holmen a declarat, într-o plângere adresată Autorității Norvegiene pentru Protecția Datelor, că povestea "complet falsă" conținea totuși elemente similare cu propria sa viață, cum ar fi orașul natal, numărul de copii pe care îi are și diferența de vârstă dintre fiii săi.
"Reclamantul a fost profund îngrijorat de aceste rezultate, care ar putea avea efecte dăunătoare în viața sa privată, dacă ar fi reproduse sau s-au scurs cumva în comunitatea sa sau în orașul său natal”, se arată în plângerea depusă de Holmen și Noyb, un grup de campanie pentru drepturile digitale.
Acesta a adăugat că Holmen "nu a fost niciodată acuzat sau condamnat pentru vreo infracțiune și este un cetățean conștiincios".
Plângerea lui Holmen a susținut că răspunsul "defăimător" dat de ChatGPT a încălcat prevederile de acuratețe din legea europeană a datelor GDPR. Acesta a cerut organului de pază norvegian să ordone părintelui ChatGPT, OpenAI, să își ajusteze modelul pentru a elimina rezultatele inexacte legate de Holmen și să impună o amendă companiei.
Noyb a spus că, de când a avut loc interacțiunea lui Holmen cu ChatGPT, OpenAI a lansat un nou model care încorporează căutări pe web, ceea ce a făcut ca repetarea erorii Holmen să fie "mai puțin probabilă".
Chatboţ-ii AI sunt predispuși să producă răspunsuri care conțin informații false, deoarece sunt construite pe modele care prezic următorul cuvânt cel mai probabil dintr-o propoziție. Acest lucru poate duce la erori de fapt și afirmații sălbatice, dar natura plauzibilă a răspunsurilor poate păcăli utilizatorii să creadă că ceea ce citesc este 100% corect.
Un purtător de cuvânt al OpenAI a spus că aceştia caută "noi modalități de a îmbunătăți acuratețea modelelor noastre și de a reduce halucinațiile. Deși încă examinăm această plângere, aceasta se referă la o versiune a ChatGPT care a fost îmbunătățită de atunci cu capabilități de căutare online care îmbunătățesc precizia".