Cercetătorii au descoperit că este suficientă o conversație de două ore cu un model de inteligență artificială (AI) pentru a crea o replică exactă a personalității unui om, potrivit Live Science.
Într-un nou studiu publicat pe 15 noiembrie, cercetătorii de la Google și de la Universitatea Stanford au creat „agenți de simulare” - în esență, replici AI - a 1.052 de persoane, pe baza unor interviuri de două ore cu fiecare participant. Aceste interviuri au fost utilizate pentru a antrena un model generativ de inteligență artificială conceput pentru a imita comportamentul uman.
Pentru a evalua acuratețea replicilor AI, fiecare participant a completat două runde de teste de personalitate, sondaje sociale și jocuri logice și a fost rugat să repete procesul două săptămâni mai târziu. Atunci când replicile AI au fost supuse acelorași teste, acestea au egalat răspunsurile omologilor lor umani cu o precizie de 85%.
Documentul a propus că modelele de inteligență artificială care imită comportamentul uman ar putea fi utile într-o varietate de scenarii de cercetare, cum ar fi evaluarea eficacității politicilor de sănătate publică, înțelegerea reacțiilor la lansările de produse sau chiar modelarea reacțiilor la evenimente societale majore care ar putea fi altfel prea costisitoare, provocatoare sau complexe din punct de vedere etic pentru a fi studiate cu participanți umani.
Cercetătorii fac replici ale oamenilor pentru a prezice comportamentul lor
„Simularea cu scop general a atitudinilor și comportamentului uman - în care fiecare persoană simulată se poate angaja într-o gamă largă de contexte sociale, politice sau informaționale - ar putea permite cercetătorilor să testeze un laborator pentru un set larg de intervenții și teorii”, au scris cercetătorii în lucrare.
Simulările ar putea contribui, de asemenea, la pilotarea unor noi intervenții publice, la dezvoltarea unor teorii privind interacțiunile cauzale și contextuale și la creșterea înțelegerii noastre asupra modului în care instituțiile și rețelele influențează oamenii, au adăugat aceștia.
Pentru a crea agenții de simulare, cercetătorii au realizat interviuri aprofundate care au acoperit poveștile de viață, valorile și opiniile participanților cu privire la problemele societale. Acest lucru a permis inteligenței artificiale să surprindă nuanțe pe care sondajele tipice sau datele demografice le-ar putea omite, au explicat cercetătorii. Cel mai important, structura acestor interviuri a oferit cercetătorilor libertatea de a evidenția ceea ce considerau a fi cel mai important pentru ei personal.
Se studiază cum am răspunde la întrebări din sondaje, experimente sociale și jocuri comportamentale
Oamenii de știință au folosit aceste interviuri pentru a genera modele AI personalizate care ar putea prezice modul în care persoanele ar putea răspunde la întrebări din sondaje, experimente sociale și jocuri comportamentale. Acestea au inclus răspunsuri la General Social Survey, un instrument bine stabilit pentru măsurarea atitudinilor și comportamentelor sociale; la Big Five Personality Inventory; și la jocuri economice, precum Dictator Game și Trust Game.
Deși agenții AI au reflectat îndeaproape omologii lor umani în multe domenii, precizia lor a variat în funcție de sarcini. Aceștia s-au descurcat deosebit de bine în reproducerea răspunsurilor la sondajele de personalitate și în determinarea atitudinilor sociale, dar au fost mai puțin preciși în prezicerea comportamentelor în jocurile interactive care implică luarea deciziilor economice. Cercetătorii au explicat că inteligența artificială întâmpină de obicei dificultăți în sarcinile care implică dinamica socială și nuanțele contextuale.
Oamenii de știință recunosc că tehnologia poate fi folosită abuziv
Aceștia au recunoscut, de asemenea, potențialul de utilizare abuzivă a tehnologiei. Inteligența artificială și tehnologiile „deepfake” sunt deja utilizate de actori rău intenționați pentru a înșela, a imita, a abuza și a manipula alte persoane online. Cercetătorii au afirmat că și agenții de simulare pot fi folosiți în mod abuziv.
Cu toate acestea, ei au afirmat că tehnologia ne-ar putea permite să studiem aspecte ale comportamentului uman în moduri care nu erau practice până acum, oferind un mediu de testare foarte controlat, fără provocările etice, logistice sau interpersonale ale lucrului cu oamenii.
Într-o declarație pentru MIT Technology Review, autorul principal al studiului, Joon Sung Park, doctorand în informatică la Stanford, a declarat: „Dacă puteți avea o grămadă de „voi” mici care să alerge și să ia de fapt deciziile pe care le-ați fi luat - cred că acesta este, în cele din urmă, viitorul”.