Een programma voor kunstmatige intelligentie heeft slechts twee uur training nodig om een exacte kopie van iemands persoonlijkheid te creëren, zo hebben onderzoekers ontdekt. In een studie gepubliceerd in het online pre-publicatiearchief arXiv creëerden onderzoekers van Google en Stanford University simulatieprogramma’s die de menselijke persoonlijkheid repliceren. De programma’s zijn tot stand gekomen op basis van twee uur durende interviews met 1.052 mensen die aan het onderzoek deelnamen. Deze interviews werden gebruikt om een generatief AI-model te trainen dat is ontworpen om menselijk gedrag na te bootsen.
Om de nauwkeurigheid van de AI-replica’s te beoordelen, voltooide elke deelnemer twee rondes van persoonlijkheidstests, sociale enquêtes en logische spelletjes en werd hem gevraagd het proces twee weken later te herhalen. Toen de AI-replica’s aan dezelfde tests werden onderworpen, kwamen ze met een nauwkeurigheid van 85% overeen met de antwoorden van hun menselijke tegenhangers.
De studie meldt dat AI-modellen die menselijk gedrag nabootsen nuttig kunnen zijn in een verscheidenheid aan onderzoeksscenario’s, zoals het evalueren van de effectiviteit van volksgezondheidsbeleid, het begrijpen van reacties op productlanceringen of zelfs het modelleren van reacties op belangrijke sociale gebeurtenissen die anders erg duur zouden zijn.
“Algemene simulatie van menselijke attitudes en gedrag – waarbij elk gesimuleerd individu deel kan nemen aan een reeks sociale, politieke of informatieve contexten – zou een laboratorium voor onderzoekers mogelijk kunnen maken om een breed scala aan interventies en theorieën te testen”, aldus de onderzoekers in de studie. De simulaties kunnen ook helpen bij het testen van nieuwe publieke interventies, het ontwikkelen van theorieën rond causale en contextuele interacties, en het vergroten van ons begrip van hoe instellingen en netwerken mensen beïnvloeden.
Uiteraard roept deze ontwikkeling ook veel zorgen op over verschillende vormen van kwaadwillig gebruik van deze technologie, en het valt nog te bezien of en hoe deze op een kwaadwillige manier zal worden gebruikt.