Un reciente estudio realizado por investigadores de Google y la Universidad de Stanford ha revelado que basta con una conversación de dos horas con un modelo de inteligencia artificial (IA) para crear una réplica precisa de la personalidad de una persona. Este descubrimiento se ha publicado en la base de datos de preimpresión arXiv, y detalla cómo los investigadores lograron crear «agentes de simulación» de 1.052 individuos a partir de entrevistas de dos horas con cada participante. Estas entrevistas sirvieron para entrenar un modelo generativo de IA diseñado para imitar el comportamiento humano.

Para evaluar la precisión de estas réplicas de IA, los participantes completaron dos rondas de pruebas de personalidad, encuestas sociales y juegos de lógica, repitiendo el proceso dos semanas después. Las réplicas de IA sometidas a las mismas pruebas lograron coincidir con las respuestas de sus contrapartes humanas con un 85% de precisión. El estudio sugiere que los modelos de IA que emulan el comportamiento humano podrían ser útiles en diversos escenarios de investigación, como evaluar la efectividad de políticas de salud pública, comprender respuestas a lanzamientos de productos o modelar reacciones a eventos sociales importantes.

Los investigadores destacan que la simulación general de actitudes y comportamientos humanos podría proporcionar un laboratorio para probar un amplio conjunto de intervenciones y teorías. Estas simulaciones podrían ayudar a pilotar nuevas intervenciones públicas, desarrollar teorías sobre interacciones causales y contextuales, y aumentar nuestra comprensión de cómo las instituciones y redes influyen en las personas. Para crear los agentes de simulación, se realizaron entrevistas en profundidad que cubrieron historias de vida, valores y opiniones sobre cuestiones sociales, permitiendo a la IA capturar matices que las encuestas típicas o datos demográficos podrían pasar por alto.

A pesar de que los agentes de IA reflejaron de manera precisa a sus contrapartes humanas en muchos aspectos, su precisión varió según las tareas. Se destacaron en replicar respuestas a encuestas de personalidad y determinar actitudes sociales, pero fueron menos precisos en predecir comportamientos en juegos interactivos que implican decisiones económicas. Los investigadores señalaron que la IA suele tener dificultades con tareas que involucran dinámicas sociales y matices contextuales. También reconocieron el potencial de abuso de esta tecnología, ya que las tecnologías de IA y «deepfake» ya están siendo utilizadas por actores malintencionados para engañar, suplantar y manipular a otras personas en línea.

Sin embargo, los investigadores sostienen que esta tecnología podría permitirnos estudiar aspectos del comportamiento humano de maneras que antes eran imprácticas, proporcionando un entorno de prueba altamente controlado sin los desafíos éticos, logísticos o interpersonales de trabajar con humanos. Según Joon Sung Park, autor principal del estudio y estudiante de doctorado en informática en Stanford, «si puedes tener un grupo de pequeños ‘tú’ tomando las decisiones que habrías tomado, eso, creo, es en última instancia el futuro».

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí