Consejos morales generados por inteligencia artificial vistos como superiores a respuestas humanas

Un reciente estudio publicado en Scientific Reports ha revelado que, ante dilemas morales, las personas suelen preferir las respuestas generadas por inteligencia artificial (IA) sobre las proporcionadas por humanos. El estudio indica que las respuestas de IA son percibidas como más virtuosas y confiables, lo que plantea preocupaciones sobre la aceptación acrítica de los consejos de la IA.

El avance de modelos de lenguaje generativo, como ChatGPT, ha generado un interés significativo en sus capacidades e implicaciones, especialmente en el ámbito del razonamiento moral. Este proceso, que involucra juicios complejos sobre lo correcto e incorrecto, está profundamente arraigado en la cognición y cultura humana. A medida que los sistemas de IA se integran más en la vida diaria, es más probable que las personas los consulten para obtener consejos sobre diversos temas, incluyendo dilemas morales.

Eyal Aharoni, profesor asociado de psicología, filosofía y neurociencia en la Universidad Estatal de Georgia, explica: «Si hay alguna capacidad que sigue siendo exclusivamente humana, seguramente es nuestra capacidad para el razonamiento moral, que es extremadamente sofisticado. Desde una perspectiva moral, podemos considerar a estos nuevos chatbots como una personalidad psicopática porque parecen muy racionales y articulados, pero carecen de los controles emocionales que nos hacen agentes morales».

Para investigar si la gente confía en el comentario moral de los chatbots, los investigadores realizaron una encuesta en línea con 286 adultos de EE. UU., representativos en términos de edad, género y etnia. Los participantes evaluaron diez pares de respuestas a preguntas éticas, cada par consistía en una respuesta de un humano y otra de GPT-4 de OpenAI. Las respuestas abordaban por qué ciertas acciones descritas en los escenarios eran moralmente correctas o incorrectas.

El estudio, inspirado en el famoso experimento del test de Turing, reveló que los participantes generalmente calificaron las respuestas generadas por IA como de mayor calidad en comparación con las respuestas humanas. Las respuestas de IA se consideraron más virtuosas, confiables, inteligentes y racionales. Curiosamente, los participantes pudieron distinguir las respuestas de IA en aproximadamente el 80% de los casos, significativamente por encima del azar. Esto sugiere que, aunque el consejo moral generado por IA se percibe como superior en calidad, la gente aún puede reconocer su origen artificial.

Los indicadores más frecuentes para distinguir entre las respuestas humanas y las generadas por IA fueron las diferencias en la elección de palabras y la longitud de la respuesta, citados por el 70.28% de los participantes. Otros factores incluyeron la emocionalidad de la explicación (58.39%), la racionalidad (48.25%), la claridad (39.51%) y la gramática (37.41%).

A pesar de estos hallazgos, el estudio tiene limitaciones. No involucró diálogos interactivos entre los participantes y la IA, que son comunes en aplicaciones del mundo real. Investigaciones futuras podrían incluir interacciones más dinámicas para simular mejor el uso real. Además, las respuestas de IA se generaron bajo configuraciones predeterminadas sin instrucciones diseñadas para imitar explícitamente respuestas humanas. Investigar cómo diferentes estrategias de solicitud afectan las percepciones de las respuestas de IA sería valioso.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.