Un estudio británico demuestra que las personas confunden caras artificiales con reales más de lo esperado, aunque una breve capacitación mejora significativamente la detección
La inteligencia artificial ha alcanzado un hito inquietante: generar rostros sintéticos tan realistas que resultan prácticamente imposibles de distinguir de los humanos reales. Investigadores de la Universidad de Reading, en Reino Unido, han descubierto que las personas no solo fallan al identificar estas caras artificiales, sino que, paradójicamente, las perciben como más auténticas que los rostros genuinos.



El hallazgo, publicado en la revista científica Royal Society Open Science, pone de manifiesto los riesgos asociados a las redes generativas antagónicas (GANs, por sus siglas en inglés), una tecnología capaz de crear imágenes fotorrealistas que ya está siendo explotada con fines fraudulentos. Un ejemplo reciente: usuarios de TikTok denunciaron la aparición de falsos médicos generados por IA que difundían consejos de salud sin fundamento científico.
El experimento: cuando los expertos también fallan
El equipo liderado por Katie Gray, profesora asociada de psicología, diseñó un experimento con dos grupos de participantes: reconocedores típicos y los denominados «super reconocedores», personas que se ubican en el 2% superior en pruebas de memoria facial, seleccionados de la base de datos del Greenwich Face and Voice Recognition Laboratory.
En la prueba inicial, los participantes disponían de diez segundos para determinar si un rostro mostrado en pantalla era real o artificial. Los resultados fueron desalentadores: los reconocedores típicos identificaron correctamente solo el 30% de las caras falsas, mientras que los super reconocedores alcanzaron apenas el 41%, un rendimiento inferior al que se obtendría adivinando al azar.
Estas caras artificiales suelen ser más proporcionadas que sus contrapartes auténticas, lo que contribuye a su apariencia convincente
La solución: cinco minutos que marcan la diferencia
Ante estos resultados, los investigadores desarrollaron un protocolo de entrenamiento de cinco minutos diseñado para enseñar a detectar las imperfecciones características de los rostros generados por IA. El programa expone a los participantes a diez caras y les proporciona retroalimentación inmediata sobre su precisión, culminando con una revisión de los errores de renderizado más comunes.
Entre las señales que delatan a un rostro artificial se encuentran anomalías en los dientes (como la presencia de un diente central), líneas de cabello irregulares, texturas de piel poco naturales y proporciones faciales excesivamente simétricas.
Los resultados del segundo experimento, que incluyó a participantes previamente entrenados, mostraron mejoras sustanciales: los super reconocedores elevaron su tasa de detección al 64%, mientras que los reconocedores típicos alcanzaron el 51%. Además, los participantes entrenados dedicaron más tiempo a examinar cada rostro antes de emitir su juicio.
Fue alentador que nuestro procedimiento de entrenamiento, bastante breve, aumentara el rendimiento en ambos grupos de manera considerable
Katie Gray, investigadora principal
Limitaciones y perspectivas
El estudio presenta algunas limitaciones que los propios autores reconocen. La principal: los participantes fueron evaluados inmediatamente después del entrenamiento, por lo que se desconoce cuánto retendrían de lo aprendido tras un período prolongado. Futuras investigaciones deberán determinar la durabilidad de estas habilidades adquiridas.
No obstante, en un contexto donde los impostores digitales proliferan en redes sociales y donde sistemas como ChatGPT han demostrado capacidad para superar la Prueba de Turing, equipar a la población con herramientas para distinguir lo humano de lo artificial se convierte en una necesidad apremiante.
La línea entre lo real y lo sintético se difumina cada vez más. Este estudio sugiere que, con la formación adecuada, aún es posible entrenar al ojo humano para detectar los sutiles rastros que delatan la naturaleza artificial de un rostro, aunque la lucha entre creadores de deepfakes y detectores apenas comienza.









