Desde la introducción de ChatGPT a finales de 2022, la capacidad de la inteligencia artificial (IA) para generar contenido ha transformado la manera en que interactuamos con los textos. Esta realidad plantea una pregunta crucial: ¿cómo podemos estar seguros de que lo que estamos leyendo fue escrito por una persona y no por una máquina?
A pesar del entusiasmo inicial, la percepción pública sobre la IA ha sido en gran medida negativa, especialmente cuando se ha utilizado para crear contenido sin transparencia. Ejemplos como el de CNET, que comenzó a publicar artículos generados por IA junto con contenido redactado por humanos, generaron un fuerte rechazo, tanto por la calidad del contenido como por la falta de consulta con los empleados. Este tipo de experiencias subraya una realidad: cuando se utiliza la IA de manera inapropiada, es fácil detectar que el texto no proviene de una mente humana.
Las herramientas de IA, como los modelos de lenguaje grande (LLM), no son conscientes ni inteligentes. Están diseñadas para predecir secuencias de palabras basadas en patrones que han aprendido de vastos conjuntos de datos textuales. Esto les permite generar textos que, en muchas ocasiones, pueden parecer convincentes. Sin embargo, la IA sigue siendo esclava de su entrenamiento, lo que significa que su escritura contiene señales reveladoras que permiten identificar su origen.
Entre estas señales están el uso repetitivo de ciertas palabras y frases, como «delve,» «testament,» y «mosaic,» que aparecen con frecuencia en los textos generados por IA. Estas elecciones de palabras, aunque correctas, pueden indicar una falta de originalidad y profundidad en el análisis que se espera de un redactor humano.
Otro rasgo característico de los textos generados por IA es el uso excesivo de un lenguaje florido y grandilocuente, típico de textos publicitarios. Las descripciones pueden estar cargadas de adjetivos exagerados que intentan vender una idea o un lugar de manera excesivamente positiva, lo que puede resultar en una prosa que, aunque impresionantemente rápida de producir, carece de la autenticidad y matices que caracterizan el trabajo humano.
Además, los textos generados por IA tienden a estructurarse de manera superficial, con argumentos poco profundos y párrafos que resumen más que analizar. Esto se debe a que la IA no comprende realmente los temas que aborda; simplemente agrupa palabras que «cree» que deberían ir juntas, basándose en su entrenamiento previo.
Un aspecto preocupante de los LLM es su tendencia a «alucinar,» es decir, a inventar información. Esta falta de fiabilidad puede resultar en afirmaciones erróneas presentadas como hechos, especialmente si no se citan fuentes que respalden la información. Por otro lado, la perfección en la ortografía y gramática, sin errores tipográficos, también puede ser un indicio de que el texto fue generado por una IA, ya que estos modelos no cometen los errores típicos de los humanos.
Finalmente, aunque existen detectores de texto generado por IA, su fiabilidad es cuestionable. Estos detectores se entrenan en textos generados por IA, pero su precisión varía. La mejor forma de identificar si un texto fue creado por una máquina sigue siendo un análisis crítico y atento a las peculiaridades del lenguaje que utiliza.