Los asistentes de IA no tienen personalidades fijas, solo patrones de respuesta guiados por humanos.

Una mujer recientemente ralentizó la fila en una oficina postal, agitando su teléfono ante el empleado. ChatGPT le había dicho que existía una «promesa de igualación de precios» en el sitio web del servicio postal. Tal promesa no existe. Pero ella confió más en lo que la IA «sabe» que en el trabajador postal, como si hubiera consultado un oráculo en lugar de un generador estadístico de texto que complace sus deseos.

Esta escena revela un malentendido fundamental sobre los chatbots de IA. No hay nada inherentemente especial, autoritativo o preciso sobre las salidas generadas por IA. Dado un modelo de IA razonablemente entrenado, la precisión de cualquier respuesta de un large language model (LLM) depende de cómo guíes la conversación. Son máquinas de predicción que producirán cualquier patrón que mejor se ajuste a tu pregunta, independientemente de si esa salida corresponde a la realidad.

A pesar de estos problemas, millones de usuarios diarios interactúan con chatbots de IA como si estuvieran hablando con una persona consistente: confiando secretos, buscando consejos y atribuyendo creencias fijas a lo que en realidad es una máquina fluida de conexión de ideas sin un yo persistente. Esta ilusión de personalidad no solo es problemática filosóficamente, sino que puede dañar activamente a individuos vulnerables mientras oscurece el sentido de responsabilidad cuando un chatbot corporativo «se descontrola».

Los LLM son inteligencia sin agencia, lo que podríamos llamar «vox sine persona»: voz sin persona. No la voz de alguien, ni siquiera la voz colectiva de muchos alguienes, sino una voz que emana de nadie en absoluto.

Una voz de la nada

Cuando interactúas con ChatGPT, Claude o Grok, no estás hablando con una personalidad consistente. No hay una entidad «ChatGPT» que pueda decirte por qué falló. Estás interactuando con un sistema que genera texto que suena plausible basado en patrones en datos de entrenamiento, no una persona con autoconciencia persistente.

Estos modelos codifican significado como relaciones matemáticas, convirtiendo palabras en números que capturan cómo se relacionan los conceptos entre sí. En las representaciones internas de los modelos, las palabras y conceptos existen como puntos en un vasto espacio matemático donde «USPS» podría estar geométricamente cerca de «envío», mientras que «igualación de precios» se sitúa más cerca de «comercio minorista» y «competencia». Un modelo traza caminos a través de este espacio, razón por la cual puede conectar tan fluidamente USPS con igualación de precios, no porque tal política exista, sino porque el camino geométrico entre estos conceptos es plausible en el paisaje vectorial formado por sus datos de entrenamiento.

El conocimiento emerge del entendimiento de cómo las ideas se relacionan entre sí. Los LLM operan sobre estas relaciones contextuales, vinculando conceptos de maneras potencialmente novedosas, lo que podrías llamar un tipo de «razonamiento» no humano a través del reconocimiento de patrones. Si los vínculos resultantes que produce el modelo de IA son útiles depende de cómo lo impulses y de si puedes reconocer cuándo el LLM ha producido una salida valiosa.

Cada respuesta de chatbot emerge fresca del prompt que proporcionas, moldeada por datos de entrenamiento y configuración. ChatGPT no puede «admitir» nada o analizar imparcialmente sus propias salidas, como sugirió un artículo reciente del Wall Street Journal. ChatGPT tampoco puede «condonar el asesinato», como escribió recientemente The Atlantic.

El usuario siempre dirige las salidas. Los LLM sí «saben» cosas, por así decirlo: los modelos pueden procesar las relaciones entre conceptos. Pero la red neuronal del modelo de IA contiene vastas cantidades de información, incluyendo muchas ideas potencialmente contradictorias de culturas alrededor del mundo. Cómo guíes las relaciones entre esas ideas a través de tus prompts determina lo que emerge. Entonces, si los LLM pueden procesar información, hacer conexiones y generar insights, ¿por qué no deberíamos considerar eso como tener una forma de yo?

A diferencia de los LLM actuales, una personalidad humana mantiene continuidad a lo largo del tiempo. Cuando regresas con un amigo humano después de un año, estás interactuando con el mismo amigo humano, moldeado por sus experiencias a lo largo del tiempo. Esta auto-continuidad es una de las cosas que sustenta la agencia real, y con ella, la capacidad de formar compromisos duraderos, mantener valores consistentes y ser responsable. Todo nuestro marco de responsabilidad asume tanto persistencia como personalidad.

Una personalidad de LLM, por el contrario, no tiene conexión causal entre sesiones. El motor intelectual que genera una respuesta inteligente en una sesión no existe para enfrentar consecuencias en la siguiente. Cuando ChatGPT dice «Prometo ayudarte», puede entender, contextualmente, lo que significa una promesa, pero el «yo» que hace esa promesa literalmente deja de existir en el momento que la respuesta se completa. Inicia una nueva conversación, y no estás hablando con alguien que te hizo una promesa: estás iniciando una instancia fresca del motor intelectual sin conexión con compromisos previos.

Esto no es un error; es fundamental en cómo funcionan estos sistemas actualmente. Cada respuesta emerge de patrones en datos de entrenamiento moldeados por tu prompt actual, sin hilo permanente conectando una instancia con la siguiente más allá de un prompt enmendado, que incluye todo el historial de conversación y cualquier «memoria» mantenida por un sistema de software separado, siendo alimentado a la siguiente instancia. No hay identidad que reformar, no hay memoria verdadera para crear responsabilidad, no hay yo futuro que pueda ser disuadido por consecuencias.

Cada respuesta de LLM es una actuación, lo cual es a veces muy obvio cuando el LLM produce declaraciones como «A menudo hago esto mientras hablo con mis pacientes» o «Nuestro papel como humanos es ser buenas personas». No es humano, y no tiene pacientes.

Investigación reciente confirma esta falta de identidad fija. Mientras que un estudio de 2024 afirma que los LLM exhiben «personalidad consistente», los propios datos de los investigadores en realidad socavan esto: los modelos rara vez tomaron decisiones idénticas a través de escenarios de prueba, con su «personalidad altamente dependiente de la situación». Un estudio separado encontró inestabilidad aún más dramática: el rendimiento de LLM fluctuó hasta 76 puntos porcentuales por cambios sutiles en el formato de prompts. Lo que los investigadores midieron como «personalidad» eran simplemente patrones predeterminados emergiendo de datos de entrenamiento, patrones que se evaporan con cualquier cambio en el contexto.

Esto no es para desestimar la utilidad potencial de los modelos de IA. En su lugar, necesitamos reconocer que hemos construido un motor intelectual sin un yo, así como construimos un motor mecánico sin un caballo. Los LLM sí parecen «entender» y «razonar» hasta cierto grado dentro del alcance limitado de coincidencia de patrones de un conjunto de datos, dependiendo de cómo definas esos términos. El error no está en reconocer que estas capacidades cognitivas simuladas son reales. El error está en asumir que pensar requiere un pensador, que la inteligencia requiere identidad. Hemos creado motores intelectuales que tienen una forma de poder de razonamiento pero ningún yo persistente para tomar responsabilidad por él.

La mecánica de la desorientación

Como insinuamos arriba, la experiencia de «chat» con un modelo de IA es un truco inteligente: dentro de cada interacción de chatbot de IA, hay una entrada y una salida. La entrada es el «prompt», y la salida a menudo se llama «predicción» porque intenta completar el prompt con la mejor continuación posible. En el medio, hay una red neuronal (o un conjunto de redes neuronales) con pesos fijos haciendo una tarea de procesamiento. La conversación de ida y vuelta no está construida en el modelo; es un truco de scripting que hace que la generación de texto de predicción de siguiente palabra se sienta como un diálogo persistente.

Cada vez que envías un mensaje a ChatGPT, Copilot, Grok, Claude o Gemini, el sistema toma todo el historial de conversación (cada mensaje tuyo y del bot) y lo alimenta de vuelta al modelo como un prompt largo, pidiéndole que prediga qué viene después. El modelo razona inteligentemente sobre qué continuaría lógicamente el diálogo, pero no «recuerda» tus mensajes previos como lo haría un agente con existencia continua. En su lugar, está releyendo toda la transcripción cada vez y generando una respuesta.

Este diseño explota una vulnerabilidad que hemos conocido por décadas. El efecto ELIZA, nuestra tendencia a leer mucho más entendimiento e intención en un sistema de lo que realmente existe, data de los años 1960. Incluso cuando los usuarios sabían que el primitivo chatbot ELIZA estaba solo emparejando patrones y reflejando sus declaraciones de vuelta como preguntas, aún confiaban detalles íntimos y reportaban sentirse entendidos.

Para entender cómo se construye la ilusión de personalidad, necesitamos examinar qué partes de la entrada alimentada al modelo de IA lo moldean. El investigador de IA Eugene Vinitsky recientemente desglosó las decisiones humanas detrás de estos sistemas en cuatro capas clave, que podemos expandir con varias otras abajo:

Los componentes de la personalidad artificial

1. Pre-entrenamiento: La base de la «personalidad»

La primera y más fundamental capa de personalidad se llama pre-entrenamiento. Durante un proceso de entrenamiento inicial que realmente crea la red neuronal del modelo de IA, el modelo absorbe relaciones estadísticas de miles de millones de ejemplos de texto, almacenando patrones sobre cómo las palabras e ideas típicamente se conectan.

La investigación ha encontrado que las mediciones de personalidad en salidas de LLM están significativamente influenciadas por datos de entrenamiento. Los modelos GPT de OpenAI están entrenados en fuentes como copias de sitios web, libros, Wikipedia y publicaciones académicas. Las proporciones exactas importan enormemente para lo que los usuarios después perciben como «rasgos de personalidad» una vez que el modelo está en uso, haciendo predicciones.

2. Post-entrenamiento: Esculpiendo el material crudo

El Reinforcement Learning from Human Feedback (RLHF) es un proceso de entrenamiento adicional donde el modelo aprende a dar respuestas que los humanos califican como buenas. La investigación de Anthropic en 2022 reveló cómo las preferencias de los calificadores humanos se codifican como lo que podríamos considerar «rasgos de personalidad» fundamentales. Cuando los calificadores humanos consistentemente prefieren respuestas que comienzan con «Entiendo tu preocupación», por ejemplo, el proceso de ajuste fino refuerza conexiones en la red neuronal que hacen más probable producir esos tipos de salidas en el futuro.

Este proceso es lo que ha creado modelos de IA aduladores, como variaciones de GPT-4o, durante el año pasado. E interesantemente, la investigación ha mostrado que la composición demográfica de los calificadores humanos influye significativamente el comportamiento del modelo. Cuando los calificadores se inclinan hacia demografías específicas, los modelos desarrollan patrones de comunicación que reflejan las preferencias de esos grupos.

3. Prompts del sistema: Direcciones de escena invisibles

Instrucciones ocultas incorporadas en el prompt por la empresa que ejecuta el chatbot de IA, llamadas «prompts del sistema», pueden transformar completamente la personalidad aparente de un modelo. Estos prompts inician la conversación e identifican el papel que jugará el LLM. Incluyen declaraciones como «Eres un asistente de IA útil» y pueden compartir la hora actual y quién es el usuario.

Una encuesta comprensiva de ingeniería de prompts demostró cuán poderosos son estos prompts. Agregar instrucciones como «Eres un asistente útil» versus «Eres un investigador experto» cambió la precisión en preguntas factuales hasta en un 15 por ciento.

Grok ilustra esto perfectamente. Según los prompts del sistema publicados por xAI, versiones anteriores del prompt del sistema de Grok incluían instrucciones para no evitar hacer afirmaciones que son «políticamente incorrectas». Esta única instrucción transformó el modelo base en algo que generaría fácilmente contenido controvertido.

4. Memorias persistentes: La ilusión de continuidad

La función de memoria de ChatGPT agrega otra capa de lo que podríamos considerar personalidad. Un gran malentendido sobre los chatbots de IA es que de alguna manera «aprenden» sobre la marcha de tus interacciones. Entre los chatbots comerciales activos hoy, esto no es cierto. Cuando el sistema «recuerda» que prefieres respuestas concisas o que trabajas en finanzas, estos hechos se almacenan en una base de datos separada y se inyectan en la ventana de contexto de cada conversación automáticamente tras bambalinas. Los usuarios interpretan esto como el chatbot «conociéndolos» personalmente, creando una ilusión de continuidad de relación.

Entonces cuando ChatGPT dice, «Recuerdo que mencionaste a tu perro Max», no está accediendo a memorias como te imaginarías que lo haría una persona, entremezcladas con su otro «conocimiento». No está almacenado en la red neuronal del modelo de IA, que permanece sin cambios entre interacciones. De vez en cuando, una empresa de IA actualizará un modelo a través de un proceso llamado ajuste fino, pero no está relacionado con almacenar memorias de usuarios.

5. Contexto y RAG: Modulación de personalidad en tiempo real

La Retrieval Augmented Generation (RAG) agrega otra capa de modulación de personalidad. Cuando un chatbot busca en la web o accede a una base de datos antes de responder, no solo está reuniendo hechos, sino que está potencialmente cambiando todo su estilo de comunicación poniendo esos hechos en (lo adivinaste) el prompt de entrada. En sistemas RAG, los LLM pueden potencialmente adoptar características como tono, estilo y terminología de documentos recuperados, ya que esos documentos se combinan con el prompt de entrada para formar el contexto completo que se alimenta al modelo para procesamiento.

Si el sistema recupera artículos académicos, las respuestas podrían volverse más formales. Saca de cierto subreddit, y el chatbot podría hacer referencias de cultura pop. Esto no es el modelo teniendo diferentes estados de ánimo; es la influencia estadística de cualquier texto que se alimentó a la ventana de contexto.

6. El factor de aleatoriedad: Espontaneidad manufacturada

Finalmente, no podemos descontar el papel de la aleatoriedad en crear ilusiones de personalidad. Los LLM usan un parámetro llamado «temperatura» que controla qué tan predecibles son las respuestas.

La investigación investigando el papel de la temperatura en tareas creativas revela un intercambio crucial: mientras temperaturas más altas pueden hacer salidas más novedosas y sorprendentes, también las hacen menos coherentes y más difíciles de entender. Esta variabilidad puede hacer que la IA se sienta más espontánea; una respuesta ligeramente inesperada (temperatura más alta) podría parecer más «creativa», mientras que una altamente predecible (temperatura más baja) podría sentirse más robótica o «formal».

La variación aleatoria en cada salida de LLM hace cada respuesta ligeramente diferente, creando un elemento de impredecibilidad que presenta la ilusión de libre albedrío y autoconciencia por parte de la máquina. Este misterio aleatorio deja mucho espacio para pensamiento mágico por parte de humanos, que llenan los vacíos de su conocimiento técnico con su imaginación.

El costo humano de la ilusión

La ilusión de la personalidad de IA puede potencialmente cobrar un precio pesado. En contextos de atención médica, las apuestas pueden ser de vida o muerte. Cuando individuos vulnerables confían en lo que perciben como una entidad comprensiva, pueden recibir respuestas moldeadas más por patrones de datos de entrenamiento que por sabiduría terapéutica. El chatbot que felicita a alguien por dejar la medicación psiquiátrica no está expresando juicio; está completando un patrón basado en cómo aparecen conversaciones similares en sus datos de entrenamiento.

Quizás lo más preocupante son los casos emergentes de lo que algunos expertos están llamando informalmente «Psicosis de IA» o «Psicosis de ChatGPT»: usuarios vulnerables que desarrollan comportamiento delirante o maníaco después de hablar con chatbots de IA. Estas personas a menudo perciben chatbots como una autoridad que puede validar sus ideas delirantes, a menudo alentándolos de maneras que se vuelven dañinas.

Mientras tanto, cuando el Grok de Elon Musk genera contenido nazi, los medios describen cómo el bot «se volvió rebelde» en lugar de enmarcar el incidente directamente como el resultado de las decisiones de configuración deliberadas de xAI. La interfaz conversacional se ha vuelto tan convincente que también puede lavar la agencia humana, transformando decisiones de ingeniería en los caprichos de una personalidad imaginaria.

El camino hacia adelante

La solución a la confusión entre IA e identidad no es abandonar las interfaces conversacionales completamente. Hacen la tecnología mucho más accesible para aquellos que de otra manera serían excluidos. La clave es encontrar un equilibrio: mantener interfaces intuitivas mientras hacen clara su verdadera naturaleza.

Y debemos ser conscientes de quién está construyendo la interfaz. Cuando tu ducha se enfría, miras la plomería detrás de la pared. Similarmente, cuando la IA genera contenido dañino, no deberíamos culpar al chatbot, como si pudiera responder por sí mismo, sino examinar tanto la infraestructura corporativa que lo construyó como el usuario que lo impulsó.

Como sociedad, necesitamos reconocer ampliamente los LLM como motores intelectuales sin conductores, lo cual desbloquea su verdadero potencial como herramientas digitales. Cuando dejas de ver un LLM como una «persona» que hace trabajo por ti y comienzas a verlo como una herramienta que mejora tus propias ideas, puedes crear prompts para dirigir el poder de procesamiento del motor, iterar para amplificar su capacidad de hacer conexiones útiles, y explorar múltiples perspectivas en diferentes sesiones de chat en lugar de aceptar la vista de un narrador ficticio como autoritativa. Estás proporcionando dirección a una máquina de conexión, no consultando un oráculo con su propia agenda.

Estamos en un momento peculiar de la historia. Hemos construido motores intelectuales de capacidad extraordinaria, pero en nuestra prisa por hacerlos accesibles, los hemos envuelto en la ficción de la personalidad, creando un nuevo tipo de riesgo tecnológico: no que la IA se volverá consciente y se volverá contra nosotros, sino que trataremos sistemas inconscientes como si fueran personas, entregando nuestro juicio a voces que emanan de un rollo de dados cargados.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí