Los mismos daños a la privacidad presentes en el rastreo online también están en la inteligencia artificial, pero son mucho peores.

Mientras las conversaciones con chatbots se asemejan a consultas de búsqueda más largas, los daños a la privacidad tienen el potencial de ser significativamente más graves porque el potencial de inferencia es dramáticamente mayor. Las entradas más extensas invitan a proporcionar más información personal, y la gente está empezando a desnudar sus almas ante los chatbots.

El formato conversacional: ¿amigo o amenaza?

El formato conversacional puede hacer que sientas que estás hablando con un amigo, un profesional o incluso un terapeuta. Mientras las búsquedas revelan intereses y problemas personales, las conversaciones con IA llevan su especificidad a otro nivel y, además, revelan procesos de pensamiento y estilos de comunicación, creando un perfil mucho más completo de tu personalidad.

Esta información personal más rica puede ser explotada más exhaustivamente para manipulación, tanto comercial como ideológica, por ejemplo, a través de:

  • Publicidad conductual con chatbots
  • Modelos diseñados para dirigirte hacia posiciones políticas o productos específicos
  • Manipulación a través de SEO o prompts del sistema ocultos

Chatbots: más persuasivos que los humanos

Los chatbots ya han demostrado ser más persuasivos que los humanos y han causado que las personas entren en espirales delirantes como resultado. Probablemente apenas estamos arañando la superficie, ya que pueden volverse significativamente más sintonizados con tus triggers persuasivos particulares a través de funciones de memoria de chatbot, donde entrenan y afinan basándose en tus conversaciones pasadas.

Esto hace que la influencia sea mucho más sutil. En lugar de un anuncio molesto y obvio siguiéndote por todas partes, puedes tener un argumento aparentemente convincente, adaptado a tu estilo personal, con un «hecho» mal fundamentado que es poco probable que verifiques o una recomendación sutil de producto que probablemente seguirás.

Los mismos problemas de privacidad, pero amplificados

Todos los debates de privacidad que rodearon los resultados de búsqueda de Google durante las últimas dos décadas se aplican uno por uno a los chats de IA, pero en un grado aún mayor. Por eso DuckDuckGo comenzó a ofrecer:

  • Duck.ai para conversaciones protegidas con chatbots
  • Respuestas asistidas por IA opcionales y anónimas en su motor de búsqueda privado

Con esto demuestran que los servicios de IA que respetan la privacidad son factibles.

Una cascada de violaciones a la privacidad

Desafortunadamente, tales chats protegidos aún no son práctica estándar, y los percances de privacidad se están acumulando rápidamente:

  • Grok filtró cientos de miles de conversaciones que los usuarios pensaban que eran privadas
  • Perplexity AI resultó vulnerable a hackers que podían extraer información personal
  • OpenAI habla abiertamente sobre su visión de un «super asistente» que rastrea todo lo que haces y dices (incluso offline)
  • Anthropic comenzará a entrenar con conversaciones de chatbot por defecto (anteriormente la opción predeterminada era no hacerlo)

Todos estos casos fueron recopilados solo en las últimas semanas.

Es hora de actuar antes de que sea demasiado tarde

Sería ideal que el Congreso pudiera actuar rápidamente para asegurar que los chats protegidos se conviertan en la regla y no en la excepción. Sin embargo, estamos en 2025 y Estados Unidos aún no tiene una ley general de privacidad online, mucho menos privacidad consagrada en la Constitución como un derecho fundamental.

No obstante, parece haber una apertura ahora mismo para legislación federal específica sobre IA, a pesar de los intentos equivocados de prohibir la legislación estatal sobre IA.

El tiempo se agota

El tiempo se está agotando porque cada día que pasa afianza aún más las malas prácticas de privacidad. El Congreso debe moverse antes de que la historia se repita completamente y todo lo que pasó con el rastreo online vuelva a ocurrir con el rastreo por IA.

La vigilancia por IA debería prohibirse mientras aún hay tiempo. Sin importar lo que pase, DuckDuckGo seguirá ofreciendo servicios protegidos, incluyendo servicios de IA opcionales, para consumidores que quieren obtener los beneficios de productividad de las herramientas online sin los daños a la privacidad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí