Los riesgos de la IA de Google, respuestas falsas, engañosas y peligrosas

En los últimos días, los usuarios de Google pueden haber notado una nueva función: los resúmenes generados por inteligencia artificial (IA) que proporcionan respuestas condensadas a ciertas preguntas. Sin embargo, en las redes sociales han surgido numerosos ejemplos de estos resúmenes siendo incorrectos, incluso peligrosamente equivocados.

Los errores factuales no son nuevos en los chatbots de IA, pero el impacto se amplifica cuando estos errores aparecen en la valiosa página de resultados de búsqueda de Google. Un portavoz de Google declaró que estos errores son poco comunes y no representan la mayoría de las experiencias de los usuarios, destacando que la mayoría de los resúmenes proporcionan información de alta calidad con enlaces para profundizar.

Al revisar múltiples ejemplos de errores en los resúmenes de IA de Google, se identificaron varias categorías recurrentes de fallos:

  1. Fuentes humorísticas malinterpretadas: La IA a veces no reconoce cuando una fuente intenta ser graciosa. Un ejemplo notable es una recomendación de usar «1/8 de taza de pegamento no tóxico» para evitar que el queso se deslice de la pizza, originada de un foro de bromas. Otra respuesta recomendaba «líquido para intermitentes», tomado de una broma en un foro.
  2. Errores de fuentes no verificadas: En búsquedas comunes, estas publicaciones humorísticas probablemente no aparecerían entre los primeros resultados. Sin embargo, los resúmenes de IA las integran como datos fiables, sin advertir sobre la fiabilidad de las fuentes.
  3. Respuestas a preguntas incorrectas: La IA a veces proporciona respuestas correctas pero a preguntas ligeramente diferentes. Por ejemplo, al buscar el punto más al sur de Alaska continental, la IA respondió sobre el punto más al sur de la cadena de islas Aleutianas.
  4. Confusión con nombres similares: La IA tiende a confundir personas con nombres similares. Preguntar sobre presidentes de EE. UU. que murieron en volcanes llevó a una respuesta sobre Harry R. Truman, un hombre que murió en la explosión del Monte Santa Helena en 1980, no el presidente Harry S. Truman.
  5. Problemas matemáticos y de datos básicos: La IA también lucha con problemas matemáticos básicos. Una consulta sobre el valor relativo de los dólares en el año 2000 resultó en una respuesta incoherente sobre una «disminución acumulada del -43.49%» entre 2000 y 2023, cuando en realidad los precios aumentaron un 77%.
  6. Ficción como realidad: En ocasiones, la IA toma fuentes de ficción como hechos. Un ejemplo es la afirmación de un remake de «2001: Una Odisea del Espacio» dirigido por Steven Spielberg y producido por George Lucas, tomado de una wiki de ideas de fans.

Google está trabajando para mejorar estos problemas. Un portavoz mencionó que la compañía utiliza pruebas adversariales para mejorar la precisión y la seguridad, y que ciertos temas explícitos o peligrosos no mostrarán resúmenes de IA.

A pesar de los errores, muchos resúmenes de IA de Google proporcionan información precisa y concisa. Sin embargo, es crucial seguir examinando y mejorando este sistema, ya que tiene el potencial de alterar fundamentalmente la forma en que accedemos a la información en Internet.

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.