Un hombre de traje y corbata, en blanco y negro, sosteniendo una lupa cerca de su ojo mientras observa hacia el frente. En el fondo hay varios elementos superpuestos, como un par de binoculares y fragmentos de texto impreso. El conjunto está rodeado por un borde verde y decorado con puntos rosados dispersos sobre un fondo verde oscuro. La imagen evoca el concepto de observación y análisis detallado, posiblemente relacionado con la búsqueda de información o verificación de datos.

La nueva herramienta de Google permite a los grandes modelos de lenguaje verificar la veracidad de sus respuestas

Las alucinaciones o errores en las respuestas generadas por chatbots han sido un desafío inherente al funcionamiento de los modelos de inteligencia artificial (IA) desde su creación. Estos fallos son especialmente problemáticos para empresas como Google, que están apostando fuerte por la IA, ya que pueden hacer que las respuestas sean poco fiables.

Al menos el 10% de la investigación ya podría estar co-autorizada por Inteligencia Artificial

Un estudio reciente de las universidades de Tübingen y Northwestern, publicado en arXiv, sugiere que al menos uno de cada diez nuevos artículos científicos contiene material producido por un LLM. Esto podría significar que más de 100,000 artículos se publicarán este año con asistencia de LLM. En ciertos campos como la informática, se estima que más del 20% de los resúmenes de investigación contienen texto generado por estos modelos, y entre los científicos informáticos chinos, la cifra es de uno de cada tres.