Google empezará a identificar imágenes generadas por IA en la búsqueda este año

Google ha anunciado que introducirá próximamente una serie de cambios en su motor de búsqueda para que sea más claro qué imágenes en los resultados han sido generadas o modificadas por herramientas de inteligencia artificial (IA). Estos cambios se implementarán en los próximos meses, con la intención de que los usuarios puedan identificar de manera más transparente el origen de las imágenes que consultan.

Una de las principales actualizaciones será la incorporación de etiquetas específicas en la ventana de “Acerca de esta imagen”, disponible tanto en Google Search, Google Lens, como en la función Círculo de Búsqueda en Android. Estas etiquetas indicarán si una imagen ha sido creada o editada por IA. En el futuro, se prevé que estas mismas etiquetas podrían aparecer en otras plataformas de Google, como YouTube, aunque la empresa afirma que proporcionará más detalles a lo largo de este año.

El logo de Google en colores brillantes (azul, rojo, amarillo y verde) reflejado en una ventana, con un fondo de árboles sin hojas y un cielo azul claro.

Solo aquellas imágenes que contengan metadatos C2PA serán marcadas como manipuladas por IA. El C2PA, siglas de Coalition for Content Provenance and Authenticity, es un grupo que trabaja en el desarrollo de estándares técnicos para rastrear el origen de una imagen, incluidos los equipos y el software empleados en su captura o creación. Google, junto con empresas como Amazon, Microsoft, OpenAI y Adobe, respalda esta iniciativa, aunque la adopción de estos estándares no ha sido generalizada hasta la fecha.

Tal como informó The Verge, la adopción e interoperabilidad de los estándares del C2PA enfrenta varios desafíos. Hasta ahora, solo unas pocas herramientas de IA generativa y cámaras de marcas como Leica y Sony admiten las especificaciones del C2PA, lo que limita su alcance en el panorama actual.

A pesar de los avances, el uso de metadatos C2PA no está exento de problemas. Como ocurre con cualquier metadato, estos pueden ser eliminados, manipulados o incluso corrompidos, haciéndolos ilegibles. Además, muchas de las herramientas más populares de generación de imágenes mediante IA, como Flux —usada por el chatbot Grok de xAI—, no incluyen estos metadatos, ya que sus creadores no han adoptado el estándar C2PA.

No obstante, Google considera que estas medidas, aunque imperfectas, son un paso en la dirección correcta, especialmente dada la rápida proliferación de contenido generado por IA. Según estimaciones, los fraudes relacionados con contenido generado por IA aumentaron en un 245% entre 2023 y 2024. Además, la consultora Deloitte proyecta que las pérdidas asociadas a los deepfakes podrían escalar de 12.300 millones de dólares en 2023 a 40.000 millones para 2027.

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.