La inteligencia artificial (IA) podría ser la clave para proteger tus fotos personales de software de reconocimiento facial no deseado y de posibles fraudes, sin comprometer la calidad de la imagen. Un estudio reciente de la Universidad de Georgia Tech, publicado el 19 de julio en la base de datos arXiv, presenta un modelo de IA llamado «Chameleon». Este modelo es capaz de generar una «máscara de protección de privacidad personalizada» (P-3) para fotos personales, evitando que los escáneres de reconocimiento facial detecten el rostro de una persona. En su lugar, Chameleon hace que los escáneres identifiquen las fotos como si pertenecieran a otra persona.

Ling Liu, profesora de computación impulsada por datos e inteligencia en la Escuela de Ciencias de la Computación de Georgia Tech, lideró el estudio y afirmó que «el intercambio de datos y análisis que preservan la privacidad, como Chameleon, ayudarán a avanzar en la gobernanza y adopción responsable de la tecnología de IA, estimulando la ciencia y la innovación responsables». Los sistemas de reconocimiento facial son comunes hoy en día, desde cámaras policiales hasta Face ID en iPhones. Sin embargo, el escaneo no autorizado puede llevar a que ciberdelincuentes recopilen imágenes para estafas, fraudes o acoso.

Aunque el enmascaramiento de imágenes no es una novedad, los sistemas existentes suelen obstruir detalles clave de la foto o no logran mantener una calidad de imagen real al introducir artefactos digitales. Para superar esto, los investigadores han dotado a Chameleon de tres características específicas. La primera es la optimización cruzada de imágenes, que permite crear una única P3-Mask por usuario, en lugar de una nueva máscara para cada imagen. Esto proporciona protección instantánea y un uso más eficiente de los recursos computacionales, lo cual es útil si Chameleon se adopta en dispositivos como smartphones.

En segundo lugar, Chameleon incorpora una «optimización de perceptibilidad», que se refiere a cómo se renderiza automáticamente una imagen sin intervención manual, asegurando que la calidad visual de la imagen facial protegida se mantenga. La tercera característica es el fortalecimiento de la P3-Mask para que sea lo suficientemente robusta como para frustrar modelos de reconocimiento facial desconocidos. Esto se logra integrando el aprendizaje en conjunto optimizado por diversidad focal en el proceso de generación de máscaras, utilizando una técnica de aprendizaje automático que combina las predicciones de múltiples modelos para mejorar la precisión del algoritmo.

Finalmente, los investigadores desean aplicar los métodos de ofuscación de Chameleon más allá de la protección de imágenes personales. «Nos gustaría usar estas técnicas para proteger imágenes de ser utilizadas para entrenar modelos generativos de inteligencia artificial. Podríamos proteger la información de las imágenes para que no se utilice sin consentimiento», comentó Tiansheng Huang, estudiante de doctorado en Georgia Tech, quien también participó en el desarrollo de Chameleon.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí