En un mundo donde la tecnología avanza a pasos agigantados, el FBI ha emitido una advertencia crucial para protegernos de las estafas que utilizan clones de voz generados por inteligencia artificial. La recomendación es sencilla pero efectiva: compartir una palabra o frase secreta con los miembros de la familia para verificar su identidad en caso de llamadas sospechosas. Esta medida surge como respuesta al creciente uso de la síntesis de voz por parte de criminales, quienes se hacen pasar por seres queridos en situaciones de crisis.
El FBI sugiere crear una palabra o frase secreta que solo los familiares cercanos conozcan, como una forma de autenticar la identidad en situaciones dudosas. Ejemplos de estas frases podrían ser «El gorrión vuela a medianoche» o cualquier otra expresión que no sea fácilmente adivinable. Además, el FBI aconseja prestar atención al tono y las elecciones de palabras en llamadas inesperadas que afirman ser de familiares, ya que los delincuentes utilizan audio generado por IA para crear clips de voz convincentes que solicitan ayuda financiera urgente.
La advertencia del FBI forma parte de un anuncio más amplio sobre cómo los grupos criminales están utilizando modelos de IA generativa en sus operaciones fraudulentas. La tecnología actual permite crear clones de voz realistas con facilidad, lo que representa un riesgo significativo para la seguridad personal. Sin embargo, es importante destacar que estos clones fraudulentos generalmente requieren muestras de voz disponibles públicamente, por lo que las personas que no son figuras públicas tienen menos probabilidades de ser víctimas.
El alcance de estas estafas no se limita a la clonación de voz. El anuncio del FBI también detalla cómo los delincuentes utilizan modelos de IA para generar fotos de perfil convincentes, documentos de identificación y chatbots en sitios web fraudulentos. Estas herramientas automatizan la creación de contenido engañoso, reduciendo las señales evidentes de fraude humano, como la gramática deficiente o las fotos obviamente falsas. Por ello, se recomienda limitar el acceso público a grabaciones de voz e imágenes en línea, haciendo que las cuentas de redes sociales sean privadas y restringiendo seguidores a contactos conocidos.
La idea de utilizar una palabra secreta para verificar la identidad en el contexto de la síntesis de voz moderna y los deepfakes fue propuesta por primera vez por el desarrollador de IA Asara Near en marzo de 2023. Desde entonces, la idea ha ganado popularidad, siendo reconocida por expertos en investigación de IA como una solución simple y gratuita. Aunque las contraseñas han sido utilizadas desde tiempos antiguos para verificar identidades, en esta era de fraude de identidad de alta tecnología, una invención tan antigua como una palabra o frase especial sigue siendo sorprendentemente útil.