En un reciente segmento de BBC News, se puso en evidencia el impacto de la inteligencia artificial en la creación de imitaciones de voces reconocidas. Durante el programa, se compararon grabaciones reales de Sir David Attenborough, el célebre narrador británico de 98 años, con un audio generado por IA que reproducía su voz. Las similitudes entre ambas versiones eran casi indistinguibles. Según los investigadores de la BBC, existen varias plataformas en línea que afirman clonar la voz de figuras públicas como Attenborough.
En respuesta, Sir David expresó su descontento a través de un comunicado dirigido a la BBC:
“Tras dedicar mi vida a hablar lo que considero la verdad, me siento profundamente perturbado al descubrir que, hoy en día, mi identidad está siendo robada por otros. Me opongo rotundamente a que la utilicen para decir lo que les plazca”.
Como parte del experimento, la BBC también hizo que el Attenborough generado por IA respondiera, en un acto que subrayó los riesgos éticos de esta tecnología. El mensaje del modelo sintetizado decía:
“Pongamos las cosas claras. A menos que el señor Attenborough haya estado trabajando para nosotros en secreto y bajo un seudónimo, no está en nuestra nómina. Yo no soy David Attenborough. Ambos somos voces masculinas y británicas, pero no soy David Attenborough, para cualquiera que pueda estar confundido.”
La situación provocó un debate más amplio sobre las implicaciones de este tipo de tecnología. La Dra. Jennifer Williams, investigadora en audio por IA de la Universidad de Southampton, ofreció su perspectiva tras escuchar otro clip donde la voz clonada hablaba sobre temas políticos, como el nombramiento de Matt Gaetz y la guerra en Ucrania.
“Me siento un poco disgustada”, declaró. “Esto es muy serio… cuando tienes una voz tan confiable como la de Sir David Attenborough, reconocida a nivel mundial como símbolo de autoridad y verdad, y le ponen en boca palabras sobre guerra, política u otros temas que nunca ha dicho ni probablemente apoyaría, es muy preocupante”.