En mayo de 2020, Pratyusha Sharma, investigadora en el Instituto Tecnológico de Massachusetts (MIT), analizaba datos sobre el sonido de clics emitidos por cachalotes, con la intención de hallar patrones que revelaran su comunicación. Estos sonidos habían sido recolectados durante años en el marco del Proyecto CETI (Iniciativa de Traducción de Cetáceos), cuyo objetivo es comprender “lo que dicen las ballenas”. CETI busca traducir la comunicación de estos animales mediante inteligencia artificial (IA) y, con ello, fomentar la conservación.

El proyecto CETI surgió hace siete años en el Instituto Radcliffe de Harvard, cuando el biólogo marino David Gruber y el informático Shafi Goldwasser comenzaron a investigar si la tecnología de traducción humana podía aplicarse al lenguaje de los cetáceos. Los clics de los cachalotes, que funcionan casi como un código binario, son ideales para modelos de IA, ya que su análisis es más sencillo que el de cantos complejos, como el de las ballenas jorobadas.

Un dron de investigación sobrevuela la cabeza de un cachalote en el océano, capturando datos y monitoreando el comportamiento del animal. La imagen muestra el dron equipado con cámaras y sensores mientras el cachalote emerge parcialmente del agua, en un entorno marino salpicado de gotas.

Gruber colaboró con el experto en cachalotes Shane Gero, quien había acumulado años de grabaciones en Dominica. Un primer estudio piloto permitió diseñar un modelo de IA capaz de anticipar los patrones de comunicación de las ballenas con una precisión del 99%. Este modelo, combinado con drones y sensores, observó cómo los cachalotes usan diferentes grupos de clics llamados codas y demostró que estos animales podrían responder a los mensajes de sus pares.

A lo largo de los años, CETI ha ampliado su equipo hasta casi 20 científicos de diversas disciplinas, incluidos expertos en machine learning, biólogos marinos y criptógrafos. Los investigadores lograron catalogar miles de codas, cada una representando un patrón específico de comunicación. Sharma y su equipo en MIT desarrollaron una visualización de estas codas similar a partituras, donde observaron variaciones en el ritmo de los clics, como los rubatos en música clásica, y patrones adicionales llamados “ornamentaciones” que sugieren intenciones o significado.

El uso de la IA para comprender la comunicación no humana no se limita a los cetáceos. Suresh Neethirajan, profesor en la Universidad de Dalhousie en Canadá, aplica IA en la monitorización de animales de granja, analizando datos como la temperatura corporal y sonidos para evaluar el bienestar animal. Su modelo permite, por ejemplo, identificar aves enfermas en un granero en cuestión de minutos, ayudando a prevenir enfermedades en la industria.

De igual manera, Jörg Müller, experto en ecología forestal en el Parque Nacional del Bosque Bávaro en Alemania, utiliza la IA para estudiar la biodiversidad en bosques tropicales en Ecuador. Equipos de grabación capturan sonidos de pájaros y otros animales que la IA analiza para estimar la diversidad de especies en estos ecosistemas. La recolección de este tipo de datos permite evaluar la recuperación de la biodiversidad en áreas deforestadas, un proceso que puede tomar hasta 55 años.

A pesar del avance, aún queda un largo camino. La comunicación de los cachalotes, aunque parece tener paralelismos con el lenguaje humano, podría estar motivada por necesidades evolutivas diferentes. Además, se cree que, al igual que los humanos, los cachalotes aprenden su lenguaje de forma social, transmitido de madre a cría. Investigadores como Andreas de MIT sueñan con comprender mejor la estructura social de estos animales y explorar si poseen sistemas de referencia similares a “nombres” para identificar a otros individuos.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí