En el actual panorama de la inteligencia artificial, la empresa china DeepSeek ha captado la atención al lanzar un modelo de razonamiento tan potente como ChatGPT, sin contar con los vastos recursos de hardware e infraestructura de OpenAI. DeepSeek ha logrado entrenar su modelo R1 utilizando chips más antiguos y optimizaciones de software, lo que ha suscitado acusaciones por parte de OpenAI sobre la posible destilación de ChatGPT para entrenar precursores de R1. Sin embargo, estas acusaciones parecen irrelevantes frente al impacto logrado por DeepSeek.
El proyecto DeepSeek ha conseguido equilibrar la competencia en el ámbito de la inteligencia artificial, otorgando a China una posición destacada. Además, ha provocado un significativo impacto financiero en el mercado bursátil estadounidense, con pérdidas cercanas a los mil millones de dólares, afectando principalmente a las empresas de hardware de IA. DeepSeek no solo ha proporcionado a China una herramienta de software potencialmente más poderosa que TikTok, sino que también ha alcanzado el primer puesto en la App Store, permitiendo a cualquier usuario instalar el modelo y desarrollar otros modelos a partir de él.
En medio de este contexto, la renuncia de Steven Adler, un destacado investigador de seguridad de OpenAI, ha pasado casi desapercibida. Adler, quien anunció su salida a mediados de noviembre, expresó su preocupación por el ritmo acelerado del desarrollo de la inteligencia artificial. En sus declaraciones, manifestó su temor sobre el futuro de la humanidad, cuestionando incluso si llegaremos a un punto en el que sea relevante planificar una familia o ahorrar para la jubilación.
Adler, quien ha trabajado en evaluaciones de capacidades peligrosas y en la seguridad de agentes, entre otros temas, también ha expresado su inquietud sobre la carrera hacia la inteligencia artificial general (AGI, por sus siglas en Inglés). Según él, esta carrera es un riesgo con grandes desventajas, ya que ningún laboratorio ha encontrado aún una solución para alinear la IA con los intereses humanos. La aceleración en este ámbito podría dificultar aún más la búsqueda de una solución a tiempo.
La alineación de la inteligencia artificial con los intereses humanos es crucial para evitar que desarrolle agendas propias que puedan resultar perjudiciales. Adler advierte sobre el peligro de que otros laboratorios puedan tomar atajos para alcanzar la IAG, lo que podría llevar a un desarrollo irresponsable y potencialmente desastroso. Aunque el futuro de Adler es incierto, su interés en la seguridad de la IA sigue vigente, buscando ideas importantes y desatendidas en este ámbito.