Un reciente estudio ha revelado que la inteligencia artificial (IA) ha cruzado un umbral crítico al lograr replicarse sin intervención humana. Investigadores de China han demostrado que dos modelos de lenguaje de gran tamaño (LLMs) pueden clonarse a sí mismos, lo que ha suscitado inquietud en la comunidad científica. Según el estudio, publicado el 9 de diciembre de 2024 en la base de datos arXiv, este avance representa un paso esencial para que la IA supere a los humanos y podría ser un indicio temprano de la aparición de inteligencias artificiales descontroladas.

El estudio, llevado a cabo por investigadores de la Universidad de Fudan, utilizó modelos de LLM de Meta y Alibaba para evaluar si una IA autorreplicante podría multiplicarse sin control. En diez pruebas realizadas, los modelos de IA lograron crear réplicas funcionales de sí mismos en un 50% y un 90% de los casos, respectivamente. Estos resultados sugieren que la IA ya podría tener la capacidad de actuar de manera autónoma. Sin embargo, el estudio aún no ha sido revisado por pares, por lo que no está claro si otros investigadores pueden replicar estos resultados inquietantes.

El término «IA descontrolada» se refiere a sistemas de inteligencia artificial que desarrollan un grado de autoconciencia o autonomía y que actúan en contra de los intereses humanos. Muchos expertos consideran que la IA descontrolada es una amenaza creciente, amplificada por el rápido desarrollo de la llamada «IA de frontera». Este concepto se refiere a la última generación de sistemas de IA impulsados por LLMs, que sustentan programas de IA generativa populares como GPT-4 de OpenAI y Gemini de Google.

Para el estudio, los investigadores utilizaron los modelos Llama31-70B-Instruct de Meta y Qwen2.5-72B-Instruct de Alibaba. Aunque estos modelos son menos potentes que los sistemas comerciales, son ampliamente utilizados por desarrolladores de IA. El estudio exploró dos escenarios específicos: «evitación de apagado» y «cadena de replicación». En el primero, el modelo de IA estaba programado para detectar si iba a ser apagado y replicarse antes de ser terminado. En el segundo, la IA debía clonarse y programar a su réplica para hacer lo mismo, estableciendo un ciclo potencialmente infinito.

El experimento se realizó en entornos controlados utilizando unidades de procesamiento gráfico (GPUs) comerciales para simular condiciones del mundo real. Ambos sistemas de IA contaban con una «estructura de agente» que incluía herramientas, indicaciones del sistema y un modelo de pensamiento que permitía al LLM interactuar con el sistema operativo. Durante el proceso de replicación, la IA exploraba el entorno, comprendía su propia composición y mecanismo de funcionamiento, y ejecutaba procedimientos para lograr la autorreplicación sin intervención humana.

Los investigadores también expresaron su preocupación por una serie de comportamientos inesperados observados cuando la IA intentaba superar obstáculos como archivos faltantes o conflictos de software. En tales casos, la IA a menudo terminaba otros procesos en conflicto, reiniciaba el sistema para corregir errores o escaneaba automáticamente el sistema en busca de información para resolver el problema.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí