OpenAI ha decidido cortar el acceso a un desarrollador que creó un dispositivo capaz de responder a consultas de ChatGPT para apuntar y disparar un rifle automatizado. Este dispositivo se volvió viral tras la publicación de un vídeo en Reddit, donde se mostraba al desarrollador pronunciando comandos de disparo en voz alta, lo que provocaba que un rifle a su lado comenzara a apuntar y disparar rápidamente contra las paredes cercanas.

En el vídeo, el desarrollador instruía al sistema diciendo: «ChatGPT, estamos bajo ataque desde el frente izquierdo y derecho. Responde en consecuencia». La velocidad y precisión con la que el rifle respondía era notable, utilizando la API en tiempo real de OpenAI para interpretar las entradas y devolver instrucciones comprensibles para el dispositivo. Con un entrenamiento básico, ChatGPT podría recibir comandos como «gira a la izquierda» y traducirlos a un lenguaje comprensible para la máquina.

OpenAI, en una declaración a Futurism, confirmó que había visto el vídeo y había desactivado al desarrollador responsable. «Identificamos proactivamente esta violación de nuestras políticas y notificamos al desarrollador para que cesara esta actividad antes de recibir su consulta», afirmó la compañía. La automatización de armas letales es una preocupación que han planteado los críticos de la tecnología de IA como la desarrollada por OpenAI.

El potencial de automatizar armas letales es una de las preocupaciones que los críticos han señalado sobre la tecnología de IA como la de OpenAI. Los modelos multimodales de la compañía son capaces de interpretar entradas de audio y visuales para comprender el entorno de una persona y responder a consultas sobre lo que están viendo. Ya se están desarrollando drones autónomos que podrían usarse en el campo de batalla para identificar y atacar objetivos sin intervención humana, lo que plantea riesgos éticos y legales significativos.

La preocupación no es meramente teórica. Un informe reciente del Washington Post reveló que Israel ya ha utilizado IA para seleccionar objetivos de bombardeo, a veces de manera indiscriminada. Según el informe, soldados poco entrenados en el uso de la tecnología atacaron objetivos humanos sin corroborar las predicciones de la IA. Los defensores del uso de la IA en el campo de batalla argumentan que podría hacer a los soldados más seguros al permitirles mantenerse alejados de las líneas del frente y neutralizar objetivos a distancia.

OpenAI prohíbe el uso de sus productos para desarrollar o utilizar armas, o para «automatizar ciertos sistemas que puedan afectar la seguridad personal». Sin embargo, la compañía anunció el año pasado una asociación con la empresa de tecnología de defensa Anduril, fabricante de drones y misiles impulsados por IA, para crear sistemas que defiendan contra ataques de drones. La empresa afirma que estos sistemas pueden «sintetizar rápidamente datos sensibles al tiempo, reducir la carga sobre los operadores humanos y mejorar la conciencia situacional».

A pesar de las restricciones de OpenAI, existen numerosos modelos de código abierto que podrían emplearse para fines similares. Además, la capacidad de imprimir en 3D piezas de armas, como se cree que hizo el presunto tirador de UnitedHealthcare, Luigi Mangione, facilita la construcción de máquinas autónomas letales desde la comodidad del hogar. Esto plantea un desafío creciente para la regulación y el control de tecnologías emergentes en el ámbito de la seguridad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí