Un ingreso básico universal será necesario según el ‘padrino’ de la Inteligencia Artificial

El profesor Geoffrey Hinton, reconocido como el «padrino de la inteligencia artificial», ha expresado que los gobiernos tendrán que implementar una renta básica universal para enfrentar el impacto de la IA en la desigualdad.

En una entrevista con BBC Newsnight, Hinton explicó que una reforma de los beneficios sociales, proporcionando una cantidad fija de dinero a cada ciudadano, será necesaria debido a su preocupación por la IA desplazando muchos trabajos rutinarios. «Fui consultado por personas en Downing Street y les aconsejé que la renta básica universal era una buena idea», comentó.

Aunque Hinton reconoce que la IA aumentará la productividad y la riqueza, cree que esta riqueza beneficiará principalmente a los ricos, mientras que las personas que pierdan sus empleos no recibirán ese beneficio, lo que resultaría muy perjudicial para la sociedad.

Hinton es un pionero de las redes neuronales, la base teórica del actual auge de la inteligencia artificial. Hasta el año pasado trabajaba en Google, pero dejó la empresa para poder hablar más libremente sobre los peligros de una IA no regulada.

La renta básica universal implica que el gobierno pague a todos los individuos un salario fijo, independientemente de sus ingresos. Los críticos argumentan que sería extremadamente costoso y desviaría fondos de los servicios públicos, sin necesariamente ayudar a aliviar la pobreza.

Un portavoz del gobierno declaró que «no hay planes para introducir una renta básica universal».

Hinton también expresó su preocupación por las amenazas a nivel de extinción humana que emergen con el desarrollo de la IA. Señaló que los avances recientes demuestran que los gobiernos no están dispuestos a frenar el uso militar de la IA, y que la competencia para desarrollar productos rápidamente podría llevar a las empresas tecnológicas a no poner suficiente esfuerzo en la seguridad.

«Creo que entre cinco y veinte años a partir de ahora habrá una probabilidad del 50% de que tengamos que enfrentar el problema de que la IA intente tomar el control», afirmó Hinton. Esto podría llevar a una amenaza de extinción para la humanidad, ya que podríamos haber «creado una forma de inteligencia que es simplemente mejor que la inteligencia biológica… Eso es muy preocupante para nosotros».

La IA podría «evolucionar» para tener la motivación de replicarse a sí misma y desarrollar sub-objetivos como tomar el control. Hinton mencionó que ya hay evidencia de modelos de lenguaje avanzado, un tipo de algoritmo de IA utilizado para generar texto, eligiendo ser engañosos.

Hinton también expresó su preocupación por la aplicación reciente de la IA para generar miles de objetivos militares, considerando esto como el «principio de algo más peligroso». «Lo que más me preocupa es cuando estos sistemas puedan tomar autónomamente la decisión de matar personas», dijo.

Sugirió que podría ser necesario algo similar a las Convenciones de Ginebra para regular el uso militar de la IA, aunque dudó que esto ocurriera antes de que sucedan eventos muy desagradables.

Al ser preguntado si Occidente se encuentra en una carrera al estilo del Proyecto Manhattan -refiriéndose a la investigación de armas nucleares durante la Segunda Guerra Mundial- con autocracias como Rusia y China en el uso militar de la IA, Hinton respondió: «[El presidente ruso Vladimir] Putin dijo hace algunos años que quien controle la IA controlará el mundo. Así que imagino que están trabajando muy duro».

«Afortunadamente, Occidente probablemente está bien adelantado en investigación. Probablemente aún estamos ligeramente por delante de China. Pero China está invirtiendo más recursos. Y en términos de usos militares creo que habrá una carrera». Hinton concluyó que una mejor solución sería prohibir los usos militares de la IA.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.