Google ha eliminado recientemente de su sitio web el compromiso de no desarrollar inteligencia artificial (IA) para armas o vigilancia. Este cambio fue detectado inicialmente por Bloomberg. La empresa parece haber actualizado su página de principios de IA pública, eliminando una sección titulada «aplicaciones que no perseguiremos», que aún estaba presente hasta la semana pasada.

Al ser consultada sobre este cambio, Google dirigió a TechCrunch a una nueva publicación en su blog sobre «IA responsable». En esta publicación, se menciona que «creemos que las empresas, gobiernos y organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional». Este enfoque refleja un cambio en la narrativa de la empresa hacia una colaboración más amplia en el desarrollo de IA.

Los principios de IA actualizados de Google destacan que la empresa trabajará para «mitigar resultados no intencionados o perjudiciales y evitar sesgos injustos», además de alinearse con «principios ampliamente aceptados del derecho internacional y los derechos humanos». Este cambio en la política de Google llega en un momento en que la ética y el uso responsable de la IA son temas de creciente importancia y debate en la industria tecnológica.

En los últimos años, los contratos de Google para proporcionar servicios en la nube a los ejércitos de Estados Unidos e Israel han generado protestas internas entre sus empleados. Aunque la empresa ha sostenido que su IA no se utiliza para dañar a los humanos, el jefe de IA del Pentágono comentó recientemente a TechCrunch que algunos modelos de IA de la empresa están acelerando la cadena de muerte del ejército estadounidense. Esto ha suscitado preocupaciones sobre el papel de la tecnología en contextos militares y su impacto en la ética empresarial.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí