En la prisa por adoptar la Inteligencia Artificial, la ética y la responsabilidad están quedando en segundo plano

Las empresas están incorporando rápidamente la inteligencia artificial generativa para mejorar su productividad. Desde el lanzamiento de ChatGPT en 2022, la carrera por adoptar esta tecnología ha sido frenética, especialmente porque ejecutivos y líderes empresariales ven en la IA una herramienta poderosa para analizar datos y reducir el trabajo rutinario.

Un informe de tendencias laborales de 2024 de Microsoft y LinkedIn, que encuestó a 31,000 trabajadores a tiempo completo, revela que cerca del 80% de los líderes empresariales cree que sus empresas necesitan adoptar esta tecnología para mantenerse competitivos. Sin embargo, la implementación de la IA también acarrea riesgos significativos, incluyendo daños reputacionales, financieros y legales. Estos riesgos son ambiguos y muchas empresas todavía están en proceso de comprender cómo identificarlos y medirlos.

El estudio y la gestión responsable de la IA, que incluye estrategias de gobernanza, privacidad de datos, ética y seguridad, no están avanzando al ritmo que deberían, según Tad Roselund, socio director de Boston Consulting Group. Implementar programas responsables de IA requiere una inversión considerable y al menos dos años para su ejecución, tiempo durante el cual muchas empresas optan por priorizar el desarrollo rápido de tecnologías que potencien la productividad.

Además, Nanjira Sam, investigadora y analista de políticas, destacó en una entrevista con MIT Sloan Management Review que la demanda de expertos en gobernanza y gestión de riesgos de IA supera a la oferta disponible. Navrina Singh, fundadora de Credo AI, subraya la necesidad de que los inversores desempeñen un papel más crítico financiando las herramientas y recursos necesarios para estos programas. A pesar de que en 2023 se invirtieron $25.2 mil millones en startups de IA generativa, no está claro cuánto se destinó a empresas enfocadas en la IA responsable.

La legislación también está intentando mitigar estos riesgos. En marzo, la UE aprobó el Acto de Inteligencia Artificial, que clasifica los riesgos de las aplicaciones de IA en tres categorías y prohíbe aquellas con riesgos inaceptables. Por otro lado, la Administración Biden firmó una orden ejecutiva en octubre que exige mayor transparencia por parte de las grandes empresas tecnológicas que desarrollan modelos de inteligencia artificial.

Sin embargo, con el ritmo actual de innovación en IA, es posible que las regulaciones gubernamentales no sean suficientes para garantizar que las empresas se protejan adecuadamente, lo que podría llevar a un déficit de responsabilidad significativo con potenciales riesgos societales, daños a la reputación y complicaciones regulatorias si las iniciativas de IA llegan a producción.

Fuente

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.