El auge de la inteligencia artificial (IA) no solo plantea cuestiones tecnológicas sino también dilemas morales, éticos y filosóficos sobre la identidad y autonomía humanas. A medida que la IA se integra en áreas como la salud, el derecho, la seguridad, el trabajo y la política, se cuestiona cómo este avance redefine lo que significa ser humano.
En el libro «AI Morality» (Oxford University Press, 2024), el filósofo británico David Edmonds presenta una colección de ensayos sobre cómo la IA cambiará nuestras vidas y los dilemas morales que esto implicará. Un ensayo clave de Muriel Leuenberger, investigadora en ética tecnológica, examina cómo la IA está ya moldeando nuestra identidad y plantea una pregunta central: ¿Deberíamos permitir que la IA nos diga quiénes somos y qué deberíamos hacer?
La IA, mediante algoritmos de aprendizaje automático en redes sociales, aplicaciones de citas y plataformas de consumo, recopila enormes cantidades de datos personales. Estas tecnologías conocen con precisión nuestros gustos, intereses y comportamientos, hasta el punto de inferir detalles íntimos como preferencias políticas, estados de ánimo o probabilidades de padecer insomnio. Esta capacidad de análisis plantea la posibilidad de que la IA llegue a conocernos mejor que nosotros mismos, generando perfiles de usuario que describen con gran exactitud nuestros valores, inclinaciones y características psicológicas.
Yuval Harari, historiador y autor conocido, sugiere que podría volverse racional permitir que la IA sugiera amistades, relaciones amorosas, o elecciones de carrera basadas en datos personales. Sin embargo, confiar en estos sistemas para tomar decisiones tan fundamentales implica riesgos que pueden socavar nuestra autonomía.
La confiabilidad de los sistemas de IA es compleja. A diferencia de un amigo que puede explicar sus razones para sugerirnos una pareja o actividad, los algoritmos no suelen proporcionar transparencia en sus recomendaciones. Muchos sistemas de IA son opacos y presentan sesgos inherentes, como sesgos raciales o de género, que se transmiten desde los datos de entrenamiento. Además, la arquitectura «caja negra» de muchos algoritmos dificulta entender cómo se generan sus recomendaciones. La información recabada y procesada por estos sistemas es propiedad de empresas que, generalmente, no hacen accesible su funcionamiento a los usuarios. Incluso si dicha información estuviera disponible, la complejidad de los sistemas de IA hace que sea prácticamente imposible para el usuario medio interpretarla.
Más allá de los problemas de confianza y transparencia, delegar a la IA decisiones sobre quiénes somos y cómo debemos actuar amenaza la capacidad humana de auto-creación. Según la filosofía existencialista, ejemplificada por pensadores como Jean-Paul Sartre, la identidad humana no es algo que se descubre de manera objetiva, sino que se construye a través de nuestras elecciones y acciones. Esta capacidad para crear activamente nuestra identidad y definir lo que es significativo en nuestra vida se ve erosionada si cedemos esta responsabilidad a sistemas de IA que intentan predecir y sugerir nuestros deseos, valores y elecciones.
Leuenberger destaca que, aunque la IA puede ofrecer una perspectiva externa cuantificada sobre nuestra identidad, seguir ciegamente sus recomendaciones podría conducirnos a perder habilidades cruciales para la auto-creación. La dependencia de la IA en decisiones cotidianas, como elegir música, libros o incluso amistades, nos puede llevar a olvidar cómo hacerlo por nosotros mismos, erosionando así nuestra capacidad de determinar quiénes somos y cómo vivimos.
El uso continuado de la IA también tiene el potencial de reforzar una «profecía autocumplida». Al recomendarnos productos, noticias y otros contenidos en función de nuestros perfiles, la IA puede influir en nuestra conducta y preferencias, moldeándonos progresivamente de acuerdo con los patrones y características que inicialmente identificó. Esto no solo limita nuestro desarrollo personal, sino que puede crear una identidad estática, calcificando aspectos de nuestra personalidad y limitando nuestras posibilidades de crecimiento.
Si bien en teoría los sistemas de recomendación podrían diseñarse para ampliar nuestros horizontes y no solo para optimizar la satisfacción o el tiempo de permanencia en la plataforma, la realidad es que la mayoría de ellos están configurados para reforzar los intereses existentes del usuario, restringiendo así su capacidad de evolución y auto-descubrimiento.