La historia de Mary Louis, una mujer trabajadora que buscaba alquilar un apartamento en Massachusetts, refleja cómo la tecnología de inteligencia artificial (IA) puede perpetuar la desigualdad y discriminar a comunidades vulnerables. Louis, quien utilizaba un bono de alquiler para personas de bajos ingresos, fue rechazada por un algoritmo de SafeRent, un sistema de puntuación para inquilinos que calificó su solicitud con un 324, un puntaje insuficiente para cumplir con los estándares establecidos por la empresa gestora de la propiedad.

SafeRent no explicó cómo calculó la puntuación ni qué factores consideró para su decisión. Aunque Louis tenía un historial impecable de pagos de renta durante 17 años y el bono garantizaba ingresos para el propietario, el sistema determinó que su solicitud no cumplía con el umbral de 443 puntos requerido por la inmobiliaria. Sin derecho a apelar ni claridad sobre los motivos detrás del rechazo, Louis se vio obligada a alquilar un apartamento más caro, que no utilizaba herramientas algorítmicas para evaluar a los inquilinos.

Louis no fue la única afectada. Más de 400 inquilinos afroamericanos e hispanos de Massachusetts que utilizaban bonos de vivienda reportaron rechazos similares. En 2022, estos inquilinos demandaron a SafeRent bajo la Ley de Vivienda Justa de Estados Unidos, argumentando que el algoritmo discriminaba de manera desproporcionada a personas negras e hispanas. La demanda señaló que el sistema ponderaba factores como puntuaciones de crédito y deudas no relacionadas con la vivienda, sin tomar en cuenta la seguridad económica que ofrecían los bonos de alquiler. Investigaciones previas ya habían demostrado que estas comunidades tienden a tener puntuaciones crediticias más bajas y a depender más de programas de asistencia como los bonos de vivienda.

En noviembre de 2023, SafeRent llegó a un acuerdo con los demandantes, comprometiéndose a realizar un pago de 2,3 millones de dólares y a dejar de usar su sistema de puntuación para evaluar a inquilinos con bonos de vivienda durante cinco años. Además, si desarrollan un nuevo sistema, deberán validarlo a través de una organización independiente de vivienda justa. Aunque SafeRent no admitió culpabilidad, el acuerdo es significativo porque obliga a modificar un producto central de su negocio, algo poco común en este tipo de litigios.

Todd Kaplan, abogado de los demandantes, afirmó que eliminar las recomendaciones automáticas de aceptación o rechazo permitirá evaluaciones más personalizadas y justas. Sin embargo, el caso de Louis también expone la opacidad y falta de comprensión general sobre cómo funcionan estos algoritmos, incluso entre los administradores de propiedades.

El caso de Louis es un ejemplo de los problemas más amplios asociados con la automatización en áreas clave como la vivienda, el empleo y la atención médica. Según Kevin de Liban, abogado especializado en justicia tecnológica, estas herramientas a menudo se basan en supuestos erróneos o datos sesgados, lo que resulta en decisiones arbitrarias que perjudican a las personas más vulnerables. De Liban, quien ha trabajado en casos similares, señala que las leyes actuales ofrecen pocas salvaguardas contra los errores o abusos de los sistemas de IA, dejando a los afectados con opciones limitadas para buscar justicia.

Un informe reciente de Consumer Reports reveló que la mayoría de los estadounidenses se sienten incómodos con el uso de IA en decisiones cruciales, debido a la falta de transparencia y control sobre los datos utilizados. Sin embargo, las leyes que regulan el uso de la IA en decisiones importantes, como la asignación de vivienda, son escasas. Aunque el gobierno de Joe Biden ha emitido órdenes ejecutivas para abordar riesgos de discriminación y seguridad en sistemas de IA, estas iniciativas enfrentan resistencia política y posibles retrocesos bajo futuras administraciones.

La demanda contra SafeRent ha captado la atención de organismos como el Departamento de Justicia y el Departamento de Vivienda y Desarrollo Urbano de Estados Unidos. Esto podría sentar un precedente para futuros litigios que busquen responsabilizar a empresas tecnológicas por decisiones algorítmicas discriminatorias. Kaplan sugiere que este caso podría servir como modelo para abordar otros problemas similares en el futuro.

No obstante, De Liban advierte que los litigios no son una solución sostenible a largo plazo, debido a los costos y el tiempo que implican. Las empresas pueden adaptar sus sistemas para eludir las restricciones legales, y la falta de regulación efectiva permite que continúen desarrollando tecnologías perjudiciales para las personas de bajos ingresos.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí