La Inteligencia Artificial genera decisiones raciales encubiertas sobre las personas basándose en su dialecto
Los modelos de lenguaje, herramientas de inteligencia artificial entrenadas para procesar y generar texto, están siendo cada vez más utilizados en una variedad de aplicaciones, desde la educación hasta la justicia penal. Sin embargo, un reciente estudio ha puesto de manifiesto un grave problema: estos modelos no solo perpetúan estereotipos raciales de manera explícita, sino que también albergan una forma más sutil y encubierta de racismo, conocida como "prejuicio dialectal".