Cámaras de seguridad con reconocimiento facial e IA llegan a las escuelas de Arizona

Varios distritos escolares en Arizona están introduciendo tecnología de inteligencia artificial (IA) y reconocimiento facial en sus cámaras de seguridad este año escolar, con el objetivo de mejorar la seguridad en los centros educativos. Sin embargo, esta medida ha generado preocupación entre defensores de la privacidad y la libertad de expresión, quienes advierten sobre los posibles efectos adversos para los estudiantes.

Uno de los distritos que ha adoptado esta tecnología es Baboquivari Unified School District, que ha invertido $900,000 en cámaras de seguridad con características de IA. Estas cámaras no solo pueden detectar rostros y filtrar videos por género y color de la ropa, sino también monitorizar matrículas y rastrear personas mediante reconocimiento facial. La tecnología permitirá a los administradores localizar y revisar imágenes de estudiantes específicos cuando investiguen incidentes disciplinarios, según el superintendente Ruben Diaz.

Cámara de seguridad montada en la esquina de un edificio, con un fondo de hojas verdes.

Pese a las expectativas de mejorar la seguridad, no todos los miembros del distrito están de acuerdo con la implementación de este sistema. Annamarie Stevens, miembro de la junta, expresó su inquietud por la privacidad de los estudiantes, especialmente en una región que ya está bajo constante vigilancia debido a su proximidad con la frontera entre Estados Unidos y México. Además, un informe del Auditor General de Arizona señaló deficiencias en la seguridad informática del distrito, lo que agrava las preocupaciones sobre quién puede acceder a la información recopilada.

Otros distritos como Piñon Unified y Higley Unified también han adoptado cámaras con capacidades de IA y reconocimiento facial. En Piñon, estas cámaras se utilizarán para monitorear a delincuentes sexuales registrados, mientras que en Higley se integrarán en un sistema de seguridad más amplio, aunque con el reconocimiento facial desactivado por defecto.

El uso de esta tecnología ha sido cuestionado por expertos como Jay Stanley de la ACLU, quien duda de su eficacia en situaciones reales, debido a las altas tasas de falsos positivos, especialmente en personas de color y otras minorías. Además, estudios

Fuente

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.