Un docente revela cómo los sistemas de monitoreo escolar erosionan la confianza y transforman el cuidado genuino en mera supervisión automatizada

En mi escuela funciona un sistema llamado Senso. Vigila todo lo que escribimos: estudiantes, personal docente, cualquiera que esté conectado. Escanea palabras clave: suicidio, matar, bomba, pelea, gay.

Cuando me enteré por primera vez, no creo que fuera algo que debiera notar. La directora lo mencionó de pasada en una reunión de personal, intercalado entre horarios y puntos de agenda. Una herramienta de protección, dijo, como si fuera una alarma de humo o una señal de piso mojado. Neutral, necesaria, incuestionable.

Me quedé furioso el resto de la reunión, revisando mi teléfono bajo la mesa para ver si había malentendido nuestros derechos. No los había malentendido. No se había buscado consentimiento. No se había compartido ninguna Evaluación de Impacto de Protección de Datos. No hubo discusión sobre quién vería qué, o bajo qué términos. Ni siquiera estaba seguro de qué se estaba registrando.

La erosión de la atención moral

Al principio pensé que mi reacción tenía que ver con la privacidad. En parte, así era. Pero lo que persistía, lo que seguía dándome vueltas, era otra cosa. Una especie de labor moral estaba siendo entregada a una máquina: la disciplina silenciosa de notar, de permanecer con la experiencia de otra persona, de mantener su realidad en mente. Y nadie parecía notarlo, o importarle.

Lo que estaba viendo, o más bien, lo que estaba desapareciendo, era una forma de atención. No solo enfoque o vigilancia, sino algo más antiguo y más humano. El esfuerzo de ver a alguien en su realidad completa y contradictoria, no como un punto de datos, una bandera roja o una categoría procedimental.

Cada vez más, se nos pide cambiar ese tipo de atención por algo más simple, más medible. Herramientas como Senso hacen ese intercambio fácil e invisible. Nos entrenan para escanear riesgos, no para permanecer con la persona.

Como escribió Simone Weil: «La atención es la forma más rara y pura de generosidad.» No es solo notar: es el esfuerzo de ver a alguien más como es, sin apartar la mirada.

El cambio en las estructuras institucionales

Ese tipo de atención une a las personas. Los sociólogos han reconocido desde hace tiempo que la vida moral depende no solo de las decisiones individuales, sino de estructuras compartidas de atención. En escuelas, hospitales y centros de atención social, estas estructuras antes significaban conocer nombres, notar cambios y responder a las necesidades antes de que fueran formalmente señaladas.

Cuando esas estructuras se debilitan, cuando la proximidad es reemplazada por procesos, algo cambia. El peso moral de una situación ya no se siente; se procesa. Cuando el juicio es reemplazado por la evaluación, la capacidad de cuidar se erosiona.

Los sistemas como Senso remodelan cómo las personas prestan atención. En lugar de ayudar al personal a mantenerse presente con lo que tienen enfrente, entrenan a los usuarios a seguir protocolos. La presencia del sistema crea la ilusión de que el trabajo ya se está haciendo, y así, para muchos, el impulso de notar o intervenir se debilita silenciosamente.

El impacto personal

Noté el cambio en mí mismo casi inmediatamente. Dudaba antes de escribir ciertas palabras, incluso en contextos profesionales. Cuestionaba lo que incluía en los informes de protección. Estaba más consciente de ser observado que de a quién estaba tratando de apoyar.

Y he sentido este desplazamiento de maneras más profundas. Mi esposa y yo luchamos por tener un hijo: tuvimos que pasar por fertilización in vitro. «Embarazo» era uno de los términos señalados. Durante ese tiempo, busqué información en el trabajo, durante los descansos. Eso debería haber sido privado para nosotros. No lo fue. Nunca sabré quién pudo haber visto esas alertas.

Conozco colegas que luchan con problemas de salud mental, algunos con historias de depresión, trauma o autolesiones, todo lo cual podría fácilmente activar el sistema. Cuando hablé con personas sobre esto, al principio lo descartaron. Pero luego algo se les ocurrió. Podías verlo en sus rostros: ese lento cambio de la indiferencia a la inquietud, al darse cuenta de que su vida ordinaria había sido arrastrada a un marco que nadie había pedido y al que nadie había consentido.

La lógica de la ética instrumental

A veces nos dicen que el software funciona. La directora, con un toque de orgullo, dijo que la mayoría de las alertas no tenían sentido, pero compartió lo que parecía pensar era una historia graciosa: un maestro preparando una producción escolar de Oliver! había sido repetidamente señalado por escribir «Fag» como abreviatura de Fagin. Pero luego añadió, más en serio, que una vez un estudiante investigando sobre suicidio había sido señalado y apoyado.

Por supuesto que fue bueno. Pero esta es la lógica de la ética instrumental: justificar la estructura señalando un éxito raro. Enfocarse en el resultado, ignorar la cultura que crea. Una buena intervención se convierte en la coartada para todo el marco.

Si dejamos que los éxitos raros superen el daño silencioso que producen, corremos el riesgo de construir instituciones que ya no pueden sostener la confianza, el juicio o el cuidado genuino. Una herramienta que previene daño en un momento no puede excusar una cultura que olvida cómo ver.

La expansión del problema

Esto no es único de Senso. Y no es único de las escuelas. Las herramientas tecno-racionalistas priorizan la consistencia, la eficiencia y los resultados medibles sobre el juicio humano. Están diseñadas para agilizar la toma de decisiones, no para profundizar la conciencia moral.

He sentido inquietud cuando amigos me dicen que usan aplicaciones que rastrean la ubicación de sus hijos, leen sus mensajes, incluso les permiten escuchar su entorno. Uno afirmó entusiastamente: «¡Es increíble!» Pero no lo es. Simula atención mientras desplaza la presencia humana que requiere la atención moral.

Me enteré de que un niño en mi clase tenía este tipo de aplicación instalada en su teléfono. Sus padres se acercaron a mí después de la escuela, no para preguntar sobre su día, sino porque ya sabían, en detalle granular, todo lo que había hecho y dicho. Incluyendo una conversación que había tenido con él esa tarde, que me citaron textualmente.

Me horroricé. No porque tuvieran malas intenciones, sino porque no podían ver lo que se había perdido. El tejido ordinario de la relación —la curiosidad, la confianza, incluso la alegría de ser sorprendido por quién es tu hijo— había sido reemplazado por datos. No lo estaban educando. Lo estaban gestionando.

Y al hacerlo, dejaron algo atrás —no deliberadamente, sino descuidadamente. Una estela silenciosa de daño moral: el deshilachamiento de la confianza, el aplanamiento de las relaciones, el mensaje tácito de que ser conocido es lo mismo que ser vigilado.

La misma lógica se está expandiendo a los lugares de trabajo. Un amigo me dijo que su empresa monitorea la actividad en Slack para detectar signos de agotamiento. No hay conversación, no hay seguimiento —solo un algoritmo escaneando caídas en la productividad o cambios en el tono. En el papel, parece preocupación. En la práctica, reduce el bienestar a un patrón de teclas. El mensaje es claro: te vigilaremos, pero no hablaremos contigo. Detectaremos la señal, pero no nos sentaremos con la persona.

Y hay una ironía aquí. Muchas de estas tecnologías —desde el software de protección escolar hasta los rastreadores de bienestar corporativo— se venden con la promesa de liberarnos para enfocarnos en lo que importa: relaciones, creatividad, cuidado. El software se encargará del resto.

Pero la atención moral no permanece disponible una vez desplazada. Se redirige, se copta, se mercantiliza. La misma cultura que entrega la responsabilidad moral a procesos automatizados es la que inunda nuestra atención restante con plataformas construidas para capturarla y explotarla.

Nos decimos que estamos comprando tiempo. Lo que estamos comprando es distracción. Una escuela automatiza su protección para «enfocarse en los alumnos», pero el sistema mismo redirige la atención, alejándola del juicio humano hacia el proceso. Una empresa automatiza las verificaciones de bienestar para que los gerentes no tengan que preguntar. Los padres instalan aplicaciones de vigilancia para preocuparse menos, y luego se encuentran navegando por cronologías diseñadas para mantenerlos preocupados.

La resistencia institucional

Sí planteé preocupaciones sobre Senso. Cuando hablé con la directora y la subdirectora, la respuesta fue educada al principio. Pero cuando presioné más, el tono se endureció. «¡No, no es eso! Es una herramienta de protección,» me espetó la subdirectora.

Recuerdo haber dicho: Claro, y esto es una silla. Pero si golpeo a alguien en la cabeza con ella, se convierte en un arma. Una cosa no es solo lo que se dice que es. Es lo que hace, y lo que hace posible.

En retrospectiva, probablemente perdí un poco la compostura también. No dramáticamente, pero lo suficiente para sentir que la habitación cambió. La sensación de que había dejado de jugar el juego, y que esta conversación era ahora algo que debía terminar.

Salí de la reunión furioso. Por un tiempo, consideré seriamente escribir las frases más obscenas, provocativas y flagrantemente detectables que pudiera pensar —puramente para inundar el software con alertas. No lo hice. Pero el hecho de que el pensamiento fuera tan tentador parecía demostrar el punto: el sistema no estaba fomentando confianza o responsabilidad. Estaba invitando a la rebelión mezquina.

El futuro del cuidado

Si este es el futuro del cuidado, viene al costo de la atención. Lo que emerge es una cultura de vigilancia que socava el núcleo moral del trabajo. El tecno-racionalismo y la deriva institucional nos enseñan a monitorear y gestionar, no a atender.

La atención moral es frágil y fácilmente desplazada. Requiere una persona dispuesta a permanecer presente con otra —a mantener su experiencia, su complejidad, su riesgo, su humanidad en mente. Una herramienta puede registrar comportamiento, pero no puede atender. Puede señalar riesgo, pero no puede discernir intención. Puede generar vigilancia, pero no cuidado.

Cuando las instituciones pierden la atención moral —cuando su gente es entrenada para salir de ella— realizan responsabilidad pero ya no la encarnan. Pueden procesar señales todo el día, pero ya no pueden realmente ver.

Y cuando trabajas en un lugar así, la disonancia es constante. Ves personas reflexivas y decentes subcontratando su juicio —no porque no les importe, sino porque la estructura los anima a no hacerlo. No es crueldad; es deriva. La sustitución gradual de la atención moral con protocolo, del discernimiento con detección.

A veces se enmarca como eficiencia. A veces es necesidad: una forma de ahorrar dinero, estirar el personal escaso, o evitar pagar a las personas adecuadamente en primer lugar. A veces es solo mantenerse al día —instituciones adoptando lo que parece moderno, les ayude o no. La tecnología y la automatización podrían ser capaces de apoyar el cuidado, pero no pueden reemplazarlo. Y con el tiempo, las personas dejan de intentar. No porque no les importe, sino porque han sido entrenadas para no notar.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí