La moderación del horror y el odio en la web puede estar más allá incluso de la Inteligencia Artificial

En la década de 1990, cuando Internet daba sus primeros pasos, surgió un problema significativo para los proveedores de servicios de Internet (ISP) que alojaban blogs: podrían ser responsabilizados legalmente por contenido ilegal o difamatorio publicado en sus plataformas. Para evitar que esto obstaculizara el desarrollo tecnológico, en 1996, los legisladores estadounidenses Chris Cox y Ron Wyden introdujeron una cláusula en la Ley de Decencia en las Comunicaciones, más tarde conocida como la Sección 230 del Acta de Telecomunicaciones. Esta sección estipula que ningún proveedor o usuario de un servicio de computación interactivo será tratado como el editor o el orador de información proporcionada por otro proveedor de contenido de información. Este marco legal catalizó un aumento exponencial del contenido generado por usuarios en Internet.

Sin embargo, la libertad de no ser responsables por los contenidos llevó a las plataformas a enfrentar un nuevo desafío: la moderación de contenido ofensivo o dañino. La moderación es costosa y complicada, especialmente debido al volumen de contenido subido diariamente a plataformas como YouTube e Instagram. Tradicionalmente, esta labor ha sido externalizada a trabajadores en países en desarrollo, quienes a menudo se enfrentan a condiciones traumáticas por una remuneración mínima.

Ante estos desafíos, plataformas como Meta (anteriormente Facebook) han empezado a explorar la moderación a través de inteligencia artificial, buscando sistemas que puedan identificar y eliminar contenido inapropiado de manera eficiente y sin descanso. Aunque la idea es prometedora, sigue siendo un tema de debate. Algunos citan a HL Mencken, quien dijo que «Para cada problema complejo hay una respuesta que es clara, simple y equivocada.» Otros prefieren consultar a expertos en cibernética, un campo que estudia cómo los sistemas utilizan la información, la retroalimentación y el control para autorregularse.

Uno de los conceptos clave en cibernética es la «ley de variedad requerida» de W. Ross Ashby, que sugiere que para que un sistema sea estable, el número de estados que su mecanismo de control puede alcanzar debe ser igual o mayor al número de estados en el sistema que está siendo controlado. Aplicado a las redes sociales, esto implica que las plataformas deben desarrollar capacidades internas que puedan manejar la complejidad y variedad de interacciones que se generan constantemente.

La sección 230 ofrece a estas plataformas un escudo legal contra muchas demandas, pero enfrentar la «ley de variedad requerida» de Ashby puede ser un desafío aún más formidable, incluso para la inteligencia artificial. Mientras la sociedad y la tecnología evolucionan, la manera en que abordamos y gestionamos este fenómeno continúa en constante revisión y ajuste.

Fuente

Las últimas noticias en nuestro podcast semanal

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.