Usuarios de Slack piden opción para excluir sus datos del entrenamiento de IA

Tras el lanzamiento de Slack AI en febrero, Slack se enfrenta a críticas por su política de uso de datos, que por defecto recopila datos de los clientes, incluidos mensajes, contenido y archivos, para entrenar los modelos de IA globales de Slack.

Según Aaron Maurer, ingeniero de Slack, la compañía ha explicado en un blog que no entrena sus modelos de lenguaje grande (LLM) con los datos de los clientes. Sin embargo, la política de Slack necesita ser actualizada «para explicar más cuidadosamente cómo estos principios de privacidad interactúan con Slack AI», escribió Maurer en Threads, ya que la política «fue escrita originalmente sobre el trabajo de búsqueda/recomendación que hemos estado haciendo durante años antes de Slack AI».

Maurer respondió a una publicación de Gergely Orosz, ingeniero y escritor, que instó a las empresas a optar por no compartir datos hasta que la política se aclare, no en un blog, sino en el lenguaje real de la política.

La discrepancia entre los principios de privacidad de Slack y la promoción de Slack AI ha generado confusión. Los principios de privacidad de Slack indican que usan herramientas de ML y AI para mejorar su producto, analizando datos de los clientes, como mensajes y archivos. Sin embargo, la página de Slack AI afirma que «tus datos son tus datos» y que no se usan para entrenar Slack AI.

Ante esta incongruencia, los usuarios han pedido a Slack que actualice sus principios de privacidad para aclarar cómo se utilizan los datos en Slack AI. Según un portavoz de Salesforce, la empresa ha aceptado que se necesita una actualización y la realizará para explicar mejor la relación entre los datos de los clientes y la IA generativa en Slack.

Estas actualizaciones aclararán que Slack no desarrolla LLM u otros modelos generativos utilizando datos de clientes, no usa datos de clientes para entrenar LLM de terceros, ni construye o entrena estos modelos de manera que puedan aprender o reproducir datos de clientes. Además, explicarán que Slack AI utiliza LLM preexistentes donde los modelos no retienen datos de clientes, asegurando que los datos nunca salgan del ámbito de confianza de Slack y que los proveedores de LLM nunca tengan acceso a los datos de los clientes.

Sin embargo, estas modificaciones no abordan la preocupación principal de los usuarios que nunca consintieron explícitamente en compartir sus chats y otros contenidos de Slack para el entrenamiento de IA. La política controvertida no es nueva, pero la reacción negativa se intensificó recientemente en Hacker News y se extendió a las redes sociales.

Slack ha intentado aclarar sus términos, pero no ha logrado satisfacer todas las críticas. La opción de exclusión no es sencilla y los individuos no pueden optar por no compartir datos a menos que toda su organización lo haga. En lugar de un botón inmediato para desactivar el uso de datos, Slack instruye a los clientes a contactar directamente para solicitar la exclusión.

Además, la política de Slack parece entrar en conflicto con el Reglamento General de Protección de Datos (GDPR) de la UE, que requiere consentimiento informado y específico antes de recopilar datos. Salesforce no ha comentado sobre cómo la política de Slack cumple con el GDPR, pero Slack ha prometido cumplir con este reglamento y actualizar sus características y compromisos contractuales en consecuencia.

En resumen, la controversia sobre Slack AI destaca la necesidad de transparencia y claridad en el uso de datos de clientes para el entrenamiento de modelos de IA, así como el cumplimiento de las regulaciones de privacidad como el GDPR.

Fuente

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.