Un grupo de autores ha demandado a la startup de inteligencia artificial Anthropic, acusándola de «robo a gran escala» por entrenar su popular chatbot Claude utilizando copias pirateadas de libros con derechos de autor.
Mientras que demandas similares han estado acumulándose durante más de un año contra OpenAI, creador de ChatGPT, esta es la primera vez que escritores dirigen sus acciones legales contra Anthropic y su chatbot Claude.
Anthropic, una empresa más pequeña con sede en San Francisco y fundada por antiguos líderes de OpenAI, se ha promocionado como un desarrollador más responsable y centrado en la seguridad de modelos de IA generativa, capaces de redactar correos electrónicos, resumir documentos e interactuar de manera natural con las personas.
Sin embargo, la demanda presentada el lunes en un tribunal federal en San Francisco alega que las acciones de Anthropic «han ridiculizado sus elevados objetivos» al utilizar repositorios de obras pirateadas para construir su producto de IA.
«Es una exageración decir que el modelo de Anthropic busca lucrarse extrayendo la expresión humana y la creatividad detrás de cada una de esas obras», afirma la demanda.
Hasta el momento, Anthropic no ha respondido a la solicitud de comentarios.
La demanda fue presentada por tres escritores: Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes buscan representar a una clase de autores de ficción y no ficción en una situación similar.
Aunque es la primera demanda contra Anthropic por parte de autores de libros, la empresa también enfrenta una demanda de grandes editoras de música que alegan que Claude reproduce letras de canciones protegidas por derechos de autor.
Este caso se suma a un número creciente de demandas presentadas contra desarrolladores de modelos de lenguaje de IA en San Francisco y Nueva York.
OpenAI y su socio comercial Microsoft ya están lidiando con varias demandas por infracción de derechos de autor lideradas por nombres reconocidos como John Grisham, Jodi Picoult y el novelista de “Juego de Tronos”, George R. R. Martin, así como otro conjunto de demandas de medios de comunicación como The New York Times, Chicago Tribune y Mother Jones.
El denominador común de todas estas demandas es la afirmación de que las empresas tecnológicas han ingerido enormes cantidades de escritos humanos para entrenar a sus chatbots de IA sin obtener permiso ni compensar a los autores de las obras originales. Estos desafíos legales no provienen solo de escritores, sino también de artistas visuales, discográficas y otros creadores que alegan que los beneficios de la IA generativa se han construido sobre la apropiación indebida de sus obras.
Anthropic y otras empresas tecnológicas han defendido que el entrenamiento de modelos de IA se ajusta a la doctrina de “uso justo” de las leyes estadounidenses, que permite el uso limitado de materiales protegidos por derechos de autor para la enseñanza, la investigación o la transformación de la obra original en algo diferente.
No obstante, la demanda contra Anthropic la acusa de utilizar un conjunto de datos llamado The Pile, que incluye una gran cantidad de libros pirateados. Además, cuestiona la idea de que los sistemas de IA aprenden de la misma manera que los humanos.
«Los humanos que aprenden de libros compran copias legales de ellos o los toman prestados de bibliotecas que los compran, proporcionando al menos una medida de compensación para los autores y creadores», concluye la demanda.