Crece un movimiento dentro de la comunidad legal para rastrear los errores de IA cometidos por sus colegas
La inteligencia artificial es buena para muchas cosas, especialmente para hacer trampa en tareas y fingir que eres más productivo de lo que realmente eres. Recientemente, esta aflicción se ha extendido a varias profesiones donde uno hubiera pensado que la ética de trabajo es ligeramente mejor de lo que aparentemente es.
Caso en cuestión: los abogados. Al parecer, los abogados adoran los chatbots como ChatGPT porque les ayudan a superar la monotonía de escribir escritos legales. Desafortunadamente, como la mayoría de nosotros sabemos, los chatbots también son propensos a inventar información y, cada vez más, esto está llevando a errores legales con implicaciones serias para todos los involucrados.
El problema se extiende por toda la profesión legal
The New York Times publicó una nueva historia sobre esta desafortunada tendencia, señalando que, cada vez más, se están imponiendo castigos a los abogados que son atrapados usando IA de manera descuidada (estos castigos pueden involucrar una multa o alguna otra molestia menor). Aparentemente, debido a la postura de la American Bar Association, está bien que los abogados usen IA en el curso de su trabajo legal. Solo se supone que deben asegurarse de que el texto que escupe el chatbot sea, ya sabes, correcto, y no esté lleno de casos legales fabricados, lo cual es algo que parece seguir sucediendo.
Según los documentos judiciales y entrevistas con abogados y académicos, la profesión legal en los últimos meses se ha convertido cada vez más en un hervidero de errores de IA. Algunos de estos provienen del uso de chatbots por parte de personas en lugar de contratar a un abogado. Los chatbots, con todas sus fallas, pueden ayudar a quienes se representan a sí mismos a «hablar en un lenguaje que los jueces entenderán», dijo Jesse Schaefer, un abogado con sede en Carolina del Norte.
Pero un número creciente de casos se origina entre profesionales legales, y los tribunales están comenzando a trazar castigos de pequeñas multas y otras disciplinas.
Nace un sistema de seguimiento de errores
Ahora, algunos abogados aparentemente están señalando a otros abogados por sus errores, y están tratando de crear un sistema de seguimiento que pueda compilar información sobre casos que involucran mal uso de IA. The Times señala el trabajo de Damien Charlotin, un abogado francés que creó una base de datos en línea para rastrear errores legales que involucran IA.
Al navegar por el sitio web de Charlotin, definitivamente es algo aterrador ya que actualmente hay 11 páginas de casos que involucran esta necedad (los investigadores dicen que han identificado 509 casos hasta ahora).
El periódico señala que existe una «red creciente de abogados que rastrean abusos de IA cometidos por sus pares» y los publican en línea, en un aparente esfuerzo por avergonzar el comportamiento y alertar a las personas de que está sucediendo.
El impacto en la reputación profesional
Sin embargo, no está claro que esté teniendo el impacto que necesita, hasta ahora. «Estos casos están dañando la reputación del colegio de abogados», dijo Stephen Gillers, profesor de ética en la Escuela de Derecho de la Universidad de Nueva York, al periódico. «Los abogados en todas partes deberían estar avergonzados de lo que están haciendo los miembros de su profesión».
La situación revela una tensión fundamental entre la adopción de nuevas tecnologías y el mantenimiento de los estándares profesionales en el campo legal. Mientras que la IA puede ser una herramienta poderosa para aumentar la eficiencia, su uso irresponsable está poniendo en riesgo tanto la credibilidad individual de los abogados como la confianza pública en el sistema legal en general.
El creciente número de casos documentados sugiere que este no es un problema aislado, sino una tendencia preocupante que requiere mayor supervisión y posiblemente regulaciones más estrictas sobre el uso de IA en la práctica legal.










