La inteligencia artificial generativa y la práctica del derecho

Pedro Luis Martín Olivares -Los abogados son un grupo conservador, acorde con una profesión que premia la preparación, la sagacidad y el respeto por los precedentes. Sin duda, muchos disfrutaron de una risa con la historia de Steven Schwartz, un abogado de lesiones personales de la firma de Nueva York Levidow, Levidow & Oberman, quien el mes pasado usó Chatgpt para ayudarlo a preparar una presentación judicial. Se basó demasiado en el chatbot de inteligencia artificial (IA).

Creó una moción repleta de casos, fallos y citas inventados, que el abogado Schwartz presentó de inmediato después de que el bot le asegurara que los «casos que proporcioné son reales y se pueden encontrar en bases de datos legales acreditadas» (no lo eran y no pueden). Lección aprendida, un abogado escéptico de la tecnología podría concluir: las viejas formas son las mejores.

Esa es la lección equivocada. Culpar a IA por el informe lleno de errores del abogado Schwartz no tiene más sentido que culpar a la imprenta por los errores en uno mecanografiado. En ambos casos, la culpa es del abogado que no revisó la moción antes de presentarla, no de la herramienta que ayudó a producirla. Porque eso es lo que es IA: ni una moda ni un apocalipsis, sino una herramienta en su infancia, y que podría cambiar radicalmente la forma en que trabajan los abogados y en que los bufetes de abogados ganan dinero. La profesión jurídica no es el único campo sobre el que se podría decir eso. Pero pocos combinan un caso de uso tan claro con un riesgo tan alto. Las empresas que lo hacen bien pueden cosechar recompensas. Los rezagados corren el riesgo de seguir el camino de los tipógrafos.

Según un informe reciente de Goldman Sachs, el 44 % de las tareas legales podría realizarlas la IA, más que en cualquier ocupación encuestada, excepto el apoyo administrativo y de oficina. Los abogados pasan una gran cantidad de tiempo examinando documentos tediosos, el tipo de cosas que IA ya ha demostrado que puede hacer bien. Los abogados usan la inteligencia artificial para una variedad de tareas, que incluyen la diligencia debida, la investigación y el análisis de datos. Estas aplicaciones se han basado en gran medida en la inteligencia artificial “extractiva”, que, como sugiere su nombre, extrae información de un texto y responde preguntas específicas sobre su contenido.

La inteligencia artificial generativa como Chatgpt es mucho más poderosa. Parte de ese poder puede usarse para mejorar la investigación legal y la revisión de documentos. Como ejemplo, tenemos el «asistente legal» de IA generativa llamado CoCounsel, creado por Pablo Arredondo, su uso «elimina la tiranía de la palabra clave. También se tiene a Allen & Overy, una gran firma con sede en Londres, la cual ha integrado una herramienta de inteligencia artificial legal llamada Harvey en su práctica, usándola para el análisis de contratos, la diligencia debida y la preparación de litigios.

A pesar de las infinitas bondades, no todos los abogados están convencidos del uso de Aesta tecnología. Una encuesta reciente encontró que el 82% de ellos cree que la inteligencia artificial generativa se puede usar para el trabajo legal, pero solo el 51% pensó que se debería utilizar. Muchos se preocupan por las «alucinaciones» como los IA Boffins se refieren a la tendencia de los Chatbots a presentar falsedades con aplomo, como en el caso de Schwartz, y por introducir inadvertidamente información sujeta al privilegio abogado-cliente en los algoritmos. 

Sin embargo, si estos desafíos pueden abordarse, y pueden hacerlo, con una mejor tecnología y humanos cuidadosos en el circuito, entonces las dudas del 49% que dudan pueden desaparecer. Después de que se supo la noticia de la debacle de Schwartz, por ejemplo, un juez federal en Texas les dijo a los abogados que comparecieron ante él que presentaran un certificado que certificara que no usaron IA generativa en absoluto o que, si lo hicieron, verificaron el resultado final. Aunque tenía poco sentido que los abogados insistieran en realizar investigaciones jurídicas en las bibliotecas una vez que las bases de datos de Westlaw y LexisNexis, mucho más grandes y fáciles de buscar, estaban a un clic de distancia, cuando una masa crítica de firmas adopte la inteligencia artificial generativa, seguirán más.

La IA tiene el potencial de transformar la profesión legal de tres maneras importantes. En primer lugar, podría reducir la ventaja de mano de obra de las grandes empresas. En demandas grandes y complejas, estas firmas les piden a docenas de asociados que lean millones de páginas de documentos en busca de respuestas a las preguntas y corazonadas de los abogados principales. Ahora, un solo abogado o una pequeña firma podrá cargar estos documentos en una IA de preparación para litigios y comenzar a consultarlos. Como señala Lawrence Lessig, de la Facultad de Derecho de Harvard, “Puedes ser una firma especializada más pequeña y ágil y tener la capacidad de procesar este tipo de casos”.

En segundo lugar, la IA podría cambiar la forma en que las empresas ganan dinero. Richard Susskind, asesor tecnológico del presidente del Tribunal Supremo de Inglaterra, argumenta que las empresas se benefician de “tener ejércitos de abogados jóvenes a quienes les pagan menos de lo que cobran a sus clientes”. Si la IA puede hacer el trabajo de esos ejércitos en segundos, las empresas deberán cambiar sus prácticas de facturación. Algunos pueden pasar a cobrar tarifas planas en función del servicio prestado, en lugar de la cantidad de tiempo dedicado a brindarlo. Stephen Wu, de Silicon Valley Law Group, especula que las empresas pueden cobrar «una tarifa de tecnología», por lo que «los clientes no esperan obtener inteligencia artificial generativa por nada».

Tercero, la IA podría cambiar cuántos abogados existen y dónde trabajan. Eventualmente, argumenta Lessig, es difícil ver cómo la inteligencia artificial “no reduce drásticamente la cantidad de abogados que necesita el mundo”. Si la IA puede hacer en 20 segundos una tarea que le habría llevado a una docena de asociados 50 horas cada uno, ¿por qué las grandes empresas continuarían contratando a docenas de asociados? Un socio veterano de una prestigiosa firma de abogados corporativos en Nueva York espera que la proporción de asociados a socios disminuya del promedio actual de quizás siete a uno en las principales firmas a acercarse a la paridad. Si los asociados no están preocupados por sus trabajos, dice, “deberían estarlo”.

Sin embargo, eso puede no suceder por un tiempo. Además, la inteligencia artificial podría hacer que los servicios legales fueran más baratos y, por lo tanto, más accesibles, en particular para las pequeñas y medianas empresas que en la actualidad a menudo tienen dificultades para pagarlos. Los graduados de la facultad de derecho ambiciosos pueden encontrar que la IA proporciona un camino más fácil para comenzar una práctica en solitario. Si es así, la inteligencia artificial podría conducir a un aumento en el número total de abogados, así como a cambiar el tipo de tareas que realizan, del mismo modo que el cajero automático provocó un aumento en el número de empleados bancarios humanos en lugar de su reemplazo.

En última instancia, esto será una buena noticia para los clientes. “Las personas que acuden a los abogados no quieren abogados: quieren soluciones a sus problemas o evitarlos por completo”, explica el Susskind. Si la IA puede proporcionar esos resultados, la gente usará IA. Mucha gente ya usa software para hacer sus impuestos en lugar de depender de profesionales; “Muy pocos de ellos se quejan de la falta de interacción social con sus asesores fiscales”.

Se concluye el articulo con el caso Schwartz citado anteriormente. La noticia fue publicada en el periódico New York Post. Abogado de Nueva York admite que usó ChatGPT para presentar documentos judiciales «falsos». Un abogado de una respetada firma de Tribeca admitió citar varias demandas «falsas» que, según él, reforzaron su caso, porque usó un Chatbot de inteligencia artificial para ayudar a escribir la presentación a la corte federal de Manhattan.

La impactante admisión de Steven Schwartz, un abogado de la firma Levidow, Levidow & Oberman, se produjo después de que le pidió a ChatGPT que encontrara casos relevantes para la demanda de su cliente, solo para que el Bot los fabricara por completo, según muestran los documentos judiciales.

El problema comenzó después de que el socio legal de Schwartz, Peter LoDuca, presentara una demanda contra la aerolínea colombiana Avianca en nombre de Robert Mata, quien supuestamente resultó herido cuando un carrito de servicio de metal golpeó su rodilla en un vuelo a la ciudad de Nueva York. Cuando los abogados de la aerolínea le pidieron al tribunal que desestimara la demanda, Schwartz presentó un escrito que supuestamente citaba más de media docena de casos relevantes.

Solo había un problema: los casos, como Miller contra United Airlines, Petersen contra Iran Air y Varghese contra China Southern Airlines, fueron completamente inventados por ChatGPT. “A la corte se le presenta una circunstancia sin precedentes”, escribió el juez federal de Manhattan P. Kevin Castel en un documento del 4 de mayo, informado por primera vez por The New York Times el sábado 6, pidiendo a Schwartz y LoDucan que comparezcan en una audiencia el 8 de junio para enfrentar posibles sanciones por esa presentación asombrosa.

“Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citas internas falsas”, escribió Castel. En una declaración jurada presentada la semana pasada, Schwartz admitió que usó ChatGPT mientras compilaba la documentación que presentó Loduca, y escribió que «se basó en las opiniones legales que le proporcionó una fuente que se reveló como poco confiable». El mea culpa firmado continuó diciendo que Schwartz «no estaba al tanto de la posibilidad de que su contenido de ChatGPT pudiera ser falso».

Shaboon v. Egyptair, Martinez v. Delta Airlines y Estate of Durden v. KLM Royal Dutch Airlines se encuentran entre los casos falsos generados por la aplicación.REUTERS

El abogado caído en desgracia también le dijo al juez que «lamenta mucho» el uso de IA para la «investigación» legal y «nunca lo hará en el futuro sin una verificación absoluta de su autenticidad».

Sé el primero en comentar en «La inteligencia artificial generativa y la práctica del derecho»

Deja un comentario

Tu dirección de correo electrónico no será publicada.


*


*