
Abogados podrían enfrentar sanciones severas por citaciones falsas generadas por inteligencia artificial, advierte tribunal británico.
El Tribunal Superior de Inglaterra y Gales ha declarado que los abogados deben implementar medidas más estrictas para evitar el uso indebido de la inteligencia artificial en su labor. En un fallo que conecta dos casos recientes, la jueza Victoria Sharp expresó que herramientas de inteligencia artificial generativa como ChatGPT "no son capaces de realizar investigaciones legales confiables".
La Corte Suprema de Inglaterra y Gales ha instado a los abogados a adoptar medidas más estrictas para evitar el uso indebido de la inteligencia artificial en su práctica profesional. En una decisión que aborda dos casos recientes, la jueza Victoria Sharp afirmó que las herramientas de inteligencia artificial generativa, como ChatGPT, “no son capaces de realizar investigaciones legales confiables”.
La jueza destacó que, aunque estas herramientas pueden ofrecer respuestas que parecen coherentes y plausibles, estas pueden resultar ser completamente erróneas. Afirmó que “las respuestas pueden contener aserciones confiadas que son simplemente falsas”. Sin embargo, esto no implica que los abogados no puedan utilizar inteligencia artificial en su trabajo de investigación. Sharp aseguró que los abogados tienen el deber profesional de “verificar la exactitud de tales investigaciones en comparación con fuentes autorizadas antes de utilizarlas en el desarrollo de su labor profesional”.
Además, la jueza sugirió que el aumento en los casos donde los abogados han presentado afirmaciones que aparentan ser falsas, muchas de ellas generadas por inteligencia artificial, indica que “es necesario hacer más para garantizar que se siga esta orientación y que los abogados cumplan con sus deberes ante el tribunal”. Esta declaración se comunicará a organismos profesionales como el Bar Council y la Law Society.
En uno de los casos mencionados, un abogado que representaba a un hombre en busca de daños contra dos bancos presentó un documento con 45 citas, de las cuales 18 no existían. Muchas de las restantes “no contenían las citas atribuidas, no apoyaban las proposiciones para las que fueron citadas y no eran relevantes para el tema de la solicitud”, según la jueza. En otro caso, una abogada que defendía a un hombre desalojado de su vivienda en Londres incluyó cinco casos que tampoco parecían existir. Aunque la abogada negó utilizar inteligencia artificial, indicó que las citas podrían haber provenido de resúmenes generados por inteligencia artificial que aparecieron en “Google o Safari”.
La jueza Sharp aclaró que la corte decidió no iniciar procedimientos de desacato, pero subrayó que esto “no establece un precedente”. Añadió que los abogados que no cumplan con sus obligaciones profesionales en este aspecto enfrentan sanciones severas. Ambos abogados fueron referidos a los reguladores profesionales o se autorreferenciaron ellos mismos. Sharp recordó que las consecuencias por incumplimiento pueden variar desde “amonestaciones públicas” hasta la imposición de costos, procedimientos de desacato o incluso “referencias a la policía”.