
Los abogados del CEO de MyPillow presentan un escrito legal generado por IA lleno de errores.
Los abogados ahora podrían enfrentar acciones disciplinarias.
Los abogados del CEO de MyPillow y teórico de conspiración en las elecciones presidenciales, Mike Lindell, están bajo la amenaza de acción disciplinaria tras haber utilizado inteligencia artificial generativa para redactar un escrito legal, que resultó estar plagado de errores fundamentales. Los abogados han admitido el uso de IA, sin embargo, afirman que el error particular fue, en gran medida, un fallo humano.
El miércoles, una orden emitida por la jueza del tribunal de distrito de Colorado, Nina Wang, indicó que el tribunal había identificado casi 30 citaciones defectuosas en un escrito presentado por los abogados de Lindell el 25 de febrero. El documento, firmado por los abogados Christopher Kachouroff y Jennifer DeMaster, pertenecía a la demanda por difamación interpuesta por Eric Coomer, un ex empleado de Dominion Voting Systems.
En la orden de la jueza Wang se menciona que "estos defectos incluyen, entre otros, citas incorrectas de casos mencionados; tergiversaciones de principios legales asociados a los casos citados, incluyendo discusiones sobre principios legales que simplemente no aparecen en dichas decisiones; afirmaciones erróneas sobre la procedencia del derecho de casos de una autoridad vinculante como la Corte de Apelaciones del Décimo Circuito de EE. UU.; atribuciones incorrectas de la jurisprudencia a este distrito; y, lo más grave, la citación de casos que no existen".
El tribunal también destacó que, a pesar de haber dado a los abogados la oportunidad de explicar esta lista de errores, no pudieron hacerlo de manera adecuada. Kachouroff confirmó que utilizó IA generativa para preparar el escrito cuando fue preguntado directamente por el tribunal, y tras más cuestionamientos, admitió que no verificó las citaciones resultantes.
Por lo tanto, se ordenó a los abogados que expliquen por qué Kachouroff y DeMaster no deberían ser referidos a procedimientos disciplinarios por violar las normas de conducta profesional, así como ser sancionados junto con Lindell y su firma legal.
Al responder a la orden el viernes, los abogados afirmaron que estaban "inconscientes de cualquier error o problema" con su presentación, por lo que se sintieron "sorprendidos" y no estaban preparados para dar explicaciones cuando fueron cuestionados inicialmente por el tribunal. Tras tener tiempo para evaluar la situación, ahora sostienen que el documento en cuestión era en realidad un borrador previo que DeMaster presentó por error. Presentaron versiones alternativas del escrito para respaldar este argumento, así como un intercambio de correos electrónicos donde discutían ediciones.
Ellos señalaron: "En ese momento, el abogado no tenía razón para creer que se había presentado un borrador generado por IA o no verificado. Después de la audiencia y al tener la oportunidad de investigar [el escrito], quedó claro que el documento presentado no era la versión correcta. Era un borrador anterior. Fue un error involuntario, una presentación errónea que no se hizo intencionalmente y se presentó por error humano".
Además, los abogados argumentan que el uso de inteligencia artificial para preparar escritos legales es totalmente lícito, afirmando que "[t] no hay nada de malo en usar IA si se utiliza correctamente". Kachouroff indicó que "rutinariamente" analiza argumentos legales utilizando herramientas de IA como Co-Pilot de Microsoft, Google (presumiblemente Gemini), y X (presumiblemente Grok), aunque aclaró que es la única persona en su firma legal que lo hace. También alegó que nunca había escuchado el término "inteligencia artificial generativa" antes.
Los abogados solicitaron que se les permita volver a presentar su escrito corregido y que se desestime la posible acción disciplinaria. Este incidente se suma a una lista creciente de profesionales del derecho que han hecho un uso inapropiado de la IA en su trabajo, algunos de los cuales no comprenden siquiera la tecnología. En junio de 2023, dos abogados fueron multados por citar casos legales inexistentes tras usar ChatGPT para su investigación. Más tarde, un abogado del ex abogado de Trump, Michael Cohen, fue sorprendido citando casos falsos que un cliente generó con Google Bard. Luego, en febrero, otro abogado pareció citar casos fabricados por ChatGPT, lo que llevó a su firma Morgan & Morgan a advertir a los empleados sobre la confianza ciega en la IA.
A pesar de estas advertencias, parece que muchos abogados aún no han comprendido el mensaje de evitar estos errores.