Opinión

La Inteligencia artificial y la abogacía

Uso de la inteligencia artificial

En el Reino Unido el Tribunal Superior de Londres resolvió que los abogados son responsables del contenido de las citas generadas con las plataformas o “productos” de aprendizaje automático (machine learning), así como de otras subcategorías de la inteligencia artificial (IA). El ejercicio de la profesión exige que los expertos en derecho sean quienes con su criterio y diligencia revisen cuidadosamente la información procesada algorítmicamente.

Para la comprensión de la dimensión de la sentencia conviene hacer una clasificación básica de la IA consultable en https://www.ealde.es/categorias-inteligencia-artificial/:

  • IA con conciencia de su propia existencia, que es capaz de reproducir sentimientos y hacer inferencias y no se conoce que se haya desarrollado.
  • IA que imita el pensamiento humano y permite interactuar socialmente, que no está disponible en el mercado. Tal vez algunos gobiernos o empresas tecnológicas dispongan de ella.
  • Superinteligencia, que es utilizada para tomar decisiones con alto grado de precisión y con base en un diseño algorítmico avanzado y la disposición de datos masivos de calidad.
  • IA fuerte, que está orientada a cumplir con una tarea aplicada relacionada, por ejemplo, con una línea de producción o una gestión de grandes organizaciones públicas o privadas.
  • IA débil, que tiene como propósito el análisis del leguaje o la reproducción de una voz, como la síntesis de textos o la comunicación de ideas simples y breves, tales como un modelo de lenguaje grande (LLM) como el ChatGPT o el Copilot, entre muchos más que inundan el mercado.
  • IA aplicable a la identificación de personas, reconocimiento de voz o procesamiento del lenguaje, como los programas ofimáticos.
  • IA reactiva, que carece de memoria y sólo responde a un estímulo como la automatización de puertas de un elevador.
  • IA de memoria limitada, que reproduce frases preelaboradas para recordar actividades como Siri o Alexa.

Esta categorización permite identificar que la sentencia se refiere a IA de bajo nivel de desarrollo como el análisis del lenguaje o la búsqueda de información jurídicamente relevante para contenerse en un expediente judicial y motivar la emisión de una sentencia.

En los casos AC-2024-LON-003062 y CL-2024-000435 conocidos por la High Court of Justice, King´s Bench División, Divisional Court, resueltos el 6 de junio de 2025, el tribunal identificó que una de las partes había presentado información falsa, con referencias incorrecta a precedentes judiciales inexistentes o atribuir frases incorrectamente a textos doctrinarios. Esto sucedió por denuncia de la contraparte, que demostró el mal uso de las herramientas de IA comerciales en la presentación de pruebas y alegatos.

Este hecho provocó la preocupación de los integrantes del tribunal y de los colegios de abogados, quienes consideraron que era, por lo menos, una negligencia similar a la falta de supervisión del abogado titular del pasante o auxiliar que le allega la información para aportar al juicio y, por lo tanto, una responsabilidad ética en el ejercicio de la profesión. Los barristers (abogado defensor) y los solicitors (asesor) deben comportarse con honestidad e integridad en la representación y consejo jurídico, que emitan dentro o para un tribunal.

El uso adecuado de la IA o cualquier otro medio de allegarse información debe ser sancionado y, si además se prueba que hay dolo o intensión de engaño, puede de ser una obstrucción a la impartición de la justicia, en el lenguaje anglosajón, y ser sancionada administrativamente con la pérdida de la licencia o autorización para participar en juicios o acudir a las cortes o, incluso, penalmente de tal gravedad que, quien la comete, puede ser condenado a cadena perpetua como pena máxima.

En los casos en particular, las autoridades supervisoras de los barrister y solicitors determinaron multar a quienes hicieron mal uso del producto de la IA para la búsqueda de información y no pasó a mayores castigos porque no se demostraron las intenciones de engañar el tribunal. La mala práctica consistió en que la forma en que se presentó la información daba un sentido diferente al contenido en el documento original de una declaración jurada y se citaban cinco precedentes inexistentes.

Esta resolución permite concluir que los resultados de la IA, como cualquier ayuda humana o herramienta tecnológica, deben supervisarse por el profesional que las utiliza y que esto requiere de una formación sólida. La IA no sustituye el estudio y el cuidado que se debe tener cuando se representa o asesora jurídicamente, se diagnóstica una enfermedad, se diseña un bien o se proyecta un edificio.

La IA es sólo un instrumento para hacer más eficiente el trabajo. No es más que eso. Es tan mala una formación de abogados basada en la lectura y memorización de leyes y jurisprudencias como aquella que recurre a la IA como sustituto de la creatividad, la comprensión y análisis del derecho. El abogado es abogado porque piensa en clave de derechos, obligaciones y deberes, que son expresiones lingüísticas formales, y actúa bajo la orientación del valor justicia.

Profesor de la Universidad de las Américas Puebla

cmatutegonzalez@gmail.com

Facebook.com/cmatutegonzalez

X @cmatutegonzalez

www.carlosmatute.com

Tendencias