Inteligencia artificial en abogacía: la ausencia del control jurídico

Uncategorized
Leído por: 362 usuarios

Por: Eduardo Alejos Toribio


 

La inteligencia artificial (en adelante: IA) ya no es una herramienta marginal dentro del ejercicio jurídico. Hoy forma parte del flujo ordinario de trabajo en despachos, estudios jurídicos y hasta en la preparación individual de escritos judiciales. Su uso abarca desde la búsqueda de jurisprudencia hasta la redacción de argumentos completos, lo que ha generado una transformación profunda en la forma en que se produce el razonamiento jurídico escrito.

En ese escenario, los casos recientes en jurisdicciones altamente sofisticadas evidencian un problema que no es tecnológico, sino jurídico-organizacional, la debilidad de los sistemas de control frente a resultados generados por inteligencia artificial.

1. El núcleo del problema la IA no sustituye la responsabilidad

La discusión contemporánea sobre inteligencia artificial en el Derecho suele polarizarse de forma simplificada, a favor o en contra de su uso. Sin embargo, ese enfoque ya resulta insuficiente. El problema no es si la IA debe utilizarse, sino bajo qué condiciones de control jurídico y con qué nivel de responsabilidad verificable se integra al trabajo del abogado.

La inteligencia artificial, en su estado actual, no razona jurídicamente en sentido estricto. Opera sobre patrones estadísticos de lenguaje, generando respuestas plausibles, pero no necesariamente verificadas. Esto produce un fenómeno especialmente peligroso en el ámbito jurídico, la verosimilitud sin veracidad, es decir, argumentos que “parecen correctos” pero que no necesariamente tienen sustento normativo o jurisprudencial real[1].

Cuando estos contenidos son incorporados en escritos judiciales sin verificación rigurosa, el riesgo no es meramente técnico. Se convierte en un problema jurídico directo, porque el proceso judicial no evalúa la intención del generador del contenido, sino la responsabilidad de quien lo presenta como propio.

En ese sentido, la IA no elimina la responsabilidad profesional; la reconfigura. Y si no existe un sistema de control efectivo, lo que ocurre es un desplazamiento del riesgo, el error deja de ser evidente en la fase de producción y se manifiesta recién en la fase procesal, cuando ya impacta en la decisión judicial o en la estrategia de defensa.

2. El caso estadounidense como advertencia

El reconocimiento de una firma de alto nivel en Estados Unidos respecto a la inclusión de citas inexistentes generadas por inteligencia artificial no es un hecho anecdótico ni aislado. Es, en realidad, una manifestación clara de un problema estructural: la ruptura del control humano sobre sistemas de apoyo tecnológico en la producción de documentos jurídicos.

Lo relevante del caso no es únicamente la existencia de errores generados por IA, sino la falla en la cadena interna de verificación. En teoría, existían protocolos de revisión, mecanismos de supervisión y estándares de control profesional. Sin embargo, estos no fueron aplicados de manera efectiva o fueron subestimados frente a la confianza en la herramienta tecnológica.

Este punto es crucial, el problema no es la ausencia de reglas, sino su ineficacia práctica. Es decir, la existencia formal de controles no garantiza su cumplimiento real. En el ámbito jurídico, esto tiene una implicancia directa, la automatización sin supervisión no reduce el riesgo, sino que lo institucionaliza bajo una apariencia de eficiencia. El resultado es una falsa sensación de seguridad técnica que termina trasladando el problema al proceso judicial[2].

3. Traslado al contexto nacional

En el caso peruano, el escenario presenta particularidades que pueden agravar el problema si no se aborda con criterios preventivos.

  • En primer lugar, existe una asimetría significativa en el acceso y dominio de herramientas de inteligencia artificial dentro del ejercicio profesional del derecho. Mientras algunos operadores jurídicos utilizan sistemas avanzados con criterios técnicos relativamente sólidos, otros incorporan estas herramientas de manera intuitiva, sin estándares de verificación ni conocimiento claro de sus limitaciones.
  • En segundo lugar, el sistema jurídico peruano mantiene una fuerte dependencia del documento escrito como principal medio de construcción del razonamiento judicial. Esto significa que cualquier distorsión en la calidad del escrito ya sea por error humano o automatizado tiene un impacto directo en la decisión jurisdiccional, especialmente en primera instancia.
  • En tercer lugar, no existe aún una regulación específica o protocolos institucionales uniformes sobre el uso de inteligencia artificial en la práctica forense. Ni el Poder Judicial, ni el Ministerio Público, ni los colegios profesionales han desarrollado estándares obligatorios de uso, verificación o responsabilidad tecnológica.

Esto genera un vacío normativo práctico, la tecnología avanza más rápido que la regulación, y en ese desfase se produce el riesgo más alto, que es el uso acrítico de herramientas que pueden introducir errores invisibles, pero procesalmente relevantes.

4. Riesgos jurídicos concretos

El uso no controlado de inteligencia artificial en la elaboración de escritos jurídicos no puede considerarse un fenómeno neutral. Sus consecuencias pueden materializarse en distintos niveles de responsabilidad y afectación procesal.

Desde el punto de vista disciplinario, puede configurarse negligencia profesional cuando el abogado incorpora información no verificada que era razonablemente detectable mediante una revisión mínima. La utilización de IA no exime del deber de diligencia, sino que lo eleva.

Desde la perspectiva procesal, puede generarse una afectación al principio de buena fe y lealtad procesal[3], especialmente cuando el contenido presentado contiene referencias inexistentes, jurisprudencia errónea o interpretaciones normativas no sustentadas en fuentes reales.

Asimismo, existe un riesgo relevante en la debilitación del estándar de motivación judicial, en la medida en que el juez pueda verse influenciado por argumentos construidos sobre bases defectuosas, lo que impacta indirectamente en la calidad de la decisión jurisdiccional.

En el ámbito penal, esto adquiere mayor gravedad, dado que la construcción de la convicción judicial depende de la consistencia probatoria y argumentativa de las partes. Un escrito contaminado por información no verificada puede afectar la estructura lógica del razonamiento judicial.

5. La verdadera transformación

El desafío real no es resistirse a la inteligencia artificial ni adoptarla de forma acrítica, sino construir un modelo de gobernanza jurídica de la tecnología aplicada al derecho[4]. Esto implica abandonar la idea de que la IA es un simple instrumento neutral y reconocer que su integración en el razonamiento jurídico requiere estructuras de control equivalentes a su capacidad de influencia.

En términos concretos, ello supone:

  • La implementación de protocolos obligatorios de verificación humana previa a la presentación de escritos judiciales, sin excepción.
  • El establecimiento de sistemas de trazabilidad de fuentes jurídicas utilizadas por herramientas de IA, de modo que cada afirmación pueda ser auditada.
  • La consolidación de una práctica jurídica basada en el principio de doble validación: automatización como apoyo, no como sustitución del juicio crítico.

La modernización del Derecho no se mide por la cantidad de tecnología utilizada, sino por la capacidad del sistema jurídico de mantener la calidad, fiabilidad y verificabilidad de sus argumentos en un entorno tecnológicamente asistido.

6. Conclusiones

  • El caso internacional no debe interpretarse como un problema aislado ni como un fallo excepcional de una firma específica. Es, en realidad, una advertencia estructural sobre cómo la inteligencia artificial puede generar una falsa sensación de precisión jurídica si no existe control humano efectivo.
  • En el ámbito jurídico, la autoridad no se delega a sistemas automáticos. Se construye sobre responsabilidad, verificación y razonamiento crítico.
  • En el país, donde la escritura jurídica sigue siendo el eje central del proceso, la verdadera ventaja competitiva no será quién utilice más inteligencia artificial, sino quién sea capaz de integrarla sin renunciar al rigor técnico, la validación de fuentes y la responsabilidad profesional plena.

 

 

 


[1] Atienza, Manuel. (2013). Las razones del derecho: teorías de la argumentación jurídica. Palestra Editores, 3.ª edición.

[2] Binder, Alberto. (2014). Introducción al derecho procesal penal. Ad-Hoc, 2.ª edición.

[3] Taruffo, Michele. (2010). Simplemente la verdad: el juez y la construcción de los hechos. Marcial Pons, 1.ª edición.

[4] Surden, Harry. (2019). Artificial intelligence and law: An overview. Georgia State University Law Review, 35, 1305–1337.

 

Comparte el artículo en tus redes sociales

También puede interesarte

keyboard_arrow_up