Jueves, Febrero 6, 2025
Jueves, Febrero 6, 2025

El desafío del uso responsable de la inteligencia artificial en el ejercicio del derecho

Constanza Basoalto Riveros. Abogada. Profesora Escuela de Derecho, Universidad Santo Tomás. Diego Valdés Quinteros. Abogado. Profesor instructor de Derecho Procesal de la Escuela de Derecho, Universidad Católica del Maule y Universidad Santo Tomás.

La incorporación de la inteligencia artificial (IA) en el ámbito jurídico, tanto universitario como profesional, no es una novedad ni se limita al contexto nacional. Su presencia se evidencia en tareas como la elaboración de trabajos académicos, escritos judiciales y hasta en la judicatura misma, no obstante, no se encuentra exenta de desafíos. 

Recientemente, un caso en la capital nacional puso en evidencia estos desafíos. Un abogado, haciendo uso de IA, presentó en un tribunal jurisprudencia falsa que respaldaba su postura. La situación fue detectada por la contraparte, quien solicitó sanciones disciplinarias al considerar que aquella conducta infringía el principio de buena fe procesal. Si bien el tribunal resolvió no aplicar medidas disciplinarias, este incidente subraya la necesidad de reflexionar sobre el uso ético y responsable de la tecnología en la profesión.

Situación similar sucedió en el conocido caso estadounidense, Mata versus Avianca[1], donde los abogados demandantes fueron sancionados al constatarse que se citó jurisprudencia falsa, ya que esta había sido resultado de una consulta realizada en chatGPT.

En este contexto, como docentes, consideramos fundamental no demonizar la IA sino que, fomentar un manejo adecuado de ésta, tanto académica como profesionalmente. Esto implica reforzar la formación en el uso de bases de datos oficiales, subrayando la importancia de la diligencia en la verificación de la información obtenida de fuentes no oficiales, pues la irrupción de la tecnología ha amplificado la disponibilidad de datos, pero también ha relegado la práctica de verificar rigurosamente su origen. En el derecho, donde las fuentes formales y materiales son la base de cualquier argumento, esta es una deficiencia crítica.

En el ejercicio del derecho, así como en la docencia e investigación jurídica, el uso correcto de las fuentes es esencial. La integración de herramientas tecnológicas como la IA debe acompañarse de un compromiso con la ética, la responsabilidad y el respeto por las fuentes oficiales, pilares fundamentales para el desarrollo de una práctica jurídica confiable y transparente. En tal sentido, la Carta Ética europea sobre el uso de IA en sistemas judiciales, emitida en 2018 por el Consejo de Europa, establece algunos principios éticos en lo que respecta al uso de la IA en escenarios jurídicos. A propósito de los casos reseñados, destaca el respeto al principio de calidad y seguridad en el procesamiento de decisiones y datos judiciales, aspecto en que el documento enfatiza la necesidad de utilizar fuentes certificadas y datos intangibles.

A ello debemos sumar la falta de una regulación especial en la materia, sin perjuicio del proyecto de ley actualmente en trámite que, tomando como base Reglamento 2024/1689 del Parlamento europeo, menciona como IA de alto riesgo, algunos usos relacionados con la administración de justicia, especialmente en materia penal. Este enfoque es seguido por el proyecto chileno, específicamente en su artículo 4°.

Considerando estos deberes éticos, y el futuro marco legal que se espera sea pronto una realidad en nuestro país, se torna pertinente un llamado a la responsabilidad y lealtad en el uso de la IA, pues tomando las palabras de Couture, el juez, “alguna que otra vez, debe confiar en lo que tú le invocas”.


[1] Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y. 2023)

ad_avisos_legalesad_avisos_legales
ad_whatsapp_canalad_whatsapp_canal
Sigue informándote