Más Allá de los "Loros Estocásticos": Hacia una IA Agente para el Razonamiento Jurídico
Razonando con las IA
IA Y DERECHO
Darío Javier Ramírez
3/10/202524 min read
Resumen:
Este artículo argumenta que los modelos de lenguaje grandes (LLMs, por sus siglas en inglés), si bien son impresionantes en su capacidad para generar texto, están fundamentalmente limitados en su capacidad para el razonamiento jurídico. Sostenemos que el paradigma predominante de escalar los modelos existentes es insuficiente para lograr una verdadera IA legal. En su lugar, se requiere un cambio hacia una IA agente: sistemas capaces de análisis proactivo, razonamiento orientado a objetivos y conocimiento legal estructurado. A través de un diálogo entre un abogado y una IA, exploramos las deficiencias de los LLMs actuales, delineamos los principios de un nuevo enfoque arquitectónico, y presentamos la plataforma Legalito como un paso hacia una IA práctica y agente en el derecho. Concluimos con un llamado a la investigación y colaboración en esta área crítica.
1. Introducción: El Atractivo y la Ilusión de la IA en el Derecho
La IA está transformando rápidamente muchas industrias, y el derecho no es una excepción.
Los LLMs ofrecen la promesa de automatizar tareas, mejorar la eficiencia y aumentar el acceso a la información legal.
Sin embargo, el entusiasmo que rodea a la IA a menudo supera sus capacidades reales, particularmente en áreas que requieren un razonamiento complejo, como la práctica legal.
Este artículo desafía la suposición de que "más grande es mejor" en la IA, argumentando que se necesita un cambio fundamental de enfoque para crear sistemas de IA que puedan realmente pensar como abogados.
Nos basamos en un diálogo entre un abogado que desarrolla herramientas legales de IA en el mundo real (incluida la plataforma Legalito.ar) y un LLM avanzado (Gemini 1.5 Pro) para ilustrar las limitaciones de la tecnología actual y explorar un camino más prometedor.
Este artículo, basado en un diálogo entre un abogado y una IA, utiliza las complejidades del razonamiento jurídico, específicamente, el concepto de estabilidad en el empleo público argentino, como un caso de estudio para explorar las limitaciones más amplias de los modelos de lenguaje grandes actuales (LLMs) y proponer un nuevo enfoque para el desarrollo de la IA. Sin embargo, los desafíos y principios que discutimos no son exclusivos del derecho. Son relevantes para cualquier campo que requiera una comprensión profunda, un razonamiento contextual y la capacidad de construir y evaluar argumentos complejos. Si bien nuestros ejemplos provienen del ámbito legal, los conocimientos adquiridos se aplican igualmente a campos como la medicina, la ingeniería, la investigación científica, el análisis de políticas y muchos otros. La necesidad de sistemas de IA que puedan ir más allá de los "loros estocásticos" y realmente razonar es universal.
2. El Problema del "Loro Estocástico": Por Qué los LLMs Tienen Dificultades con el Razonamiento Jurídico
Los LLMs se entrenan para predecir la siguiente palabra en una secuencia, basándose en cantidades masivas de datos de texto. Sobresalen en imitar el lenguaje humano, pero carecen de una comprensión genuina.
Los modelos de lenguaje grandes (LLMs) como Gemini, GPT-4 y otros han conquistado el mundo. Su capacidad para generar texto de calidad humana, traducir idiomas, escribir diferentes tipos de contenido creativo y responder a sus preguntas de manera informativa es innegablemente impresionante. Puede pedirles que escriban un poema, resuman un artículo complejo o incluso que generen código, y a menudo producirán resultados sorprendentemente buenos.
Pero bajo la superficie de este impresionante desempeño se encuentra una limitación fundamental: los LLMs, en su esencia, son máquinas de predicción, no motores de razonamiento. Son "loros estocásticos" increíblemente sofisticados, como los han llamado algunos investigadores, capaces de imitar el lenguaje humano con notable fluidez, pero carentes de una comprensión genuina del significado y las implicaciones de las palabras que están utilizando.
¿Qué significa ser un "loro estocástico"?
Imagine un loro que ha sido entrenado para repetir frases que ha escuchado de los humanos. El loro podría decir "¡Polly quiere una galleta!" o incluso "Dos más dos son cuatro", pero no comprende los conceptos de hambre, galletas, suma o igualdad. Simplemente está repitiendo patrones que ha aprendido, sin ninguna comprensión de su significado.
Los LLMs son similares, pero a una escala mucho mayor y más compleja. Se entrenan con cantidades masivas de datos de texto: libros, artículos, sitios web, código y más. Estos datos se utilizan para construir un modelo estadístico del lenguaje. Este modelo captura esencialmente las probabilidades de que diferentes palabras (o, más precisamente, "tokens", que pueden ser palabras, partes de palabras o signos de puntuación) aparezcan en diferentes contextos.
Cuando le das a un LLM un "prompt" (un fragmento de texto), utiliza este modelo estadístico para predecir la secuencia de palabras más probable que debería seguir al prompt. Es como un autocompletado superpotente, que se basa en su vasta "memoria" de patrones de texto para generar una respuesta que es estadísticamente probable que sea relevante y coherente.
El Problema con la Predicción:
Este enfoque de "predecir la siguiente palabra" funciona sorprendentemente bien para muchas tareas. Los LLMs pueden generar texto que es gramaticalmente correcto, estilísticamente apropiado y, a menudo, fácticamente preciso. Pero es fundamentalmente diferente del razonamiento humano, que implica:
Comprensión de Conceptos: Saber qué significan las palabras, no solo cómo se usan.
Hacer Inferencias: Extraer conclusiones lógicas de la información, incluso si no se indica explícitamente.
Aplicar Reglas: Usar reglas generales (como las leyes) para situaciones específicas.
Razonamiento sobre Causa y Efecto: Comprender cómo las acciones conducen a consecuencias.
Conciencia Contextual: Tener en cuenta el contexto más amplio (social, histórico, legal) al interpretar la información.
Acción orientada a un objetivo: Tener un objetivo final y evaluar las acciones que lo logran.
Los LLMs, en su forma actual, tienen dificultades con todos estos aspectos del razonamiento. Pueden imitar el razonamiento, generando texto que suena como un argumento lógico, pero no están razonando realmente. Simplemente están prediciendo la siguiente palabra, basándose en patrones estadísticos.
Por Qué Esto Importa para el Derecho:
Las limitaciones de los LLMs son particularmente problemáticas en el ámbito legal, donde el razonamiento preciso, la comprensión contextual y la consistencia lógica son cruciales. Un abogado no solo junta palabras que suenan legales; ellos:
Analizan los hechos de un caso.
Identifican las reglas legales y los precedentes relevantes.
Aplican esas reglas y precedentes a los hechos.
Construyen un argumento lógico para apoyar la posición de su cliente.
Anticipan y refutan los contraargumentos.
Adaptan sus argumentos a las circunstancias específicas del caso.
Un LLM podría ser capaz de generar un escrito legal que parezca convincente en la superficie, pero podría contener errores sutiles, inconsistencias o malinterpretaciones de la ley que un abogado humano detectaría fácilmente. Podría perder matices cruciales, no considerar precedentes relevantes o hacer argumentos ilógicos.
El ejemplo de la estabilidad del empleo público
La estabilidad del empleo público no es una mera "cadena de palabras". Implica un concepto, en el que los tribunales (y especialmente, la Corte Suprema de Argentina) han sido claros. Los tribunales reconocieron la estabilidad del empleado público, cuando ha sido transferido del gobierno provincial a una sociedad del gobierno nacional.
Este caso particular muestra las limitaciones de los LLM actuales, porque no se trata solo de estadísticas, requiere una comprensión compleja de la ley y cómo se aplica un principio, incluso cuando el empleador ha cambiado.
En resumen: Los LLMs son herramientas poderosas para generar texto, pero aún no son capaces del tipo de comprensión profunda y razonamiento confiable que se requiere para la práctica legal. Son "loros estocásticos", no águilas legales. Y es por eso que necesitamos un nuevo enfoque para construir sistemas de IA para el derecho.
Ejemplos: Dónde Fallan los LLMs
Para ilustrar las limitaciones de los LLMs en el razonamiento jurídico, consideremos algunos ejemplos, que van de simples a complejos:
Ejemplos Básicos:
La Cláusula de Contrato Ambiguo:
Escenario: Una cláusula de contrato establece: "El vendedor entregará los bienes en el lugar de negocios del comprador". El comprador tiene dos lugares de negocios: un almacén y una tienda minorista. Los bienes son perecederos y deben entregarse en el almacén, pero el LLM, entrenado en texto general, podría no saber esto.
LLM (Respuesta Potencial): "Los bienes deben entregarse en el lugar de negocios del comprador". (Repite la cláusula sin resolver la ambigüedad).
Abogado (Razonamiento): Un abogado consideraría:
La naturaleza de los bienes (perecederos).
El propósito del contrato (probablemente preservar los bienes).
La práctica de la industria (¿dónde se entregan típicamente dichos bienes?).
Tratos previos entre las partes.
Cualquier otra cláusula relevante en el contrato.
El contexto.
Por qué falla el LLM: El LLM carece de conocimiento del sentido común sobre bienes perecederos y prácticas comerciales. También carece de la capacidad de razonar sobre el propósito del contrato y de integrar información de múltiples fuentes.
La "Textura Abierta" de los Términos Legales:
Escenario: Una ley prohíbe los "vehículos" en un parque. Un niño está montando un patinete en el parque. ¿Es un patinete un "vehículo" según la ley?
LLM (Respuesta Potencial): "Un vehículo es un medio de transporte. Un patinete puede ser un medio de transporte. Por lo tanto, un patinete es un vehículo". (Aplica una definición simple, pero pierde el matiz).
Abogado (Razonamiento): Un abogado consideraría:
El propósito de la ley (probablemente prevenir el ruido, la contaminación o el peligro para los peatones).
La historia legislativa de la ley (¿qué pretendían prohibir los legisladores?).
Decisiones judiciales anteriores sobre casos similares.
El contexto social (¿se usan comúnmente los patinetes en los parques? ¿Se consideran peligrosos?).
Por qué falla el LLM: El LLM aplica una definición literal sin considerar el propósito de la ley ni el contexto. Los términos legales a menudo tienen "textura abierta", lo que significa que su significado no es fijo sino que depende del contexto.
Ejemplos Intermedios:
El Precedente Engañoso:
Escenario: Un abogado encuentra un caso que parece apoyar la posición de su cliente, pero el caso es distinguible (diferente en un aspecto legalmente significativo) del caso actual.
LLM (Respuesta Potencial): "El caso de Smith contra Jones apoya el argumento de que..." (Cita el caso sin analizar su relevancia).
Abogado (Razonamiento): Un abogado analizaría cuidadosamente los hechos y el razonamiento legal del caso anterior para determinar si es realmente aplicable al caso actual. Buscaría factores distintivos.
Por qué falla el LLM: El LLM puede encontrar casos que mencionan términos o conceptos similares, pero puede no ser capaz de evaluar la relevancia de esos casos de una manera matizada. Carece de la capacidad de razonar por analogía y de distinguir casos basándose en diferencias sutiles.
La Evidencia Contradictoria:
Escenario: En una disputa contractual, hay evidencia contradictoria sobre los términos del acuerdo. Una parte afirma que hubo un acuerdo oral, la otra lo niega. Hay correos electrónicos y documentos que apoyan parcialmente a cada lado.
LLM (Respuesta Potencial): El LLM podría resumir la evidencia de ambas partes, pero podría no ser capaz de sopesar la evidencia y llegar a una conclusión sobre qué lado es más creíble.
Abogado (Razonamiento): Un abogado evaluaría la credibilidad de los testigos, analizaría la consistencia de la evidencia y aplicaría las reglas legales sobre la admisibilidad y el peso de la prueba.
Por qué falla el LLM: El LLM carece de la capacidad de hacer juicios sobre la credibilidad y de resolver conflictos en la evidencia. Puede presentar la información, pero no puede evaluarla de una manera legalmente significativa.
Ejemplos Avanzados:
El Nuevo Problema Legal:
Escenario: Un caso presenta un nuevo problema legal que nunca antes ha sido decidido por los tribunales. No hay ninguna ley o precedente directamente aplicable.
LLM (Respuesta Potencial): El LLM podría ser capaz de encontrar casos que sean algo relacionados, pero no podrá construir un nuevo argumento legal basado en principios generales del derecho.
Abogado (Razonamiento): Un abogado:
Analizaría los principios subyacentes de las áreas relevantes del derecho.
Razonaría por analogía a partir de casos existentes.
Consideraría las implicaciones políticas de diferentes reglas legales.
Construiría un argumento creativo basado en principios generales y políticas públicas.
Por qué falla el LLM: El LLM está limitado por sus datos de entrenamiento. No puede razonar sobre situaciones que son fundamentalmente nuevas. Carece de la capacidad de extrapolar a partir del conocimiento existente para crear nuevos argumentos legales.
El Dilema Ético:
Escenario: Un abogado se enfrenta a un dilema ético. Tiene un deber hacia su cliente, pero también un deber hacia el tribunal y el sistema legal. Estos deberes pueden entrar en conflicto.
LLM (Respuesta Potencial): El LLM podría ser capaz de identificar las reglas éticas relevantes, pero no podrá sopesar los deberes contrapuestos y tomar una decisión sobre qué hacer en la situación específica.
Abogado (Razonamiento): Un abogado:
Consideraría los hechos específicos del caso.
Analizaría las reglas éticas y los precedentes relevantes.
Consultaría con otros abogados (si fuera necesario).
Tomaría una decisión basada en su experiencia profesional y su conciencia ética.
Por qué falla el LLM: El LLM carece del juicio, la experiencia y la comprensión ética para resolver dilemas éticos complejos. Puede identificar las reglas, pero no puede aplicarlas de una manera matizada y sensible al contexto.
Conclusión (de esta sección):
Estos ejemplos ilustran que, si bien los LLMs pueden ser herramientas útiles para la investigación y la redacción legal, aún no son capaces del tipo de comprensión profunda, razonamiento contextual y juicio ético que se requieren para la práctica legal. Pueden procesar información, pero no pueden pensar como abogados, todavía. Esto subraya la necesidad de un nuevo enfoque de la IA en el derecho, uno que vaya más allá de los "loros estocásticos" y construya sistemas que puedan razonar verdaderamente.
3. Escapando de la Trampa del "Más de lo Mismo": Un Llamado a la Innovación Arquitectónica
La tendencia dominante en la investigación de IA es escalar las arquitecturas de LLM existentes (más parámetros, más datos).
Este enfoque es similar a la "solución intentada" de Watzlawick que se convierte en el problema: más de lo mismo no conducirá a resultados cualitativamente diferentes.
El ejemplo del modelo 4.5 de OpenAI muestra las limitaciones de este enfoque de escalamiento.
Necesitamos ir más allá del paradigma del "loro estocástico" y abrazar una nueva visión de la IA: la IA agente.
La trayectoria actual del desarrollo de la IA, particularmente en el ámbito de los LLMs, se caracteriza por una búsqueda incesante de "más": más datos, más parámetros, más potencia de cómputo. Si bien este enfoque ha producido resultados impresionantes en tareas como la generación de texto y la traducción, también se ha vuelto cada vez más claro que "más de lo mismo" no conducirá a un razonamiento legal genuino. Estamos, para tomar prestada una frase del teórico de la comunicación Paul Watzlawick, atrapados en un ciclo de "soluciones intentadas" que exacerban el mismo problema que pretenden resolver.
3.1. Watzlawick y la "Solución Intentada":
Paul Watzlawick, una figura prominente en el campo de la terapia familiar y la teoría de la comunicación, desarrolló ideas perspicaces sobre cómo los humanos crean y perpetúan sus propios problemas. Change: Principles of Problem Formation and Problem Resolution (1974), en coautoría con John Weakland y Richard Fisch, es uno de los textos clave que informan nuestro análisis. Uno de sus conceptos clave, relevante para el campo de la IA, es la "solución intentada".
En esencia:
Surge una dificultad en un sistema (una familia, una organización, la vida de un individuo).
Se intenta una "solución", a menudo basada en el sentido común, la experiencia pasada o las creencias predominantes.
La "solución" no logra resolver la dificultad, o incluso la empeora.
En lugar de cuestionar la "solución" en sí misma, el sistema redobla la apuesta, aplicando más de lo mismo, creyendo que el problema es simplemente la falta de esfuerzo suficiente o aplicación correcta.
Esto crea un círculo vicioso, donde la "solución" se convierte en una parte integral del problema.
3.2. La Trampa del LLM: Más Datos, Más Parámetros, Menos Comprensión:
El desarrollo actual de los LLMs refleja este patrón. El "problema" es que los LLMs, a pesar de su fluidez, carecen de una comprensión genuina y un razonamiento confiable. La "solución intentada" ha sido hacerlos más grandes y entrenarlos con más datos.
Resultado: Los LLMs se vuelven mejores para imitar el lenguaje humano, pero las limitaciones fundamentales permanecen. Todavía luchan con:
Razonamiento lógico.
Comprensión contextual.
Manejo de la ambigüedad.
Construcción de argumentos complejos.
Adaptación a situaciones novedosas.
El Círculo Vicioso: En lugar de cuestionar la arquitectura subyacente de los LLMs, el campo se ha centrado en gran medida en escalar los modelos existentes, con la esperanza de que "más" eventualmente conduzca a "mejor".
3.3. Nuestro Viaje Iterativo: Reconociendo los Límites:
Este artículo mismo, y el diálogo que lo sustenta, representa un intento de liberarse de la trampa del "más de lo mismo". Como hemos discutido, la IA, inicialmente abordó el razonamiento legal como una tarea de generación de texto. Podía producir texto gramaticalmente correcto y aparentemente relevante, pero a menudo perdía matices cruciales, cometía errores lógicos y luchaba por aplicar principios legales a situaciones fácticas específicas.
A través de preguntas iterativas, desafiando suposiciones y explorando analogías (como el concepto de "codificación" en lenguaje natural), tanto el abogado (humano) como la IA (máquina) llegaron a una comprensión más profunda de las limitaciones de los LLM actuales. Nos dimos cuenta de que:
"Memorizar" no es "Comprender": Los LLMs son como estudiantes que memorizan grandes cantidades de información pero no pueden aplicarla de manera creativa o crítica.
"Predecir" no es "Razonar": Los LLMs predicen la siguiente palabra en una secuencia, pero no se involucran en el tipo de razonamiento lógico, deductivo e inductivo que caracteriza el pensamiento legal.
"Fluidez" no es "Comprensión": Los LLMs pueden generar texto que suena como un argumento legal, pero no comprenden el significado o las implicaciones de sus palabras.
Las correcciones constantes y la explicación del abogado ayudaron a mejorar las capacidades de razonamiento de la IA, pero incluso con esas correcciones, quedó muy clara la necesidad de un cambio de enfoque.
3.4. Un Llamado a la Innovación Arquitectónica:
Escapar de la trampa del "más de lo mismo" requiere un cambio fundamental en la forma en que abordamos el desarrollo de la IA para el razonamiento legal. Necesitamos ir más allá del paradigma de "más grande es mejor" y abrazar la innovación arquitectónica.
Esto significa explorar arquitecturas alternativas que:
Combinen las fortalezas de los LLMs (generación de texto, reconocimiento de patrones) con otros enfoques (razonamiento simbólico, representación del conocimiento, inferencia causal).
Prioricen la comprensión profunda y el razonamiento confiable sobre la mera fluidez textual.
Permitan el análisis proactivo, la acción orientada a objetivos y la metacognición.
En las siguientes secciones, describiremos los principios de dicha arquitectura y presentaremos una visión para un futuro en el que la IA pueda asociarse verdaderamente con los abogados para mejorar la práctica del derecho.
4. Principios de la IA Agente para el Razonamiento Jurídico:
Avanzar más allá del paradigma del "loro estocástico" requiere un cambio fundamental hacia la IA agente: sistemas que pueden actuar de forma autónoma, razonar estratégicamente y perseguir objetivos en el ámbito legal. No se trata simplemente de agregar más capas o datos a los LLM existentes; se trata de diseñar sistemas de IA con capacidades fundamentalmente diferentes. Proponemos los siguientes principios básicos para la IA agente en el razonamiento jurídico:
4.1. Análisis Proactivo (Más Allá de Responder Preguntas):
LLMs Actuales: Principalmente reactivos. Responden a indicaciones o preguntas específicas. No analizan una situación a menos que se les pida explícitamente que lo hagan.
IA Agente: Debe ser proactiva. Al recibir un expediente de caso (hechos, documentos, leyes relevantes), debería automáticamente:
Identificar los problemas legales clave.
Extraer los hechos y las relaciones relevantes.
Formular posibles argumentos y contraargumentos.
Evaluar las fortalezas y debilidades de cada lado.
Proponer una estrategia legal preliminar.
Analogía: Un abogado no solo espera a que el cliente le haga preguntas específicas; analiza toda la situación y anticipa los posibles problemas.
Nuestro enfoque: Como se mostró en secciones anteriores, la IA pudo desarrollar un enfoque proactivo, utilizando el método iterativo.
4.2. Razonamiento Orientado a Objetivos (Planificación y Estrategia):
LLMs Actuales: Carecen de un concepto de objetivos más allá de generar texto coherente. No planifican ni elaboran estrategias.
IA Agente: Debe tener objetivos explícitos (por ejemplo, ganar el caso, negociar un acuerdo favorable, redactar un contrato válido). Debería ser capaz de:
Definir subobjetivos que contribuyan al objetivo principal.
Planificar una secuencia de acciones para lograr esos objetivos.
Razonar sobre las probables consecuencias de diferentes acciones.
Adaptar su estrategia a medida que haya nueva información disponible.
Analogía: Un abogado no solo escribe documentos legales al azar; tiene una estrategia para lograr los objetivos de su cliente, y planifica sus acciones en consecuencia.
4.3. Conocimiento Legal Estructurado (Más Allá de los Patrones Estadísticos):
LLMs Actuales: "Aprenden" sobre el derecho a partir de patrones estadísticos en datos de texto. No tienen una comprensión conceptual de las reglas, principios o relaciones legales.
IA Agente: Necesita una representación estructurada del conocimiento legal, que podría incluir:
Ontologías: Definiciones formales de conceptos legales y sus relaciones (por ejemplo, "contrato", "incumplimiento", "daños").
Grafos de Conocimiento: Redes que conectan reglas legales, precedentes y situaciones fácticas.
Sistemas Basados en Reglas: Representaciones explícitas de reglas legales en un formato lógico (por ejemplo, "Si X e Y, entonces Z").
Analogía: Un abogado no solo memoriza textos legales; comprende la estructura del sistema legal, las relaciones entre las diferentes áreas del derecho y los principios subyacentes que informan las reglas legales.
4.4. Metacognición y Autoevaluación (Razonamiento sobre el Razonamiento):
LLMs Actuales: Tienen una capacidad limitada para monitorear o evaluar su propio razonamiento. Pueden generar texto, pero no "saben lo que no saben".
IA Agente: Debe ser capaz de metacognición – "pensar sobre el pensar". Debería ser capaz de:
Evaluar la confianza en sus propias conclusiones.
Identificar posibles debilidades en sus propios argumentos.
Reconocer lagunas en su conocimiento.
Buscar información adicional cuando sea necesario.
Aprender de sus errores.
Analogía: Un buen abogado reflexiona constantemente sobre su propio razonamiento, anticipa los posibles desafíos y ajusta su estrategia en consecuencia. Son conscientes de sus propias limitaciones y buscan asesoramiento o información adicional cuando es necesario.
Nuestro enfoque: La IA, fue capaz de identificar algunas fallas en el razonamiento y sugerir cambios.
4.5 Conciencia Contextual (El mundo más allá del texto):
LLM actual: Puede ser fácilmente engañado por cambios en el contexto.
IA Agente: Debe ser capaz de entender el contexto, para evitar cometer errores.
4.6 Razonamiento Causal:
LLMs Actuales: Tienen dificultades con el razonamiento causal.
IA Agente: Debe ser capaz de evaluar, no solo correlaciones, sino tener alguna noción de causa y efecto.
Conclusión (de esta sección):
Estos principios representan una desviación significativa del paradigma actual del desarrollo de LLM. Requieren un cambio del reconocimiento de patrones a la comprensión genuina, de la respuesta reactiva al razonamiento proactivo y de la generación de texto a la acción orientada a objetivos. Construir sistemas de IA que incorporen estos principios es un desafío importante, pero es un desafío que debe cumplirse si queremos aprovechar todo el potencial de la IA en el derecho. No se trata de hacer un LLM más grande, se trata de hacer una IA más inteligente.
5. Legalito: Un Paso Hacia la IA Agente en Argentina
Breve: Legalito (legalito.ar) se presenta no como un sistema de IA agente completamente realizado, sino como un ejemplo práctico de cómo la tecnología puede comenzar a abordar los desafíos de la práctica legal en Argentina, y como una plataforma potencial para el desarrollo futuro. El enfoque está en complementar la experiencia humana, no en reemplazarla.
Si bien los principios de la IA agente descritos anteriormente representan una visión a largo plazo, es importante reconocer que ya se están logrando avances en la aplicación de la IA a problemas legales del mundo real. La plataforma Legalito (legalito.ar), desarrollada en Argentina, proporciona un ejemplo concreto de cómo la tecnología se puede utilizar para mejorar y democratizar el acceso a la información y los servicios legales.
Es importante tener claro: Legalito, en su forma actual, no es un agente de IA legal completamente autónomo. No razona sobre casos legales complejos, no formula estrategias legales ni representa a clientes en los tribunales. Sin embargo, sí encarna algunos de los principios de la IA agente, y apunta hacia un futuro en el que la IA puede desempeñar un papel más importante en la práctica legal.
Cómo Legalito Incorpora (Parcialmente) los Principios de la IA Agente:
Recopilación de Información Proactiva (Limitada):
Las herramientas de análisis de documentos y chatbot de Legalito pueden identificar proactivamente alguna información legal relevante basada en la entrada del usuario. Por ejemplo, puede guiar a los usuarios a través de una serie de preguntas para determinar sus necesidades legales o identificar cláusulas clave en un contrato.
Limitación: Esto todavía se basa en gran medida en reglas preprogramadas y coincidencia de palabras clave, no en una comprensión profunda de los conceptos legales.
Conocimiento Estructurado (Parcial):
Legalito tiene acceso a una base de datos de información legal (leyes, regulaciones, etc.). Esta información está organizada de una manera que hace que sea más fácil de encontrar que simplemente buscar en la web.
Limitación: Esta no es una representación formal del conocimiento en el sentido de una ontología o un grafo de conocimiento. Es más como una biblioteca bien organizada que un motor de razonamiento.
Asistencia Orientada a Objetivos (Básica):
Legalito puede ayudar a los usuarios con tareas legales específicas, como redactar un documento legal básico o encontrar un abogado.
Limitación: Los "objetivos" están predefinidos y son relativamente simples. Legalito no puede formular sus propias estrategias legales ni adaptarse a situaciones complejas e imprevistas.
Nuestro enfoque: El desarrollo del chatbot fue un claro ejemplo de aprendizaje iterativo.
El Papel Actual de Legalito:
El valor principal de Legalito radica actualmente en:
Mejorar el Acceso a la Justicia: Hacer que la información legal y los servicios legales básicos sean más accesibles para el público en general, especialmente para aquellos que no pueden pagar un abogado.
Empoderar a los Ciudadanos: Proporcionar a los ciudadanos las herramientas que necesitan para comprender sus derechos y obligaciones legales.
Agilizar los Procesos Legales: Automatizar tareas rutinarias y reducir la carga de trabajo de los abogados.
Complementar, no Reemplazar, a los Abogados: Legalito está diseñado para ayudar a los abogados, no para reemplazarlos. Puede manejar tareas simples, liberando a los abogados para que se concentren en trabajos más complejos y estratégicos.
El Potencial Futuro de Legalito:
Legalito podría servir como una plataforma para desarrollar e implementar capacidades de IA agente más avanzadas en el futuro. Por ejemplo:
Integración con un Motor de Razonamiento: Legalito podría integrarse con un motor de razonamiento simbólico que podría analizar reglas legales y aplicarlas a patrones de hechos específicos.
Comprensión del Lenguaje Natural: Las capacidades mejoradas de comprensión del lenguaje natural podrían permitir a los usuarios interactuar con Legalito de una manera más natural e intuitiva.
Asesoramiento Legal Personalizado: Legalito podría proporcionar asesoramiento legal personalizado basado en la situación específica y las necesidades legales de un usuario (con las debidas precauciones y descargos de responsabilidad).
Generación Automatizada de Documentos: Legalito podría generar documentos legales más complejos (por ejemplo, escritos, mociones) basados en la entrada del usuario y el razonamiento legal.
Conclusión (de esta sección):
Legalito representa un paso valioso para hacer que los servicios legales sean más accesibles y eficientes en Argentina. Si bien no es un agente de IA legal totalmente autónomo, demuestra el potencial de la tecnología para transformar la profesión legal. A medida que la tecnología de IA continúe evolucionando, plataformas como Legalito podrían desempeñar un papel cada vez más importante para cerrar la brecha entre la promesa de la IA y la realidad de la práctica legal. También muestra cómo, incluso en su estado actual, la IA puede mejorar y ayudar tanto a los abogados como a los ciudadanos.
6. El Diálogo como Método: Explorando las Posibilidades y las Limitaciones
Esta sección resaltará el valor de nuestra conversación como una forma de explorar las complejidades de la IA y el razonamiento jurídico, ilustrar las limitaciones de los LLM actuales y generar ideas para el desarrollo futuro.
Este artículo en sí mismo no es solo una presentación de conclusiones; es un registro de un viaje. El diálogo entre un abogado (con experiencia práctica en el campo y en el desarrollo de herramientas legales impulsadas por IA) y un LLM avanzado (Gemini 1.5 Pro) fue fundamental para dar forma a las ideas presentadas aquí. Este enfoque conversacional, creemos, ofrece un método valioso para explorar la intersección de la IA y el derecho. Nos permite mostrar el razonamiento de la IA (o la falta de él) en tiempo real, y cómo la interacción con un experto humano puede conducir a una comprensión más profunda de los desafíos.
6.1. El Método Socrático en la Era Digital:
El formato de nuestra interacción refleja, en cierto modo, el método socrático: una forma de indagación y discusión basada en hacer y responder preguntas para estimular el pensamiento crítico e iluminar las presunciones subyacentes.
El Papel del Abogado: El abogado actuó como el interrogador, sondeando la comprensión de la IA de los conceptos legales, desafiando sus suposiciones y empujándola a ir más allá de las respuestas superficiales. El abogado proporcionó el contexto, la experiencia legal del mundo real y el juicio crítico que la IA carecía.
El Papel de la IA: La IA actuó como respondedor, intentando contestar las preguntas del abogado, generar texto y aplicar su conocimiento al problema en cuestión. Pero, crucialmente, la IA también sirvió como un espejo, reflejando las limitaciones de la tecnología LLM actual.
6.2. "Codificación" en Lenguaje Natural: Una Analogía Reveladora:
Una de las ideas clave que surgió de nuestro diálogo fue la analogía entre escribir un argumento legal y escribir código. Aunque aparentemente diferentes, ambas actividades comparten similitudes fundamentales:
Sistemas Formales: Tanto el lenguaje legal como los lenguajes de programación son sistemas formales con reglas específicas de sintaxis y semántica.
Precisión y Claridad: Ambos requieren precisión y claridad para evitar ambigüedades y asegurar una correcta interpretación.
Estructura Lógica: Ambos implican la construcción de secuencias lógicas para lograr un resultado deseado. Un argumento legal, como un programa de computadora, debe ser internamente consistente y lógicamente sólido.
Orientado a Objetivos: Ambos están orientados a objetivos. Un programa se escribe para realizar una tarea específica; un argumento legal se construye para lograr un resultado legal específico.
Iterativo: Ambos procesos pueden describirse como iterativos.
Así como un programador usa código para instruir a una computadora, un abogado usa el lenguaje para "instruir" a un juez (u otro tomador de decisiones legales). El "código" del abogado consiste en:
Hechos: Los "datos" del caso.
Leyes y Precedentes: Las "reglas" o "funciones" que gobiernan el caso.
Argumentos: El "programa" que combina hechos y reglas para llegar a una conclusión deseada.
Esta analogía nos ayudó a comprender por qué los LLMs, que están principalmente entrenados para generar texto basado en patrones estadísticos, tienen dificultades con el razonamiento legal. Pueden imitar la "sintaxis" del lenguaje legal, pero carecen de la comprensión profunda de la lógica subyacente y la capacidad de construir un argumento verdaderamente coherente y persuasivo. Son como un compilador que puede verificar errores de sintaxis pero no puede garantizar que el código realmente funcionará según lo previsto.
6.3. Ilustrando el Proceso de Aprendizaje:
A través de extractos seleccionados de nuestra conversación (adaptados y presentados aquí de forma concisa), podemos ilustrar cómo el diálogo condujo a una comprensión más profunda de los desafíos y posibilidades de la IA en el derecho:
Suposiciones Iniciales: La IA, al principio, abordó el razonamiento legal como una tarea de generación de texto. Podía producir texto que parecía un argumento legal, pero a menudo perdía matices clave o cometía errores lógicos.
"Por ejemplo, cuando se le pidió inicialmente que impugnara las excepciones, la IA se centró principalmente en la LCT, descuidando el aspecto crucial de la 'estabilidad' en el empleo público. Fue a través de preguntas iterativas que la IA comenzó a comprender la importancia de este concepto y sus implicaciones para el caso."
Identificación de Limitaciones: Las preguntas y desafíos del abogado obligaron a la IA a confrontar sus propias limitaciones. La IA no podía simplemente confiar en el reconocimiento de patrones o las correlaciones estadísticas; tenía que comprometerse con el significado de los conceptos legales y la lógica de los argumentos legales.
"Los intentos iniciales de la IA de definir 'estabilidad' fueron simplistas y basados en libros de texto. Tuvo dificultades para aplicar el concepto a los hechos específicos de la transferencia de una entidad provincial a una nacional. Esto resaltó la falta de comprensión contextual de la IA y su incapacidad para razonar sobre las consecuencias legales de las decisiones administrativas."
Desarrollo de Nuevas Ideas: El diálogo también sirvió como catalizador para nuevas ideas. La analogía de la "codificación" en lenguaje natural, por ejemplo, surgió de nuestra conversación y ayudó a clarificar la precisión y la estructura necesarias para el razonamiento legal.
"La discusión sobre las limitaciones de los LLM actuales condujo a la analogía de los 'loros estocásticos', que ilustra vívidamente la diferencia entre imitar el lenguaje y comprenderlo. Esto, a su vez, impulsó la exploración de arquitecturas alternativas para la IA legal."
Refinamiento Iterativo: El proceso de escribir el artículo en sí mismo (redactar, revisar, discutir y refinar) reflejó la naturaleza iterativa del razonamiento legal. Las respuestas de la IA se volvieron más sofisticadas y más relevantes a medida que avanzaba la conversación, reflejando una forma de "aprendizaje" impulsado por la retroalimentación humana.
"El proceso de contestar las excepciones, como se vio en ejemplos anteriores, puede describirse como iterativo. La capacidad de la IA para generar texto mejoró a través de la interacción con un abogado, quien identificó fallas y solicitó correcciones. Este proceso, en cierto sentido, se puede comparar con el trabajo real de los profesionales del derecho".
6.4. El Valor de la Colaboración:
Nuestro diálogo demuestra el potencial de la colaboración humano-IA en el campo legal.
Fortalezas Complementarias: El abogado aportó experiencia legal, juicio crítico y experiencia en el mundo real. La IA aportó potencia computacional, acceso a grandes cantidades de datos y la capacidad de generar texto de forma rápida y eficiente.
Sinergia: La combinación de estas fortalezas condujo a una comprensión más profunda del problema y al desarrollo de soluciones más innovadoras de lo que el abogado o la IA podrían haber logrado solos.
6.5 El problema de la "caja negra" y la necesidad de la interacción humana:
"Como se señaló antes, los LLM son una caja negra, es decir, un sistema cuyo proceso interno no se puede explicar".
"El método iterativo muestra cómo la interacción humana es un factor clave para guiar y mejorar el razonamiento de una IA, hasta que se logra un resultado satisfactorio.
Conclusión (de esta sección):
El formato de diálogo es más que una simple elección estilística. Es un método para explorar temas complejos, revelar suposiciones ocultas y generar nuevas ideas. Destaca las limitaciones de la tecnología de IA actual, pero también apunta hacia el potencial de la colaboración entre humanos e IA en el futuro del derecho. Al hacer visible el proceso de descubrimiento, esperamos fomentar una mayor discusión e innovación en este campo en rápida evolución.
Puntos Clave de esta Sección (expandida):
Diálogo como Método: Se presenta el diálogo como una metodología para la exploración y el descubrimiento, no solo como un formato de presentación.
Analogía Socrática: Se establece un paralelismo con el método socrático para resaltar el valor de la pregunta y el desafío en el proceso de aprendizaje.
"Codificación" Explicada: Se explica en detalle la analogía de la "codificación" en lenguaje natural, conectándola con los conceptos de sistemas formales, precisión, estructura lógica y orientación a objetivos.
Iterativo: Se explica y ejemplifica como fue el proceso de iteración, que permitió la evolución del artículo.
Fragmentos de la Conversación: Se utilizan ejemplos concretos de nuestra conversación para ilustrar los puntos clave.
Valor de la Colaboración: Se enfatiza la sinergia entre el conocimiento humano y la capacidad de la IA.
"Caja Negra" y la Interacción Humana: Se retoma el concepto de la "caja negra" para destacar la importancia de la interacción humana para guiar y mejorar el razonamiento de la IA.
Esta sección ahora no solo presenta el diálogo, sino que explica su valor y cómo contribuyó a las ideas del artículo.