Durante los últimos años, el sector legal ha sido testigo de una evolución significativa en las herramientas tecnológicas disponibles. Inicialmente, muchas soluciones de automatización se limitaban a funciones básicas, como la búsqueda de información o la asistencia conversacional. Sin embargo, en la actualidad, la llegada de agentes de Inteligencia Artificial marca un punto de inflexión, ya que estos sistemas han alcanzado un nivel de autonomía y especialización que les permite abordar tareas complejas y adaptarse a las necesidades específicas del entorno legal.
A diferencia de las herramientas de IA conversacionales, los agentes de IA actuales no solo generan respuestas o textos, sino que son capaces de realizar diversos procesos dentro de parámetros definidos, interactuar con fuentes de datos y ejecutar acciones concretas en entornos reales. Estos agentes se integran activamente en los flujos de trabajo jurídicos, asumiendo responsabilidades que antes requerían intervención humana directa y aportando un valor añadido a través de la automatización de procesos estructurados y repetitivos.
La cuestión ya no es “¿puede la IA ayudarme?”, sino “¿cómo integro los agentes de IA en mis procesos legales de manera que pueda aprovechar al máximo su capacidad para eficientar, optimizar y aportar el valor añadido que ofrecen?”. Hoy el reto no es solo tecnológico, sino organizacional, estratégico y, sobre todo, práctico. Por eso, es importante definir el terreno que más nos importa como profesionales del derecho con respecto a los agentes de IA: qué pueden hacer ya, qué no pueden hacer todavía, y cómo decidir cuál utilizar en cada caso concreto.
En el ecosistema de herramientas basadas en IA, los agentes generalistas y los agentes especializados representan dos enfoques distintos con implicaciones prácticas muy diferentes para el sector legal. Los primeros, de carácter más amplio, están diseñados para ejecutar múltiples tareas en distintos contextos, sin estar necesariamente entrenados en un dominio concreto. Por ejemplo, los asistentes para la investigación, la búsqueda profunda o para el análisis de datos que han lanzado recientemente Copilot o ChatGPT permiten realizar tareas generales sin un enfoque definido.
Por el contrario, los agentes especializados se centran en una función concreta —como la revisión contractual o el análisis de cumplimiento normativo— y están desarrollados con una lógica y entrenamiento orientados exclusivamente a esa tarea.
En la práctica jurídica, la elección entre agentes de IA especializados y generalistas no debería plantearse en términos de “mejor o peor”, sino como una decisión basada en su adecuación al propósito específico. Ambos modelos tienen un papel relevante en el entorno legal, pero sus capacidades se manifiestan en contextos distintos. Entender esas diferencias es clave para diseñar flujos de trabajo que se ajusten a los resultados esperados, y así sacar el mayor provecho al potencial que los agentes de IA pueden ofrecer.
Los agentes generalistas están pensados para ser versátiles: pueden redactar textos, resumir información, traducir, buscar patrones o responder preguntas sobre una amplia gama de temas. Esta flexibilidad los convierte en herramientas útiles para tareas exploratorias, en las que lo importante es la amplitud más que la profundidad. Por ejemplo, un equipo jurídico que trabaja en un análisis de jurisprudencia puede utilizar un agente generalista para obtener un resumen o mapa argumental de una línea doctrinal sin la necesidad de analizar documentos manualmente.
Sin embargo, esta misma versatilidad implica que, en contextos donde se requiere mayor precisión técnica, control terminológico y cumplimiento estricto de políticas internas, los modelos generalistas pueden no ser suficientes. Aquí es donde entran los agentes especializados, diseñados para ejecutar tareas concretas con unos criterios preestablecidos y personalizados. Un agente entrenado exclusivamente para revisar cláusulas contractuales, por ejemplo, no solo identificará patrones comunes, sino que también podrá comparar un contrato frente a un playbook interno, advertir sobre desviaciones relevantes y proponer alternativas ajustadas a los criterios del cliente o la empresa. No improvisa, sino que sigue reglas claras dentro de un dominio definido.
En definitiva, la elección no es binaria. En lugar de pensar si un modelo sirve “para todo”, conviene preguntarse: ¿para qué lo necesito, en qué etapa del flujo legal, y con qué nivel de riesgo puedo operar? En algunas tareas será suficiente con una IA generalista bien parametrizada; en otras, necesitaremos la precisión quirúrgica de un agente especializado. Y en muchas, lo más eficaz será combinar ambos, integrados en sistemas donde cada uno aporte lo mejor de su arquitectura. Elegir el agente de IA adecuado debe ser resultado de una reflexión estratégica que parta de la tarea concreta que se quiere automatizar.
Más allá de lo anterior, un agente de IA, por muy sofisticado que sea, no es mejor que la cantidad y la calidad de los datos con los que trabaja. La diferencia entre una herramienta útil y una potencialmente peligrosa suele estar en el origen y en el acceso a la información que alimenta al modelo. Lejos de ser una barrera, contar con buenas fuentes jurídicas no solo mejora la precisión de los resultados, sino que acelera y simplifica los procesos, permitiendo que los agentes aporten verdadero valor en el trabajo legal cotidiano.
Una de las mayores diferencias entre un simple prompt y un agente de IA radica precisamente en que el agente es capaz de ejecutar un proceso más complejo, realizando varias tareas. Las limitaciones existentes en la actualidad relativas a la conectividad con otros sistemas donde se encuentra la información clave resultan de vital importancia para poder trabajar en la automatización de un proceso más complejo. Si la herramienta de IA no está conectada con la fuente jurídica oportuna o no es capaz de subir y/o actualizar un archivo que se encuentra en un repositorio, los agentes de IA serán incapaces de llevar a cabo estas tareas más complejas.
Sin una fuente sólida, los resultados pueden ser inservibles o, peor aún, engañosamente convincentes. Uno de los problemas más frecuentes en el uso de modelos de lenguaje en el sector legal es la aparición de lo que ya se conoce como “alucinaciones”: contenidos generados que tienen apariencia jurídica, pero que no se corresponden con ninguna fuente real. Citas jurisprudenciales inventadas, interpretaciones doctrinales que no existen o normas que han sido derogadas hace años son solo algunos ejemplos.
El secreto no está tanto en “corregir” a la IA, sino en alimentarla correctamente desde un principio. Cuanto más clara, actualizada y estructurada sea la información a la que accede, más certeros y ágiles serán los resultados. Este no es un trabajo artesanal ni excesivamente técnico, muchas organizaciones ya cuentan con bases sólidas de conocimiento y con otras herramientas tecnológicas que tienen información útil que puede ser procesada.
Integraciones con bases oficiales (como puede ser la integración de Lefebvre en la herramienta de Inteligencia Artificial Harvey) y estructuración básica de documentos bastan para empezar a trabajar con una base consolidada. La inversión inicial, además, se amortiza rápidamente en términos de reducción de tiempos y mejora de la calidad del output.
En esencia, los agentes de IA pueden operar sobre grandes volúmenes de información jurídica con una velocidad y eficiencia que serían imposibles de replicar manualmente. La clave no está en frenar a la IA por miedo al error, sino en facilitarle el terreno para que pueda desplegar todo su potencial.
Los agentes de IA representan una oportunidad única para optimizar y transformar el trabajo legal, siempre que se aborden los retos tecnológicos, organizativos y de calidad de datos de manera estratégica y consciente
La distinción entre agentes generalistas y especializados es fundamental: mientras los primeros ofrecen versatilidad y amplitud para tareas exploratorias, los segundos aportan precisión y control en procesos críticos y definidos. La elección entre uno u otro, o la combinación de ambos, debe basarse en el análisis de la tarea a automatizar, el nivel de riesgo aceptable y el valor añadido que se busca obtener.
Sin información fiable, actualizada y bien estructurada, incluso la IA más avanzada puede generar resultados erróneos o engañosos. Por ello, la inversión en la integración de bases de datos oficiales y la estructuración de la información es esencial para maximizar la eficiencia y la precisión de estos sistemas.
Artículo elaborado por Rocío Catalá Martínez, senior Manager del área NewLaw de PwC España, Jaime Pérez de Lamo, associate del área NewLaw de PwC España y Marta de Arespacochaga Cuina, associate del área NewLaw de PwC España.