La irrupción de las IAs generalistas en el sector del Legaltech

La irrupción de las IAs generalistas en el sector del Legaltech

Hasta hace poco, la relación entre los grandes modelos de lenguaje y el sector legal seguía un patrón claro y estable. Empresas como Anthropic, OpenAI o Google desarrollaban los modelos fundacionales, y proveedores especializados de LegalTech los integraban en productos verticales con interfaces, flujos de trabajo y controles pensados para abogados. Los modelos eran la capa invisible. El producto legal lo construía otro.

 

Esa división ha empezado a romperse.

Lo que observamos desde principios de 2026 es un movimiento coordinado de las compañías de IA generalista hacia la capa de aplicación. Ya no ofrecen solo APIs y potencia de cálculo, sino flujos preempaquetados para funciones corporativas (ventas, finanzas, marketing…y legal), conectados a datos y herramientas empresariales.

Uno de los ejemplos más visibles es el de Anthropic. El mes pasado lanzó Cowork, un modo de trabajo agéntico para Claude, y pocas semanas después publicó once plugins especializados por función, incluido uno legal, distribuidos como código abierto en GitHub.

Pero no es un caso aislado.

Microsoft avanza con escenarios legales documentados dentro de Copilot para Microsoft 365 e integración con herramientas de gobierno como Purview, y OpenAI ofrece GPTs configurables con acciones conectables a APIs corporativas. La convergencia se articula sobre tres vectores: conectividad a datos empresariales, paquetización de tareas por función y garantías de empresa. Y todos apuntan en la misma dirección.

Lo relevante no es un plugin concreto, sino lo que este movimiento representa. La barrera entre "plataforma de IA" y "producto legal" se está difuminando, y eso cambia las reglas del juego.

Qué puede hacer hoy una IA generalista en un flujo legal

Conviene aterrizar el discurso. Cuando hablamos de "irrupción de la IA generalista en legal" no nos referimos a un modelo entrenado específicamente en Derecho. Hablamos de algo conceptualmente distinto y, en cierto modo, más disruptivo: paquetes de instrucciones, reglas de negocio (los llamados playbooks, es decir, manuales internos que recogen los criterios, posiciones y umbrales de negociación de una organización para cada tipo de cláusula) y conectores que convierten a un modelo de IA generalista en un asistente capaz de ejecutar flujos jurídicos paso a paso.

Para ilustrarlo, el plugin Legal de Claude Cowork permite ejecutar tareas como la revisión contractual cláusula por cláusula contra el playbook de la organización, con señalización por semáforo y sugerencias de redline listas para insertar. También permite el triage automatizado (es decir, la clasificación y priorización inicial) de NDAs entrantes, asignándolos a categorías de aprobación estándar, revisión por asesor o revisión completa. Incluye evaluación estructurada de riesgo en acuerdos con proveedores, generación de briefings contextuales y respuestas plantilla para consultas recurrentes como solicitudes de ejercicio de derechos de protección de datos.

Lo que diferencia esto de un mero asistente de redacción es la capacidad de conectarse a herramientas externas mediante protocolos como el Model Context Protocol (MCP), un estándar abierto para conexiones bidireccionales entre IA y sistemas corporativos (gestores documentales, Slack, Jira o Microsoft 365). Ello transforma a la IA de algo que simplemente genera texto a algo que opera dentro del contexto de tus asuntos, tus documentos y tus flujos reales.

Un nuevo mapa competitivo para LegalTech y LegalOps

¿Por qué debería importarle este movimiento a quien dirige un departamento legal, gestiona un programa de LegalOps o toma decisiones de inversión tecnológica en un despacho?

Porque cambia la pregunta fundamental sobre la que se construye la estrategia tecnológica.

Hasta ahora, elegir tecnología legal significaba comparar proveedores especializados entre sí. Ahora, la comparación incluye a los propios modelos generalistas, que empaquetan las mismas capacidades base y las ofrecen directamente, a menudo en código abierto y a coste marginal.

El riesgo real recae en aquellos proveedores cuya propuesta se ha convertido en un producto genérico, replicable y sin diferenciación real (¿por qué adquirir una herramienta que no ofrece más que lo que un plugin gratuito y personalizable ya proporciona?).

En cambio, las plataformas verticales de IA legal como Harvey, con datos propietarios (ya sea por haber construido sus propias bases de datos legales o contar con integraciones nativas con proveedores reputados), que se conectan con los sistemas donde la organización ya gestiona su documentación legal, y que incorporan un conocimiento estructurado del lenguaje y las categorías propias del Derecho, conservan una ventaja competitiva sólida.

No es lo mismo un modelo generalista que "sabe de todo" que una plataforma que ha sido entrenada y refinada específicamente para distinguir, por ejemplo, entre una cláusula de indemnidad y una de limitación de responsabilidad en el contexto de un contrato de servicios tecnológicos sujeto a Derecho español.

De esta forma, el panorama resultante puede entenderse como una convergencia de ofertas con fortalezas distintas. Los plugins de modelos fundacionales destacan por su editabilidad total y personalización directa, aunque sus controles de gobierno son aún inmaduros para entornos regulados. Los copilotos integrados en suites corporativas ofrecen integración nativa y controles empresariales maduros, pero con menor flexibilidad fuera de su ecosistema. Las plataformas verticales de IA legal aportan datos propietarios y compliance sectorial, aunque a un coste de licencia superior. Y la construcción interna con modelos abiertos ofrece control total, pero exige capacidad sostenida de LegalOps e IT.

La pregunta estratégica ya no es "¿cuál es la mejor herramienta?" sino "¿cuál es la combinación adecuada para mi nivel de madurez operativa, mis requisitos de gobernanza y mis casos de uso prioritarios?".

Donde la narrativa se encuentra con la realidad: riesgos que no se pueden ignorar

La capacidad técnica existe y mejora rápidamente. Pero el sector legal opera bajo exigencias de confidencialidad, secreto profesional, trazabilidad y responsabilidad profesional que convierten la gobernanza en el auténtico cuello de botella de la adopción.

Estos riesgos, bien entendidos, son gestionables. Pero gestionarlos exige un enfoque que combine conocimiento legal, tecnológico y regulatorio de forma simultánea.

Cowork de Claude, por ejemplo, opera actualmente en lo que se denomina research preview (una fase de acceso anticipado en la que el producto aún no está terminado y se ofrece para pruebas controladas), donde la actividad no aparece en los registros de auditoría, las conversaciones se almacenan localmente y los controles de acceso son limitados. Para entornos con obligaciones de retención, supone una barrera real, por lo que abordarla requiere definir qué se registra, dónde se almacena, quién accede y bajo qué condiciones antes de activar ninguna herramienta.

Los modelos pueden generar información jurídicamente plausible, pero incorrecta. En un dominio donde un error puede tener consecuencias económicas, reputacionales o regulatorias graves, la revisión humana no es una mera cortesía, sino una necesidad profesional y deontológica. La diferencia entre las organizaciones que gestionan bien este riesgo y las que no está en diseñar flujos de supervisión sistemáticos, con métricas de calidad y criterios de escalado claros, sin depositar toda la confianza en la diligencia individual de cada usuario.

En el contexto europeo, el uso organizativo de IA generativa con acceso a datos personales requiere, como mínimo, una evaluación de impacto cuando resulte aplicable, políticas de minimización y acuerdos contractuales adecuados. Las guías de la AEPD, el EDPB y la CCBE ofrecen marcos directamente aplicables, pero traducir esos marcos a decisiones operativas (qué datos se exponen, qué datos se anonimizan, qué cláusulas contractuales se exigen al proveedor) es un ejercicio que requiere experiencia regulatoria aplicada, no solo lectura de la norma.

Cuando una IA opera con acceso a archivos e internet, existe el riesgo de que instrucciones ocultas en documentos manipulen su comportamiento (inyección de prompt) o de que ejecute acciones no deseadas sobre ficheros reales. Mitigar este riesgo exige una arquitectura de permisos bien diseñada, pruebas de seguridad específicas y una selección rigurosa de los conectores que se habilitan.

Y, por supuesto, la responsabilidad sigue siendo del abogado. La documentación de estos plugins insiste expresamente en que los resultados deben ser revisados por profesionales colegiados. La responsabilidad profesional no puede delegarse en un modelo de lenguaje, por sofisticado que sea, por lo que cualquier programa de adopción necesita formación específica sobre los límites de la herramienta y protocolos de validación que protejan tanto al profesional como a la compañía.

Cómo abordar la adopción de forma responsable

En este contexto, la aproximación más eficaz para las organizaciones sigue un esquema progresivo, diseñado para generar aprendizaje real minimizando la exposición al riesgo.

Identificar uno o dos casos de uso de alto volumen y bajo riesgo (el triage de acuerdos de confidencialidad estándar, la revisión de un tipo contractual repetitivo o la generación de briefings internos). No se trata de transformar todo el departamento de golpe, sino de aprender en un perímetro controlado. La selección del caso de uso correcto es ya una decisión estratégica que condiciona el éxito de todo lo que viene después.

Construir un playbook que refleje las posiciones de negociación de la organización, los umbrales de riesgo y los criterios de escalado. Este ejercicio tiene un valor intrínseco enorme, independientemente de la herramienta elegida, pues obliga a explicitar criterios que a menudo viven solo en la experiencia acumulada del equipo y que rara vez están documentados. Las organizaciones que ya han recorrido este camino coinciden en que el playbook transforma la operativa legal mucho antes de que la IA entre en juego.

Diseñar un entorno controlado con acceso restringido, conectando únicamente los repositorios estrictamente necesarios y aplicando principios de minimización de datos. Establecer métricas de calidad y revisión humana obligatoria antes de que ningún resultado se incorpore a un proceso real. Formar a los usuarios en los riesgos específicos (alucinaciones, confidencialidad, etc.) y en los límites reales de la herramienta. 

Documentar los resultados del piloto, integrar las conclusiones en el registro de riesgos y, en su caso, en la evaluación de impacto correspondiente. La adopción responsable no se mide por la velocidad, sino por la solidez del proceso que la sustenta. Escalar sin haber evaluado es, con diferencia, el error más frecuente (y más costoso) que observamos en el mercado.

Conclusión: la diferencia la marca quien la gobierna

La historia de las últimas semanas no es sobre un plugin ni sobre una empresa concreta. Es la evidencia de un cambio estructural.

Los modelos fundacionales empaquetan flujos de trabajo profesionales, los distribuyen como código abierto y los conectan a las herramientas que los equipos ya utilizan. Esto acelera las posibilidades de construcción interna y cuestiona el modelo tradicional de compra de LegalTech.

Los modelos generalistas pueden convertir en genérico la primera pasada sobre un contrato, la clasificación de un acuerdo de confidencialidad o la redacción de un briefing. Pero la barrera competitiva sostenible ya no es la tecnología de IA en sí misma. Es la gobernanza, los datos propios, los precedentes internos, la redacción alineada a la práctica de cada organización y los controles de riesgo medibles.

El valor diferencial reside en todo lo que viene después de la automatización: el criterio, el contexto, la trazabilidad y la responsabilidad profesional.

La pregunta que cada despacho y cada departamento jurídico debería plantearse hoy no es si la inteligencia artificial transformará sus flujos de trabajo, porque eso ya está ocurriendo. La pregunta es si su organización está preparada para gobernar esa transformación de forma que capture el valor y gestione el riesgo de manera sostenible.

Contacta con nosotros

Blanca  Bardín

Blanca Bardín

Socia, PwC Tax & Legal