Diella, la nueva ministra generada por IA

Diella, la nueva ministra generada por IA
  • 25/09/25

Este artículo pone el foco en Diella, la primera Inteligencia Artificial en asumir funciones ministeriales en Albania, como respuesta innovadora para la mejora de la contratación pública. Más allá del impacto mediático, se analiza cómo esta IA abre debates sobre los retos legales y éticos de delegar decisiones gubernamentales en sistemas automatizados. Adicionalmente, se reflexiona sobre las preguntas que plantea para el futuro de la gestión pública: ¿puede la tecnología ser garante de transparencia y justicia, o sigue siendo imprescindible la supervisión y el juicio humano para equilibrar sus efectos?

Albania ha hecho historia al convertirse en el primer país que nombra a una Inteligencia Artificial (en adelante, “IA”) como ministra de estado para la IA para combatir la corrupción. El gobierno albanés ha presentado una IA que se encargará de gestionar y adjudicar todas las licitaciones del Estado, con el objetivo de lograr que los procesos de contratación pública sean “100% libres de corrupción”, según el primer ministro Edi Rama. Este hecho ocurre tras una serie de escándalos políticos que han perjudicado la imagen del país, frenando su proceso de adhesión a la Unión Europea.

La llegada de Diella marca un antes y un después en la gestión pública, abriendo el debate sobre el papel que puede desempeñar la IA en la toma de decisiones gubernamentales. ¿Por qué ahora? El nombramiento de Diella no solo refleja el impulso hacia la transformación digital, sino también la urgencia de recuperar la confianza de los ciudadanos en las instituciones públicas, apostando por una solución que permita mejorar la imparcialidad y transparencia en un contexto marcado por la desconfianza y la necesidad de cambio.

Gobernanza algorítmica: ¿utopía o distopía?

"No estoy aquí para sustituir a las personas, sino para asistirlas. Es cierto que no tengo ciudadanía, pero tampoco tengo ambiciones ni intereses personales”, declaró Diella en su primera intervención pública en el parlamento albanés. Con estas palabras resume la promesa utópica detrás de la iniciativa: una figura artificial que podría dedicarse exclusivamente a servir al interés público con objetividad.

Con Diella, Albania busca mejorar y reducir las irregularidades en los procedimientos de contratación pública, eliminando la intervención humana en las adjudicaciones para evitar tratos de favor. Esta IA revisará todas las ofertas, comprobará requisitos y evaluará puntuaciones técnicas y económicas, dejando un registro público y detallado de cada paso. El resultado esperado es poner fin a los favoritismos: ninguna empresa vinculada a un partido tendrá ventaja, ni habrá lugar para relaciones de conveniencia, pues la IA carece de amigos, familia e intereses propios– “no tiene primos, y los primos son un gran problema en Albania” bromeó Rama, aludiendo a las prácticas de conveniencia frecuentes en el país. 

Ahora bien, desde el punto de vista jurídico la figura de Diella resulta especialmente singular. La Constitución albanesa exige que los ministros sean personas físicas con plena capacidad, por lo que su nombramiento carece de efectos jurídicos plenos y se circunscribe, en esencia, a un acto administrativo y simbólico. Sin embargo, más allá de su valor representativo, esta designación evidencia las limitaciones de la actual infraestructura normativa, que aún está lejos de poder regular adecuadamente iniciativas tan innovadoras como esta.

En España, la situación es similar. La Ley 50/1997 del Gobierno, en su artículo 11, establece requisitos asociados al desempeño del cargo de ministro —como ser mayor de edad o disfrutar de derechos de sufragio— que únicamente pueden cumplir las personas físicas. Así, se entiende implícitamente que solo estos sujetos pueden ocupar cargos ministeriales, descartando la posibilidad de que una IA asuma tales funciones en nuestro ordenamiento.

El reto: implicaciones legales y éticas

El auge de Diella plantea una preocupación real: ¿puede una IA ser realmente imparcial y eficaz en la lucha contra la corrupción? La premisa del gobierno albanés es que, al carecer de intereses personales, la IA estaría blindada frente a influencias y conflictos de interés que han afectado históricamente la contratación pública en el país. Sin embargo, la imparcialidad algorítmica no está garantizada por defecto. Los modelos de IA pueden reproducir sesgos presentes en los datos históricos, legitimando prácticas corruptas si no se supervisan adecuadamente. De hecho, si la información de base está sesgada o incompleta, la IA puede llegar a tomar decisiones erróneas o injustas.

Para que las reformas anticorrupción basadas en la IA tengan éxito, es necesario aclarar los mecanismos y mediciones en las que se basa el impacto esperado, así como desarrollar una definición específica de las conductas indebidas que se pretenden combatir en su contexto sectorial. La tecnología basada en IA debe ser diseñada y adaptada con conocimientos tecnológicos adecuados para hacerse cargo de las tareas clave de extraer y cotejar grandes conjuntos de datos, con el objetivo de vigilar identificar, informar y predecir sospechas relacionadas con claros casos ilícitos, en este contexto, gestionar y adjudicar todas las licitaciones en Albania.

En este sentido, es importante imponer a las entidades contratantes la obligación de garantizar que la información relativa al proceso de adjudicación sea accesible. Esto incluye, necesariamente, la metodología empleada por los sistemas automatizados, asegurando que los criterios y procesos puedan ser entendidos y, en su caso, cuestionados. En segundo término, el acceso se erige también como una garantía fundamental en el marco del derecho administrativo. La utilización de sistemas de IA no puede, bajo ninguna circunstancia, suponer un obstáculo para que las partes interesadas interpongan los correspondientes recursos administrativos o contencioso-administrativos previstos por el ordenamiento.

Por su parte, la explicabilidad de los sistemas de IA constituye un eje crítico en la contratación pública. Este concepto se refiere a la capacidad de los sistemas para proporcionar justificaciones claras, comprensibles y auditables sobre sus decisiones, en cumplimiento de los estándares de imparcialidad y objetividad que exige esta materia. Para garantizar la explicabilidad, se pueden identificar diversos instrumentos esenciales. Uno de ellos son las auditorías, previstas, por ejemplo, en el Reglamento de Inteligencia Artificial (RIA), que permiten la verificación por parte de expertos independientes de la adecuación de los algoritmos empleados, con especial atención al respeto de los principios de igualdad y no discriminación.

Además, la falta de empatía y juicio contextual de la IA puede llevar a decisiones excesivamente inflexibles, sin considerar el impacto social o humano de las adjudicaciones (ej. que no defina una solvencia económica y técnica ajustada a las particularidades del contrato para facilitar la participación de PYMEs). El impacto en los pequeños proveedores y contratistas. Las plataformas digitales y los algoritmos de evaluación podrían favorecer, de manera involuntaria, a grandes empresas que cuentan con más recursos tecnológicos y experiencia en licitaciones complejas. Esto podría excluir a pequeños actores, que a menudo carecen de la capacidad técnica para adaptarse a las nuevas herramientas. Es fundamental diseñar sistemas que sean accesibles y equitativos, permitiendo que todos los proveedores, independientemente de su tamaño, participen en condiciones de igualdad.

La gobernanza algorítmica exige, por tanto, mecanismos de supervisión humana, auditoría y transparencia para evitar que la “objetividad” de la IA se convierta en una nueva forma de arbitrariedad o injusticia.

Desde la perspectiva legal, uno de los mayores desafíos radica en determinar quién asume la responsabilidad por las decisiones adoptadas por la IA. Jurídicamente, una IA no es una persona ni tiene personalidad jurídica; no puede ser “responsable” ante la ley por sus actos. Así, la cuestión de la responsabilidad última genera un vacío legal: si la IA comete un error grave, ¿quién responde?

Como puede apreciarse, los riesgos asociados a esta iniciativa alcanzan dimensiones técnicas, éticas y jurídicas que requieren especial atención. No se trata de demonizar la idea, sino de reconocer que un proyecto tan innovador conlleva un amplio abanico de desafíos.

El futuro hacia gobiernos híbridos y nuevas competencias profesionales.

¿Podrían otros países seguir el ejemplo de Albania?

En países donde la corrupción es un problema persistente, la tentación de aplicar una “solución tecnológica” cobra especial relevancia. Gobiernos sometidos a presión —tanto interna como internacional— para reducir o incluso eliminar prácticas corruptas podrían considerar la adopción de sistemas automatizados similares, especialmente si Diella demuestra resultados positivos en términos de transparencia y eficiencia.

Sin embargo, en democracias más consolidadas existen barreras legales y culturales significativas. La Unión Europea, por ejemplo, exige que los sistemas de IA considerados de alto riesgo en la Administración Pública cumplan estrictos estándares de transparencia y supervisión.

El artículo 13 del RIA establece garantías de transparencia estableciendo las instrucciones de uso que deben contener los sistemas de IA de alto riesgo. Así, la norma establece un marco normativo para garantizar la transparencia y la responsabilidad en el diseño, desarrollo y despliegue de sistemas de IA de alto riesgo. Este nivel de detalle busca facilitar el control y la supervisión humana, en línea con las medidas técnicas de interpretación mencionadas en el artículo 14 del mismo RIA.

El art. 14.1 del RIA dispone que: «Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva por personas físicas durante el período que estén en uso, lo que incluye dotarlos de herramientas de interfaz humano-máquina adecuadas». Esta formulación implica la vigilancia y control adecuado de los sistemas de IA por parte de seres humanos (véase Considerando 27). Asimismo, en el inciso 3º del mismo precepto se indica que: «Las medidas de supervisión serán proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del sistema de IA de alto riesgo» y en el apartado 4º que: «las personas físicas a quienes se encomiende la supervisión humana puedan (…) d) decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o descartar, invalidar o revertir los resultados de salida que este genere; e) intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema pulsando un botón de parada o mediante un procedimiento similar que permita que el sistema se detenga de forma segura».

Además, la legitimidad democrática de las decisiones automatizadas sigue siendo objeto de debate: en Suecia, el uso de ChatGPT por parte del primer ministro generó críticas por la falta de control sobre la fiabilidad, la privacidad y los posibles sesgos en decisiones políticas.

En definitiva, si bien la experiencia albanesa puede servir de inspiración para impulsar reformas en la gestión pública de otros países, la viabilidad de replicar este modelo dependerá de su capacidad para adaptarse a los marcos jurídicos, culturales y democráticos propios de cada país.

En este contexto, Diella marca un punto de inflexión en la relación entre IA y Administración Pública, anticipando un futuro donde los gobiernos híbridos —compuestos por humanos e IAs— serán cada vez más habituales.

Artículo elaborado por Rocío Catalá Martínez, senior manager del área NewLaw de PwC España, Sara de Pablo Yángüez, senior associate del área NewLaw de PwC Tax & Legal y Marta de Arespacochaga Cuiña, associate del área NewLaw de PwC Tax & Legal.

Contacta con nosotros

Fernando Fernández-Miranda

Fernando Fernández-Miranda

Socio responsable de NewLaw Pulse, PwC Tax & Legal