La Agencia Española de Protección de Datos (en lo sucesivo, “AEPD”) ha publicado una Guía específica sobre el uso de imágenes de terceros en sistemas de inteligencia artificial (en lo sucesivo, la “Guía”) que marca un punto de referencia en la evaluación de riesgos visibles y no visibles, y en la identificación de escenarios que merecen prioridad regulatoria por su especial gravedad.
La Guía parte de una premisa esencial: toda imagen o vídeo en que una persona sea identificada o identificable constituye un dato personal, con independencia de si el contenido es real, modificado o generado por Inteligencia Artificial (en lo sucesivo, “IA”), de modo que el mero hecho de subir, reenviar, transformar o generar contenido visual a partir de esa imagen supone un tratamiento de datos personales. Sobre esa base, la AEPD estructura el análisis en tres planos: impactos visibles, impactos no visibles por el solo hecho de cargar la imagen en la herramienta, y situaciones especialmente relevantes para la autoridad.
Asimismo, el documento pone el acento en la responsabilidad proactiva y en la necesidad de integrar la perspectiva de privacidad desde el diseño y por defecto en cualquier interacción con imágenes de terceros, tanto si se trata de pruebas, prototipos o usos en producción. Esta aproximación exige conectar la Guía con los principios del Reglamento General de Protección de Datos o Reglamento 2016/679 (en lo sucesivo “RGPD”), con las obligaciones de gobernanza de datos, con el marco europeo de IA y con las medidas contractuales y técnicas que deben exigirse a proveedores de herramientas basadas en modelos de IA.
La Guía delimita con claridad el alcance material: una persona puede ser identificable por rostro, voz, cuerpo, gestos, vestimenta, tatuajes, entorno o relaciones, así como por combinaciones de dichos elementos, incluso si la imagen original se ha alterado. Por tanto, la utilización de herramientas de IA para manipular o generar imágenes a partir de fotos de terceros, aun con fines aparentemente triviales o lúdicos, puede entrañar impactos y riesgos relevantes que deben valorarse en cada caso, incluso cuando la imagen corresponda a una persona fallecida.
En la práctica, esto implica reconocer que existen múltiples vectores de identificación: además del patrón facial o vocal, rasgos como contexto espacial, dispositivos o hábitos capturados en la escena pueden permitir correlaciones que reidentifiquen a la persona. Incluso cuando el rostro se difumina o se altera, la combinación de señales y metadatos puede restaurar la conexión con el interesado, lo que refuerza la necesidad de evaluar usos y finalidades en clave de minimización y proporcionalidad.
La Guía de la AEPD ofrece un marco claro y aplicable para valorar riesgos visibles y no visibles en el uso de imágenes de terceros en sistemas de IA, y para identificar situaciones prioritarias que requieren cautelas reforzadas o actuaciones específicas. Desde una perspectiva de cumplimiento, el hecho central es que el tratamiento se produce ya al subir la imagen, debiendo anticiparse la pérdida de control, la opacidad técnica y la reutilización -propia o derivada, que caracterizan estos entornos. Integrar estos criterios en políticas internas, en la selección y contratación de proveedores y en la evaluación caso a caso de usos y finalidades permitirá mitigar riesgos significativos y alinear prácticas con las expectativas regulatorias emergentes en materia de IA e imágenes.
El objetivo no es frenar la innovación, sino encauzarla con salvaguardas realistas que preserven la confianza y la seguridad jurídica. Una aproximación escalonada, empezando por pruebas controladas, pasando por pilotos con evaluación y culminando en despliegues con garantías, maximiza el valor empresarial y reduce el coste regulatorio y reputacional.
¿Quieres identificar si tus casos de uso con imágenes de terceros activan riesgos visibles o “silenciosos” y qué medidas priorizar?
Artículo elaborado por Naarahi González Ponce, manager de Regulación Digital de PwC Tax & Legal, y Paula Núñez Vázquez, associate de Regulación Digital de PwC Tax & Legal.