Europa pasa el primer examen práctico al Reglamento de Servicios Digitales (DSA):

Así se miden los riesgos sistémicos de las grandes plataformas

Así se miden los riesgos sistémicos de las grandes plataformas

Tras 18 meses de aplicación del Reglamento de Servicios Digitales (DSA), la Comisión Europea ha publicado su primera revisión junto con un informe pionero sobre los riesgos sistémicos que generan las grandes plataformas. El diagnóstico es claro, pues el problema ya no reside únicamente en los contenidos ilegales puntuales, sino en cómo el propio diseño de los servicios digitales puede amplificar daños estructurales a la sociedad.

 

Para las plataformas de muy gran tamaño, el mensaje de Bruselas no deja lugar a dudas. Ya no basta con tener políticas de cumplimiento sobre el papel, sino que deben demostrar, con evidencias y trazabilidad, que gestionan efectivamente riesgos como la desinformación, la violencia de género online, la protección de menores o las amenazas a procesos electorales.

 

¿Qué obligaciones específicas impone el DSA a las grandes plataformas? ¿Cuáles son los cuatro bloques de riesgos sistémicos que ha identificado Europa? ¿Están estas organizaciones preparadas para acreditar ante la Comisión que cumplen con este nuevo paradigma regulatorio?

Cada día, millones de europeos navegamos por nuestras redes sociales favoritas, buscamos información en motores de búsqueda, compramos en marketplaces online o descargamos aplicaciones. Estas plataformas se han convertido en una parte esencial de nuestras vidas, influyendo en lo que compramos, cómo nos informamos, qué opiniones vemos e, incluso, cómo percibimos el mundo.

Durante años, este ecosistema digital funcionó con reglas propias, a menudo opacas e imposibles de fiscalizar. Entonces, ¿cómo asegurar que estas plataformas no generen daños a la sociedad?

El Reglamento de Servicios Digitales (conocido por sus siglas en inglés, DSA, Digital Services Act) fue la respuesta de la Unión Europea a esta pregunta. Aprobado en 2022 como parte de un ambicioso proyecto europeo para establecer reglas del juego claras en el entorno online, junto a su normativa hermana (el Reglamento de Mercados Digitales o DMA, centrado en la competencia del mercado), el Reglamento de Servicios Digitales pretende garantizar que el mundo digital sea un espacio seguro, predecible y respetuoso con los derechos fundamentales de los ciudadanos europeos.

El Reglamento de Servicios Digitales no regula igual a todos. Su filosofía es sencilla, pues cuanto mayor es el alcance de una plataforma, mayores son sus obligaciones.

Por eso establece una categoría especial para las llamadas plataformas y buscadores de muy gran tamaño (VLOPs y VLOSEs, por sus siglas en inglés). ¿El criterio? Tener más de 45 millones de usuarios activos mensuales en la Unión Europea, un umbral que equivale aproximadamente al 10% de la población comunitaria.

Estas plataformas gigantes (redes sociales, marketplaces, motores de búsqueda, tiendas de aplicaciones) están sometidas a un régimen reforzado de obligaciones. Entre ellas destaca una obligación crucial, pues deben identificar, evaluar y mitigar los llamados riesgos sistémicos que sus servicios puedan generar. Es decir, no basta con retirar contenido ilegal puntualmente, sino que deben examinar cómo el propio diseño de sus servicios (sus algoritmos de recomendación, sus sistemas de publicidad, sus interfaces, etc.) puede amplificar problemas graves como la desinformación, la violencia de género online, la protección de menores o las amenazas a procesos electorales.

Ahora, tras 18 meses de aplicación, la Comisión Europea ha completado su primera revisión del Reglamento de Servicios Digitales y ha publicado, junto con la Junta Europea de Servicios Digitales, el primer informe sobre los riesgos sistémicos que generan las grandes plataformas y las medidas que estas están adoptando para mitigarlos.

El umbral funciona, pero el panorama regulatorio se complica

La conclusión principal de esta primera revisión, que abarca el periodo entre febrero de 2024 y febrero de 2025, es que el sistema está funcionando según lo previsto.

El umbral de 45 millones de usuarios ha permitido capturar a los actores de mayor impacto sistémico. Hasta la fecha, se han designado 23 plataformas y 2 buscadores como sujetos a las obligaciones reforzadas, abarcando una gran diversidad de servicios, desde redes sociales y marketplaces hasta plataformas de contenido adulto, tiendas de aplicaciones y motores de búsqueda.

Lo más revelador es la velocidad a la que el entorno digital evoluciona. Algunas de las plataformas designadas ni siquiera operaban en Europa cuando se adoptó el Reglamento de Servicios Digitales. En apenas meses, pasaron de cero a decenas de millones de usuarios. Esto demuestra que el marco normativo es flexible y capaz de adaptarse a un ecosistema en constante transformación, donde los servicios integran cada vez más funcionalidades híbridas y donde la inteligencia artificial generativa empieza a difuminar las fronteras entre categorías tradicionales.

Por otro lado, la Comisión constata que el acervo normativo digital europeo se está volviendo extremadamente denso y complejo. El Reglamento de Servicios Digitales convive (y a veces se solapa) con múltiples normativas, como el Reglamento General de Protección de Datos (GDPR), el Reglamento de Mercados Digitales (DMA), la Directiva de Servicios de Comunicación Audiovisual, el Reglamento de Inteligencia Artificial, o normativas sobre propiedad intelectual, protección del consumidor y mercados digitales, entre otras. Este entramado de reglas genera duplicidades, tensiones y cargas administrativas que Bruselas reconoce abiertamente y promete abordar mediante una revisión estratégica y mayor coordinación entre autoridades.

Mapa de riesgos: cuando el problema no es solo el contenido, sino la arquitectura

El segundo documento clave es el primer informe anual sobre riesgos sistémicos, elaborado por la Junta Europea de Servicios Digitales en cooperación con la Comisión. Este texto es el resultado de analizar las evaluaciones de riesgos que las propias plataformas han presentado, junto con auditorías independientes, estudios académicos y aportaciones de organizaciones de la sociedad civil.

Lo que emerge de este análisis es que los riesgos sistémicos no se explican únicamente por la presencia de contenidos aislados problemáticos o por unos pocos actores malintencionados. El problema es estructural, profundamente vinculado al diseño de las interfaces, a cómo funcionan los sistemas de recomendación, a los modelos de monetización basados en la captación de atención y al uso de inteligencia artificial para generar o amplificar contenidos.

El informe identifica cuatro grandes bloques de riesgos sistémicos que aparecen de forma recurrente en las evaluaciones:

Aquí entran desde productos peligrosos o falsificados en marketplaces hasta material de abuso sexual infantil, contenidos terroristas, discurso de odio o servicios ilícitos. Las plataformas informan de técnicas cada vez más sofisticadas para evadir la detección, como el lenguaje codificado, uso de emojis, enlaces que redirigen a otras plataformas o espacios menos moderados. Los formatos de audio, podcasts y transmisiones en directo presentan desafíos particulares porque los sistemas de moderación automatizada están menos desarrollados para ellos.

Los sistemas pueden afectar al derecho a la libertad de expresión e información mediante sobre-moderación o infra-moderación de contenidos, generando autocensura o efectos paralizantes. La discriminación también emerge como riesgo sistémico, ya que los algoritmos de publicidad y recomendación pueden discriminar a ciertos grupos, mientras que la privacidad se ve amenazada por prácticas como el doxing (difusión de información personal), la vigilancia abusiva o la distribución de imágenes íntimas sin consentimiento. La protección del consumidor se ve comprometida por estafas financieras, productos no conformes, publicidad engañosa y reseñas falsas amplificadas por sistemas de monetización que incentivan el contenido clickbait.

El informe documenta campañas de desinformación y manipulación de la información, especialmente en contextos electorales. La polarización del debate público, la erosión de la confianza en instituciones democráticas y la desinformación durante crisis (inundaciones, terremotos, pandemias, conflictos armados, etc.) adquieren dimensión sistémica cuando los algoritmos amplifican narrativas sensacionalistas o falsas. La interferencia extranjera y el comportamiento coordinado no auténtico (cuentas falsas, bots, etc.) explotan las dinámicas de viralidad y compromiso para desestabilizar procesos democráticos.

La violencia de género online afecta desproporcionadamente a mujeres y niñas, especialmente de grupos marginados. Las plataformas son espacios donde proliferan el acoso sexual, la pornografía de venganza, la extorsión sexual y contenidos generados con inteligencia artificial que manipulan imágenes de mujeres sin su consentimiento. Los menores se enfrentan a riesgos específicos, entre los que se incluyen la exposición a contenidos nocivos, reclutamiento para actividades criminales, acoso entre pares, desafíos virales peligrosos y un ecosistema diseñado para maximizar el tiempo de pantalla que genera patrones de uso compulsivo. La desinformación sanitaria y los productos médicos no autorizados vendidos en marketplaces completan un cuadro preocupante sobre la salud física y mental de los usuarios, con efectos documentados sobre autoestima, imagen corporal, ansiedad y trastornos alimentarios.

Medidas de mitigación, aún en fase de consolidación

¿Qué están haciendo las plataformas para abordar estos riesgos? El informe identifica un conjunto de líneas de actuación recurrentes, aunque advierte que muchas de estas medidas están todavía en proceso de consolidación y efectividad pendiente de demostrar.

Entre las prácticas reportadas destacan los ajustes en el diseño de interfaces para introducir fricciones que desaceleren la viralidad, configuraciones más seguras por defecto para menores, limitación de funcionalidades de alto riesgo, revisión de términos y condiciones, combinación más sofisticada de moderación automatizada y humana (con atención a contextos lingüísticos y culturales locales), ajustes en sistemas de recomendación para promover diversidad y contenido de calidad, controles reforzados en publicidad, verificación de cuentas, detección de redes coordinadas, etiquetado de contenidos generados o manipulados por inteligencia artificial, y mayor cooperación con verificadores de confianza y organizaciones de la sociedad civil.

Sin embargo, el informe subraya que la mera existencia de estas medidas no garantiza su efectividad. El Reglamento de Servicios Digitales exige que las plataformas demuestren, con evidencias y trazabilidad, que sus sistemas de gestión de riesgos funcionan de forma real y operativa.

Implicaciones para la gobernanza: el reto de demostrar el cumplimiento

La lectura conjunta de la revisión del Reglamento de Servicios Digitales y del informe de riesgos sistémicos arroja varias implicaciones cruciales para las grandes plataformas.

  1. El Reglamento de Servicios Digitales se consolida como un régimen de gestión estructural de riesgos sistémicos, no como una simple lista de obligaciones puntuales. Las plataformas deben demostrar que disponen de procesos internos robustos para identificar, evaluar, mitigar y auditar riesgos de forma continua.
  2. La integración del Reglamento de Servicios Digitales en las estructuras de gobernanza corporativa se vuelve imprescindible. Esto implica definir roles y responsabilidades claros, articular flujos de información hacia la alta dirección y garantizar coherencia con otras normativas digitales y sectoriales en un entorno regulatorio cada vez más fragmentado.
  3. La capacidad de demostrar cumplimiento gana protagonismo. No basta con tener políticas escritas en papel, sino que hay que documentar el ciclo completo de gestión de riesgos (evaluaciones, decisiones, medidas adoptadas, resultados obtenidos) con una trazabilidad que resista el escrutinio de la Comisión, de los Coordinadores Nacionales de Servicios Digitales y de otras autoridades competentes. Las auditorías independientes son obligatorias, pero su calidad y rigor están también bajo lupa.
  4. La prioridad política en temas como protección de menores, violencia de género y salud anticipa un escrutinio reforzado en estas áreas sensibles, con posibles ajustes adicionales del marco normativo en el horizonte.

El cambio de paradigma ya está aquí

La primera revisión del Reglamento de Servicios Digitales y el informe sobre riesgos sistémicos no son ejercicios cosméticos ni administrativos. Indican que Europa está pasando de la fase de adopción normativa a la de aplicación efectiva y rendición de cuentas.

El diagnóstico de riesgos desplaza el foco, pues ya no basta con mirar qué contenidos se retiran, sino cómo el diseño de los servicios, los algoritmos y los modelos de negocio impactan de forma estructural en derechos fundamentales, procesos democráticos, protección de menores y salud pública.

Para las grandes plataformas, el reto presenta una doble dimensión. Por un lado, integrar el Reglamento de Servicios Digitales en su sistema de gobernanza y gestión de riesgos en coherencia con el resto del acervo digital europeo. Por otro, ser capaces de demostrar (con trazabilidad y evidencias) que la gestión de riesgos sistémicos es real y operativa, no meramente formal.

La pregunta que cierra estos informes sigue resonando. ¿Puede tu organización acreditar hoy ante Bruselas que está gestionando efectivamente los riesgos sistémicos? En los próximos años, la respuesta a esta pregunta determinará quién permanece en el mercado europeo y en qué condiciones. El ecosistema digital ha entrado en una nueva era, y el margen para la improvisación se está cerrando rápidamente.

En el equipo de TMT de New Law de PwC Tax & Legal estamos viendo en primera línea la complejidad de aterrizar la primera revisión del DSA y el nuevo enfoque de riesgos sistémicos en la operativa diaria de las grandes plataformas. Porque el reto ya no es solo cumplir sobre el papel, sino poder demostrar (con evidencias y métricas) que los riesgos sistémicos se gestionan de forma estructural, protegiendo a la vez a los usuarios, en especial a los menores, y la reputación de la compañía.

Artículo elaborado por Daniel Polanco Palacio, senior associate del sector Entretenimiento y Medios de PwC Tax & Legal y Ángela Saralegui Laurenz, associate del sector Entretenimiento y Medios de PwC Tax & Legal.

Contacta con nosotros

Álvaro Arroyo Sánchez

Álvaro Arroyo Sánchez

Senior Manager de NewLaw, PwC Tax & Legal