La inteligencia artificial (IA) ya no es un tema secundario en las empresas: está en el centro de la estrategia, las operaciones, la innovación y el crecimiento. A medida que la IA continúa transformando los modelos de negocio y abre nuevas oportunidades, los consejos de administración, y sobre todo los comités de auditoría, deben vigilar los riesgos que conlleva su uso. Aunque la IA ofrece grandes ventajas, también implica riesgos. Para aprovecharla al máximo, las empresas necesitan marcos claros de gobernanza, gestión de riesgos y control.
El informe "Oversight in the AI era: understanding the audit committee’s role" analiza esta situación y plantea seis áreas clave de supervisión de riesgos para los comités de auditoría:
La IA está optimizando estos informes mediante la automatización, la previsión y la elaboración de informes. Los comités de auditoría deben garantizar que los controles internos sobre los informes financieros estén actualizados, que se gestionen los riesgos y que la supervisión humana valide los resultados de la IA.
La IA se utiliza para optimizar la planificación, las pruebas y la generación de informes. Los comités de auditoría deben garantizar una gobernanza sólida de estas herramientas y entender cómo la IA está transformando las estrategias y las habilidades de auditoría.
Los auditores externos están adoptando la IA para mejorar la eficiencia y la comprensión de las auditorías. Los comités de auditoría deberían preguntarse cómo se prueban estas herramientas, cómo se gestionan los riesgos y cómo responden los reguladores.
La IA facilita el cumplimiento normativo mediante la monitorización del comportamiento, el análisis de la normativa y la detección del fraude. Sin embargo, también hay que considerar el uso ético y el posible uso indebido. Los comités deben supervisar la gestión de la IA, garantizar su uso ético y prevenir usos indebidos como deepfakes o phishing.
La IA puede mejorar la identificación y predicción de riesgos. Los comités de auditoría deben garantizar la plena integración de los riesgos de la IA en los programas de ERM (gestión de riesgos) y la correcta gestión y monitorización de los modelos de alto riesgo.
La IA mejora tanto la ciberdefensa como las ciberamenazas. Los comités deben colaborar con los responsables de seguridad para comprender cómo se utiliza la IA para la detección de amenazas y cómo la empresa se protege frente a ataques impulsados por la IA.
© 2016 - 2026 PwC. Todos los derechos reservados. No se permite la distribución adicional sin autorización de PwC. “PwC” hace referencia a la red de firmas miembros de PricewaterhouseCoopers International Limited (PwCIL) o, según cada caso concreto, a firmas miembros individuales de la red PwC. Cada firma miembro es una entidad jurídica independiente y no actúa como agente de PwCIL ni de ninguna otra firma miembro. PwCIL no presta servicios a clientes. PwCIL no se responsabiliza ni responde de los actos u omisiones de ninguna de sus firmas miembros, ni del contenido profesional de sus trabajos ni puede vincularlas u obligarlas en forma alguna. De igual manera, ninguna de las firmas miembro son responsables por los actos u omisiones del resto de las firmas miembros ni del contenido profesional de sus trabajos, ni pueden vincular u obligar ni a dichas firmas miembros ni a PwCIL en forma alguna.