OdiseIA, PwC, Google, Microsoft, IBM y Telefónica presentan la primera guía para el uso responsable de la IA

Madrid, 17 de febrero de 2022. OdiseIA -el Observatorio Del Impacto Social y Ético de la Inteligencia Artificial-, y PwC han lanzado hoy, con la colaboración de Google, Microsoft, IBM y Telefónica, la primera Guía de buenas prácticas para el uso de la Inteligencia Artificial ética elaborada en España. La guía es el primer resultado de una iniciativa que tiene como objetivo generar un ecosistema donde cualquier empresa/entidad pueda integrarse para compartir y conocer las mejores prácticas en el uso Inteligencia Artificial (IA) atendiendo a principios éticos y preceptos normativos. La presentación ha contado con la participación y el apoyo de Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial (SEDIA), que ha asegurado que “la IA nos presenta un nuevo escenario lleno de grandes incertidumbres que abordaremos desde una firme vocación ética y humanista".

El documento ha sido elaborado por un equipo multidisciplinar de más 30 de profesionales integrado por tecnólogos, juristas, y expertos en distintos campos de las citadas compañías y recoge un detallado estudio y un análisis jurídico de los principios éticos que aplican a la Inteligencia Artificial, realizado a partir del análisis de 27 iniciativas en todo el mundo. Pero, además, para aterrizar estos conceptos en el día a día de las empresas, incluye las tecnologías, herramientas y recomendaciones de Google, Microsoft e IBM para su gestión, así como la experiencia de Telefónica en este ámbito.

La guía cuenta con el apoyo de la Secretaría de Estado de Digitalización e Inteligencia Artificial, y responde al compromiso anunciado, el pasado 20 de noviembre, por parte de OdiseIA para su puesta en marcha. En los últimos tiempos, han ocurrido hechos importantes que han remarcado todavía la necesidad de esta iniciativa:  

  • En diciembre de 2020, la Secretaría de Estado de Digitalización e Inteligencia Artificial publicó la Estrategia Nacional de Inteligencia Artificial (ENIA), dedicando por entero uno de sus seis ejes a la necesidad de una Inteligencia Artificial ética y normativa.
  • En noviembre de 2021, la UNESCO publicó un informe sobre la ética de la Inteligencia Artificial donde se instaba a la creación de políticas y marcos normativos para asegurar que estas tecnologías emergentes benefician a la humanidad en su conjunto. 
  • En abril de 2021, la Comisión Europea presentó su propuesta para un marco regulatorio de la UE sobre el uso de la inteligencia artificial (AI Act). El proyecto de ley pretende establecer una regulación horizontal sobre la IA y, una vez aprobada, todas las empresas deberán ajustarse a ella en menos de dos años.

Más allá de la responsabilidad proactiva de las empresas en adoptar la IA de manera ética y responsable (algo que es necesario), ya se vislumbra la necesidad de estar preparados para cuando entren en vigor las obligaciones marcadas por la ley. A este respecto, iniciativas como la guía pueden ayudar a las empresas a conseguirlo.

El próximo paso de la Guía de buenas prácticas para el uso de la Inteligencia Artificial ética consistirá en aterrizarla a los distintos sectores de la actividad económica en nuestro país. De hecho, ya ha dado comienzo la segunda fase del proyecto encaminado a adaptarla a diez sectores empresariales de la mano de más de 50 empresas, empezando por los de seguros, publicidad y salud.

Para Juan Manuel Belloto, director de OdiseIA responsable de la iniciativa GuIA, “Las empresas, al igual que tienen políticas de comportamiento para sus empleados, tienen la responsabilidad de que su IA esté desarrollada bajo principios éticos. Al igual que en la sociedad, a la ética es necesario acompañarla de legislación. Y por primera vez la legislación no se está dejando esperar, un claro síntoma de su importancia en la IA. Otro síntoma de la importancia de este reto es ver como empresas con muchos negocios solapados se unen en GuIA para abordar este reto de forma conjunta.”

Para Idoia Salazar, presidenta de OdiseIA, “la IA está presente en muchos aspectos de nuestro día a día, algunos de ellos muy relevantes, pero si no se utiliza correctamente puede tener consecuencias poco deseables. Por ejemplo, la perpetuación de estereotipos o malas prácticas sociales, como la discriminación de minorías, razas o géneros, la opacidad de algunos de sus algoritmos, o la excesiva autonomía dada a estos sistemas. Por estos motivos es necesario el desarrollo de la ética asociada a la IA”. 

Armando Martínez Polo, socio de responsable de Tecnología en PwC España

“El uso ético y responsable de la Inteligencia Artificial es una obligación para cualquier compañía, y en los próximos años, con la aplicación de regulación específica no existirá la posibilidad de no prestar atención a este tema. Creemos que la aportación de la guía es fundamental para generar comunidad, y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco de trabajo sólido y apoyado en el uso de buenas prácticas."

Armando Martínez Polo, socio de responsable de Tecnología en PwC España

"La máxima de cualquier regulación de la Inteligencia Artificial debe fundamentarse en lograr los máximos beneficios para las personas, por lo que la involucración proactiva de todos en su desarrollo, implementación y correcta contextualización es clave para el futuro. Cómo se defina e implemente su marco normativo dependerá de nuestro ejercicio responsable como sociedad democrática y defensora de los derechos humanos".

Patricia Manca, socia responsable de Legal Management Services en PwC Tax and Legal
Patricia Manca, socia responsable de Legal Management Services en PwC Tax and Legal

“La inteligencia artificial es una tecnología que nos ayuda a enfrentar desafíos globales que van de la sostenibilidad a la accesibilidad pasando por la educación o la salud. La ética y la regulación son partes centrales en este avance y, por eso, apoyamos y participamos en proyectos como GuIA cuyo objetivo es facilitar el acceso de todos al conocimiento y a las herramientas que les permita desarrollar sus productos y servicios con responsabilidad”.

Miguel Escassi, director de políticas públicas y Asuntos con el Gobierno de Google

“Creemos en el potencial de la Inteligencia Artificial para mejorar nuestras vidas y tenemos que hacerlo para el beneficio de todos. Por primera vez tenemos sistemas que asumen el papel que juegan las personas, y debemos examinar los efectos sobre las personas y la sociedad. Responsible AI es la estrategia que adoptamos para desarrollar e implementar nuestra tecnología de manera que se cumplan nuestros principios de equidad, confiabilidad, privacidad y seguridad, transparencia, responsabilidad e inclusión y que sea accesible para todas las personas”.

Alberto Pinedo, National Technology Officer de Microsoft

"Hay que tener presente que el propósito de la IA es aumentar la inteligencia humana, que los datos y los conocimientos generados deben pertenecer a su creador, y que tecnologías tan nuevas y potentes como la IA deben ser transparentes, explicables y libres de sesgos perjudiciales para las personas si queremos que la sociedad confíe en ellas. Estos principios son fundamentales, pero estamos ya en un momento en el que hay que ir más allá y pasar a aspectos prácticos de implementación, a nivel de procesos y de tecnología, para poder gestionar y gobernar las soluciones de IA a lo largo de todo su ciclo de vida. Por ello, desde IBM aportamos procesos, servicios y una suite de herramientas específicas, nacidas de IBM Research y disponibles para todo el mundo, segmentadas en cinco áreas clave -explicabilidad, equidad, robustez, transparencia y privacidad- que han quedado muy bien descritas en la GuIA de OdiseIA”.

Enric Delgado Samper, CTO de IBM España, Portugal, Grecia e Israel

“El impacto que la Inteligencia Artificial va a tener en todos los sectores e industrias está ya fuera de toda duda, pero queda mucho camino a recorrer en formar a las organizaciones y a su fuerza de trabajo. Aplicar principios éticos en el campo de la Inteligencia Artificial se convertirá más en un deber que en una oportunidad para las compañías: si no tienes una IA ética, no existirás. Hay que capacitar a las organizaciones en lo que implica la aplicación de principios éticos en la Inteligencia Artificial. Éstos comienzan desde el mismo momento que las compañías recogen datos de los clientes hasta el momento de elección y aplicación de un algoritmo. La ética en la Inteligencia Artificial asegurará que esa caja negra (black box) en la que en ocasiones se posiciona a la Inteligencia Artificial, deje de serlo”.

Rodrigo Miranda, director general de la escuela de negocios ISDI

“En Telefónica nuestros principios sitúan a las personas en el centro y garantizan el respeto de los derechos humanos en cualquier entorno y proceso en el que se use la inteligencia artificial. Así, estamos trabajando para implementar, sobre la base ya existente de Privacidad por Diseño, una capa adicional que denominamos Ética por Diseño. En ella, implementamos técnicamente los valores y principios éticos durante el ciclo de vida de nuestros productos de Inteligencia Artificial, además de definir las técnicas organizativas necesarias para su consecución”.

Francisco José Montalvo, Chief Data Officer de Telefónica

Contacto

Fernando Natera, head of External Communication
es_pwcprensa@pwc.com

+34 915 684 493
+34 915 684 340

Síguenos en

Síguenos en Linkedin Síguenos en Instagram Síguenos en Twitter Síguenos en YouTube
Síguenos en