Industria
Estudios
IA

Concienciación, ética y capacitación: las claves de la IA responsable en el sector industrial

IndesIA y OdiseIA han presentado en el Espacio Fundación Telefónica el informe El uso responsable de la inteligencia artificial en el sector industrial, una guía de buenas prácticas destinadas a su implementación en el tejido empresarial español.

informe
Richard Benjamins ha sido el encargado de descifrar las claves del informe presentado en el Espacio Fundación Telefónica. Créditos: ComputerWorld.

Sobre las tablas del Espacio Fundación Telefónica, en el número tres de la calle Fuencarral, la importancia del desarrollo y uso responsable de la inteligencia artificial (IA) ha encarnado un indiscutible papel protagonista. Y es que la tecnología cuenta con un gran potencial transformador capaz de catapultar la competitividad de las empresas; sin embargo, también plantea sobre la mesa un conjunto de desafíos éticos y regulatorios que deben ser abordados con vehemencia y capacidad crítica. Precisamente por este motivo IndesIA, la asociación para el impulso de la economía del dato y la IA en la industria, junto con OdiseIA, el Observatorio de impacto social de la IA, han presentado en sociedad el informe El uso responsable de la inteligencia artificial en el sector industrial. Una especie de guía de buenas prácticas que, basada en la investigación científica, cuenta con el objetivo de “ayudar a las empresas españolas del sector industrial a seguir madurando su adopción y modelos de gobernanza de la IA”. Así lo ha avanzado Valero Marín, presidente de IndesIA, durante la inauguración del acto.

Partiendo del impacto transformador que tendrá el uso de la inteligencia artificial en nuestra sociedad y, por lo tanto, en la vida de las personas, Valero ha resaltado que “hay que garantizar que el desarrollo de la inteligencia artificial se haga acorde a unos principios éticos y regulatorios”. Así, ha asegurado que “la asociación está promoviendo el uso responsable de esta tecnología”, al mismo tiempo que ha apelado a “establecer una normativa que no frene el desarrollo de estas herramientas y que sea capaz de generar un marco de confianza que impulse su utilización entre las personas”. Por su parte, Idoia Salazar, su homónima en OdiseIA, ha defendido que, en la actualidad, el uso y desarrollo de la IA “no es una opción, es un deber”. Una obligación que, entiende, debe ser asumida desde la responsabilidad. “La IA, como toda tecnología, tiene una parte negativa que depende del uso del ser humano”, ha dicho. En este sentido, insistía, “la adquisición de la conciencia de esos riesgos es crucial”.

 

Idoia Salazar, durante el discurso de apertura del acto. Créditos: ComputerWorld.

 

Apelación a la responsabilidad social

Tras sus palabras, Richard Benjamins, cofundador de OdiseIA y Chief AI & Data Strategist en Telefónica, ha desgranado las principales conclusiones derivadas del informe y ha advertido que “aunque asegurar el uso ético de la IA es relevante para todos los sectores, su aterrizaje puede implicar matices específicos según el área de actividad”, como en el caso del sector industrial. Siguiendo esta misma estela ha descifrado algunos principios que deben regir el buen uso de la inteligencia artificial en las empresas, como la privacidad y gobernanza de los datos, la responsabilidad, la justicia, la transparencia y la explicabilidad. También ha insistido en la necesidad de supervisión humana en la aplicación de la IA y en las decisiones tomadas mediante herramientas autónomas, sobre todo en aquellas con impacto en las personas. Por este motivo, ha abogado por la necesidad de garantizar el acceso universal a la tecnología y trabajar de manera conjunta para que esta sea capaz de “ofrecer soluciones dirigidas a economizar los recursos y preservar el medio ambiente”.

Un llamamiento evidente a colaboración y a la responsabilidad social. En este sentido, las palabras de Salazar respaldaban las de su compañero: “Mantenemos la independencia, la excelencia es nuestro aval de trabajo, pero estamos abiertos, tal y como hemos venido haciendo, a la colaboración”. “Tenemos la convicción de que la colaboración conjunta de todos los actores involucrados nos ayudará a crear un mundo mejor a través de la IA”.

 

De la teoría a la práctica: aplicando la IA ética

Tras la presentación formal del informe ha tenido lugar una mesa redonda para abordar cómo  las compañías promueven el buen uso de la inteligencia artificial; han participado en ella Juan José Casado, CDO de Repsol; Joaquina Salado, Head of Al Ethics de Telefónica;  Adrián González Cloud, Data & Al for Public Sector de Microsoft; y Juan Manuel Belloto, director de OdiselA. Bajo la batuta de la codirectora de Educación de OdiselA, Rosa Romero, los expertos han abordado distintos casos prácticos directamente relacionados con la utilización responsable de estas tecnologías y han ofrecido una serie de pautas y aprendizajes para aquellas empresas que quieran implementar una IA con enfoque ético y responsable en el sector industrial.

Así, han indicado que lo primero que hay que tener en cuenta es que la manera de adaptar la IA al contexto interno dependerá de factores tales como la madurez general de la tecnología, el nivel de transformación digital de la organización o la naturaleza de las soluciones desarrolladas. El siguiente paso sería incentivar la discusión interna para elegir la lista de principios éticos de la empresa, conforme a su cultura y valores. Por otro lado, se deben entender los niveles de riesgo ligados a las actividades de IA, así como el impacto para los principios previamente seleccionados. Asimismo, es muy relevante elegir a las personas y departamentos involucrados en la iniciativa ética y planear recursos dedicados para la comprensión e implementación de los marcos regulatorios y de estandarización.

 

Celebración del panel de expertos en el marco de la presentación del informe. Créditos: ComputerWorld

 

El siguiente paso alude a la necesidad de diseñar y facilitar un programa de formación específico sobre la IA y su componente ético, un aspecto fundamental para desarrollar conocimiento y concienciación dentro de las empresas. Además, se debe establecer un entorno de pruebas con los profesionales que forman parte de los equipos de datos e IA para evaluar y seleccionar herramientas de inteligencia artificial responsable. La elección de dichas herramientas técnicas dependerá del conocimiento previo y la proactividad de los equipos técnicos y del liderazgo. En este sentido, IndesIA ha facilitado en este informe una lista de herramientas de valor probado, que además irá está evolucionando conforme al desarrollo de la tecnología.

Como broche final, Nuria Ávalos, directora general de IndesIA, ha asegurado que los próximos años serán decisivos para que las empresas españolas adopten la inteligencia artificial. Por ello, ha insistido en el compromiso de la asociación de “fomentar que la IA se utilice en las empresas industriales españolas. Cuanto más mejor, pero siempre desde un enfoque responsable, garantizando que los algoritmos sean éticos, transparentes, privados, seguros y sostenibles”.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS