Business Tecnology
CEO
Inteligencia artificial
Tecnología

La ética de la IA es responsabilidad de ejecutivos no técnicos en 64% de las empresas europeas

Un estudio de IBM muestra que existe un gran interés por crear estrategias de ética de la IA que sean sostenibles, diversas e inclusivas, pero advierte que menos de una cuarta parte de las organizaciones a nivel global ha llevado a cabo acciones concretas en este marco.

inteligencia artificial

Cada vez más, la tecnología en las empresas deja de ser terreno de los especialistas técnicos. Un nuevo estudio del Institute for Business Value (IBV) de IBM revela que en el 64% de las empresas encuestadas en Europa la responsabilidad de la ética de la Inteligencia Artificial (IA) que se implementa en las organizaciones recae sobre un ejecutivo no técnico.

En el 30% de los casos a nivel europeo el máximo responsable de la ética en la IA es el CEO, seguido de los miembros de la Junta Directiva (10%), los consejeros generales (5%), los responsables de privacidad (6%) y los responsables de riesgo y compliance (6%). 

 

Mucho interés, poca acción

La encuesta muestra que hay un fuerte interés de las empresas por fomentar una IA confiable y que tenga en cuenta cuestiones de sostenibilidad, responsabilidad social, diversidad e inclusión. A nivel global, el 79% de los CEO dice estar preparado para incorporar la ética en sus prácticas de IA, un notorio aumento desde 2018 en el que sólo alcanzaba un 21%. Asimismo, el 73% de los encuestados en Europa afirma que la ética es fuente de diferenciación competitiva

Sin embargo, el progreso en llevar a cabo acciones concretas es todavía demasiado lento. Mientras que el 42% de los encuestados europeos establece que sus organizaciones han creado mecanismos éticos específicos para IA (como un marco de evaluación de riesgos de proyectos de IA y un proceso de auditoría/revisión), menos de una cuarta parte de las empresas a nivel global ha empezado a operar esta ética.

En esta línea, el estudio de IBM muestra también que el 68% de las empresas encuestadas reconoce que tener un entorno laboral diverso e inclusivo es importante para mitigar el sesgo en la IA, pero los resultados muestran que los equipos de IA siguen siendo sustancialmente menos diversos que las plantillas generales: 5,5 veces menos inclusivos para las mujeres, cuatro veces menos inclusivos para las personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.

En este aspecto, Jesús Mantas, Global Managing Partner de IBM Consulting, señala que "a medida que muchas empresas utilizan hoy en día algoritmos de IA en su negocio, se enfrentan potencialmente a crecientes demandas internas y externas para diseñar estos algoritmos de forma que sean justos, seguros y dignos de confianza. Sin embargo, ha habido poco progreso dentro de la industria en la incorporación de la ética de la IA en sus prácticas". 

 

Abordando una estrategia ética de la IA

Los resultados del estudio de IBM sugieren que tener una estrategia ética de IA que permee todas las áreas de negocio aporta una ventaja competitiva a las organizaciones. Por eso, el informe entrega una serie de recomendaciones para los responsables de estas estrategias:

  • Adoptar un enfoque multifuncional y colaborativo del proceso de ética de la IA.
  • Establecer una gobernanza tanto organizativa como del ciclo de vida de la IA para hacer operativa la disciplina de la ética de la IA.
  • Ampliar la colaboración más allá de la propia organización, incluyendo la participación a socios tecnológicos clave, como académicos, startups y otros actores del ecosistema.

"Los resultados de nuestro estudio del IBV demuestran que la creación de una IA confiable es un imperativo empresarial y una expectativa de la sociedad, no solo una cuestión de compliance. En este sentido, las empresas pueden implementar un modelo de gobernanza e integrar los principios éticos en todo el ciclo de vida de la IA", puntualiza Mantas.



Registro:

Eventos:

 

Partnerzones

Revistas Digitales

DealerWorld Digital

IDG Research

Documentos ComputerWorld