Inteligencia artificial

Forrester aconseja a los responsables de TI medir y equilibrar la equidad en los modelos de IA

Eliminar el sesgo en la Inteligencia Artificial es cada vez más un problema a medida que más empresas la utilizan en sus servicios.

inteligencia artificial, IA
Créditos: Markus Winkler (Unsplash).

El sesgo en el desarrollo de la Inteligencia Artificial (IA) ha sido una preocupación creciente a medida que aumenta su uso en todo el mundo. Pero a pesar de los esfuerzos para crear estándares de IA, en última instancia, depende de las organizaciones y de los líderes de TI adoptar las mejores prácticas y garantizar la imparcialidad a lo largo del ciclo de vida de la IA para evitar cualquier impacto negativo en la regulación, la reputación y los ingresos, según un nuevo informe de Forrester Research.

Aunque es imposible eliminar el 100% de los sesgos en la IA, los directores de informática deben determinar cuándo y dónde se debe utilizar la IA y cuáles podrían ser las ramificaciones de su uso, según ha declarado el vicepresidente de Forrester, Brandon Purcell.

El sesgo se ha convertido en algo tan inherente a los modelos de IA que las empresas están estudiando la posibilidad de incorporar a un nuevo ejecutivo de nivel C, llamado director de ética, encargado de navegar por las implicaciones éticas de la IA, como considera Purcell. Salesforce, Airbnb y Fidelity ya tienen responsables de ética y se espera que otras empresas sigan su ejemplo, dijo a CIO.com.

 

Garantizar la equidad del modelo de IA

Los CIO pueden tomar varias medidas no sólo para medir sino también para equilibrar la imparcialidad de los modelos de IA, dijo, a pesar de que hay una falta de directrices reglamentarias que dicten los detalles de la imparcialidad.

El primer paso, considera Purcell, es asegurarse de que el modelo en sí es justo. Este especialista recomienda utilizar un criterio de equidad basado en la precisión que optimice la igualdad, un criterio de equidad basado en la representación que optimice la equidad y un criterio de equidad basado en el individuo. Las empresas deberían reunir varios criterios de equidad para comprobar el impacto en las predicciones del modelo.

Mientras que el criterio de imparcialidad basado en la precisión garantiza que ningún grupo del conjunto de datos reciba un trato preferente, el criterio de imparcialidad basado en la equidad garantiza que el modelo ofrezca resultados equitativos en función de los conjuntos de datos.

"La paridad demográfica, por ejemplo, pretende garantizar que un algoritmo seleccione proporciones iguales de grupos diferentes. Por ejemplo, un algoritmo de contratación optimizado para la paridad demográfica contrataría una proporción de candidatos masculinos y femeninos que sea representativa de la población general (probablemente 50:50 en este caso), independientemente de las posibles diferencias en las calificaciones", reconoce Purcell.

Un ejemplo de sesgo en la IA fue el modelo de la tarjeta de Apple que asignaba más créditos a los hombres, como se reveló a finales de 2019. El problema salió a la luz cuando el modelo ofreció al cofundador de Apple, Steve Wozniak, un límite de crédito 10 veces superior al de su esposa, a pesar de que comparten los mismos activos.

 

Equilibrar la equidad en la IA

Equilibrar la equidad en la IA a lo largo de su ciclo de vida es importante para garantizar que la predicción de un modelo esté cerca de estar libre de sesgos.

Para ello, las empresas deben solicitar la opinión de las partes interesadas para definir los requisitos empresariales, buscar datos de entrenamiento más representativos durante la comprensión de los datos, utilizar etiquetas más inclusivas durante la preparación de los datos, experimentar con la inferencia causal y la IA adversa en la fase de modelado, y tener en cuenta la interseccionalidad en la fase de evaluación, admite Purcell. La "interseccionalidad" se refiere a la forma en que varios elementos de la identidad de una persona se combinan para agravar los efectos de los prejuicios o los privilegios.

"Las correlaciones espurias son la causa de la mayoría de los prejuicios perjudiciales", dijo. "Para superar este problema, algunas empresas están empezando a aplicar técnicas de inferencia causal, que identifican las relaciones de causa y efecto entre las variables y, por tanto, eliminan las correlaciones discriminatorias". Otras empresas están experimentando con el aprendizaje adversarial, una técnica de aprendizaje automático que optimiza dos funciones de coste que son adversas.

Por ejemplo, Purcell tiene claro que “al entrenar su plataforma VisualAI para las cajas de los comercios, el proveedor de visión por ordenador Everseen utilizó el aprendizaje adversarial tanto para optimizar la detección de robos como para disuadir al modelo de hacer predicciones basadas en atributos sensibles, como la raza y el género". Al evaluar la equidad de los sistemas de IA, centrarse únicamente en una clasificación, como el género, puede ocultar el sesgo que se produce a un nivel más granular para las personas que pertenecen a dos o más poblaciones históricamente privadas de derechos, como las mujeres no blancas".

Este especialista de Forrester toma el ejemplo del trabajo seminal de Joy Buolamwini y Timnit Gebru sobre el sesgo algorítmico en el reconocimiento facial, que descubrió que la tasa de error del sistema de clasificación de género de Face++ era del 0,7% para los hombres y del 21,3% para las mujeres de todas las razas, y que la tasa de error se disparaba al 34,5% para las mujeres de piel oscura.

 

Más formas de ajustar la equidad en la IA

Hay un par de métodos más que las empresas podrían emplear para garantizar la equidad en la IA, entre los que se incluyen el despliegue de diferentes modelos para diferentes grupos en la fase de despliegue y el crowdsourcing con bias bounties, donde los usuarios que detectan sesgos son recompensados, en la fase de seguimiento.

"A veces es imposible adquirir suficientes datos de entrenamiento sobre grupos subrepresentados. Pase lo que pase, el modelo estará dominado por la tiranía de la mayoría. Otras veces, el sesgo sistémico está tan arraigado en los datos que ningún tipo de magia de datos podrá eliminarlo. En estos casos, puede ser necesario separar los grupos en conjuntos de datos diferentes y crear modelos distintos para cada grupo", afirma Purcell.

El sesgo en el desarrollo de la Inteligencia Artificial ha sido una preocupación creciente a medida que aumenta su uso en todo el mundo. Sin embargo, a pesar de los esfuerzos por crear normas de IA, en última instancia corresponde a las organizaciones y a los responsables de TI adoptar las mejores prácticas y garantizar la imparcialidad en todo el ciclo de vida de la IA para evitar cualquier impacto negativo en la normativa, la reputación y los ingresos, según un nuevo informe de Forrester Research.

Aunque es imposible eliminar el 100% de los sesgos en la IA, los directores de informática deben determinar cuándo y dónde debe utilizarse la IA y cuáles podrían ser las ramificaciones de su uso, estima el vicepresidente de Forrester.

El sesgo se ha convertido en algo tan inherente a los modelos de IA que las empresas están estudiando la posibilidad de incorporar a un nuevo ejecutivo de nivel C, llamado director de ética, encargado de navegar por las implicaciones éticas de la IA, en opinión de Purcell. Salesforce, Airbnb y Fidelity ya tienen responsables de ética y se espera que otras empresas sigan su ejemplo, cree aquel especialista.

 

 

 



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS