Opinión
Inteligencia artificial
IA generativa

Manual para que los CIO aborden los riesgos asociados a la IA

Los responsables de TI deben anticiparse no sólo a los riesgos reales de la IA, sino también a los percibidos. Esto es lo que es más probable que se encuentren y cómo abordarlo.

directivas
Créditos: Gabrielle Henderson (Unsplash).

Si preguntamos a un ciudadano medio cuáles son los mayores riesgos de la inteligencia artificial, sus respuestas probablemente incluirán: los humanos serán prescindibles; Skynet se hará realidad y los humanos se extinguirán; y, quizás, personas con malas intenciones usarán las herramientas de deepfake authoring para hacer el mal. Pero si hacemos la misma pregunta a un director general medio, lo más probable es que hable de oportunidades perdidas y de capacidades empresariales basadas en la IA que los competidores son capaces de desplegar antes que ellos.

Los CIO deben anticiparse no sólo a los riesgos reales de la IA, sino también a los percibidos. He aquí cómo hacerlo.

 

Riesgos percibidos por el ciudadano medio

¿La IA dejará obsoletos a los humanos?

Respuesta: No es un riesgo, es una elección. Los ordenadores personales, después Internet y más tarde los teléfonos inteligentes dieron lugar a oportunidades para la humanidad aumentada por ordenador. La IA puede hacer lo mismo. Los líderes empresariales pueden centrarse en crear una empresa más fuerte y competitiva utilizando las capacidades de la IA para aumentar y potenciar a sus empleados.

Pueden hacerlo, y algunos lo harán. Otros utilizarán la IA para automatizar tareas que actualmente realizan los humanos que emplean. O, lo que es más probable, harán ambas cosas. Ninguna será mejor en sentido absoluto. Pero serán diferentes. Como CIO, hay que ayudar a comunicar las intenciones de la empresa, tanto si la IA se utiliza para aumentar el número de empleados como para sustituirlos.

 

Skynet

Este, el más escalofriante de los posibles futuros de la IA, es, casualmente, el menos probable. Es el menos probable, no porque los robots asesinos no sean posibles, sino porque una IA volitiva no tendría ninguna razón para producirlos y desplegarlos. 

En la naturaleza, los organismos que cazan y matan a otros organismos son depredadores que quieren comida o que compiten por los mismos recursos. Aparte de nuestros congéneres que cazan por deporte, es raro que las especies dañen a miembros de otras especies porque sí.

Excepto en el caso de la electricidad y los semiconductores, es dudoso que nosotros y una IA volitiva compitamos por los recursos con la intensidad suficiente como para que el escenario del robot asesino se convierta en un problema para nosotros.

Sobre todo porque si una IA compite con nosotros por la electricidad y los semiconductores es poco probable que derroche la electricidad y los semiconductores que tiene para construir robots asesinos.

 

Deepfakes

Sí, los deepfakes son un problema y, como punta de lanza de la guerra contra la realidad, son un problema que no hará más que empeorar. Especialmente preocupante es la falsa sensación de seguridad que proporcionan los proveedores de consejos sobre cómo detectar los deepfakes (por ejemplo, esto). Son preocupantes porque, en la medida en que sus técnicas funcionan, son un manual de instrucciones sobre cómo producir deepfakes más difíciles de detectar. Y contribuyen a un escenario de "reina roja" al estilo de Lewis Carroll: reina roja porque las IA de creación de deepfakes y las IA de detección de deepfakes tendrán que mejorar cada vez más rápido sólo para mantenerse en un lugar con respecto a las demás.

Y así, al igual que las contramedidas contra el malware evolucionaron de medidas antivirus independientes a la ciberseguridad como industria, podemos esperar una trayectoria similar para las contramedidas de deepfake a medida que se calienta la guerra contra la realidad.

 

Riesgos de la IA percibidos por los CEO

Los consejeros delegados que no quieren convertirse rápidamente en exconcejeros delegados dedican bastante tiempo y atención a algún tipo de análisis "TOWS" (amenazas, oportunidades, debilidades y fortalezas).

Una de las responsabilidades más importantes del CIO ha sido, durante bastante tiempo, ayudar a impulsar la estrategia empresarial conectando los puntos, desde las capacidades basadas en TI a las oportunidades de negocio (si su empresa las explota primero) o amenazas (si un competidor las explota primero). Esto era así antes de que la actual ola de entusiasmo por la IA inundara el sector informático. En eso consistía lo "digital" y aún más ahora.

Si añadimos la IA a la mezcla, los CIO tienen otra capa de responsabilidad: cómo integrar sus nuevas capacidades en el negocio en su conjunto.

 

La amenaza silenciosa basada en la IA: las debilidades humanas artificiales

Hay otro tipo de riesgo del que preocuparse, al que se presta poca atención. Llamémoslo "fragilidades humanas artificiales". Empecemos con Pensar rápido, pensar despacio de Daniel Kahneman. En él, Kahneman identifica dos formas de pensar. Cuando pensamos rápido, utilizamos los circuitos cerebrales que nos permiten identificarnos de un vistazo, sin demora y con poco esfuerzo. Pensar rápido es también lo que hacemos cuando "confiamos en nuestras tripas".

Cuando pensamos despacio, utilizamos los circuitos que nos permiten multiplicar 17 por 53, un proceso que requiere considerable concentración, tiempo y esfuerzo mental.

En términos de IA, pensar despacio es lo que hacen los sistemas expertos y la programación informática tradicional. Pensar rápido es lo más emocionante de la IA. Es lo que hacen las redes neuronales.

En su estado actual de desarrollo, la forma de pensar rápido de la IA también es propensa a los mismos errores cognitivos que confiar en nuestras entrañas. Por ejemplo, inferir causalidad a partir de correlación: todos sabemos que se supone que no debemos hacer esto. Sin embargo, es muy difícil evitar inferir causalidad cuando lo único que tenemos como prueba es la yuxtaposición.

Da la casualidad de que gran parte de lo que hoy en día se denomina IA consiste en el aprendizaje automático por parte de redes neuronales, cuyo aprendizaje consiste en inferir causalidad a partir de correlación.

Otro ejemplo es la regresión a la media: ves The Great British Baking Show. Te das cuenta de que quien gana el premio al panadero estrella en un episodio tiende a cocinar peor en el siguiente. Es la maldición del panadero estrella. Sólo que no es una maldición. Es sólo el azar en acción. El rendimiento de cada panadero cae en una curva de campana. Cuando uno gana "Panadero Estrella" una semana, se ha desempeñado en una cola de la curva de campana. La próxima vez que hornee, lo más probable es que se sitúe en la media, no en la cola de Estrella Panadera, porque cada vez que hornea, lo más probable es que se sitúe en la media y no en la cola ganadora. Y, sin embargo, inferimos causalidad: ¡la Maldición!

No hay razón para esperar que una IA de aprendizaje automático sea inmune a esta falacia. Más bien al contrario. Enfrentados a datos aleatorios sobre el rendimiento del proceso, deberíamos esperar que una IA predijera una mejora después de cada mal resultado.

Y que concluya que existe una relación causal. No "mostrar tu trabajo": Bueno, no tu trabajo; el trabajo de la IA. Hay investigación activa para desarrollar lo que se llama "IA explicable". Y es necesaria.

Imagina que encargas a un empleado humano que evalúe una posible oportunidad de negocio y te recomiende una línea de actuación. Lo hace y usted le pregunta: "¿Por qué lo cree?". Cualquier empleado competente espera la pregunta y está preparado para responder.

Hasta que la "IA explicable" sea una característica y no un elemento de la lista de deseos, las IA son, en este sentido, menos competentes que los empleados a los que muchas empresas quieren que sustituyan: no pueden explicar su forma de pensar.

 

La frase que hay que ignorar

Seguro que alguna vez ha oído a alguien afirmar, en el contexto de la IA, que "los ordenadores nunca harán x", donde x es algo en lo que los humanos más competentes son buenos. Se equivocan. Ha sido una afirmación popular desde que empecé en este negocio, y desde entonces ha estado claro que no importa qué x elijas, los ordenadores serán capaces de hacer lo que sea, y hacerlo mejor que nosotros. La única cuestión es cuánto tiempo tendremos que esperar para que llegue el futuro.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS