Inteligencia artificial

Claves para que los profesionales de TI abracen la gestión de redes basada en IA

La IA explicable podría hacer que los ingenieros de redes corporativas superen la desconfianza que ahora muestran ante las herramientas de gestión de inteligencia artificial y 'machine learning', unas soluciones con potencial para agilizar las operaciones de conectividad.

redes, internet
Créditos: Clint Adair (Unsplash)

Las áreas de TI que aplican la tecnología de inteligencia artificial y aprendizaje automático (AI/ML) a la gestión de redes están descubriendo que esta puede cometer errores, pero la mayoría de las organizaciones creen que una gestión de redes impulsada por la inteligencia artificial mejoraría sus operaciones de red.

Para obtener estos beneficios, los gestores de red deben encontrar una forma de confiar en estas soluciones de IA a pesar de sus fallos. Las herramientas de IA explicables podrían ser la clave.

 

Una encuesta revela que los ingenieros de redes se muestran escépticos

En una encuesta realizada por Enterprise Management Associates (EMA) a 250 profesionales de TI que utilizan tecnología de IA/ML para la gestión de redes, el 96% afirmó que estas soluciones han producido ideas y recomendaciones falsas o erróneas. Según el informe "AI-Driven Networks: Leveling Up Network Management", en general, el 44% de los encuestados dijo confiar mucho en sus herramientas de gestión de redes basadas en IA, y otro 42% confía ligeramente en estas herramientas.

Sin embargo, los miembros de los equipos de ingeniería de redes se mostraron más escépticos que otros grupos (ingenieros de herramientas informáticas, ingenieros de la nube o directivos de TI o CIO), lo que sugiere que las personas con mayor experiencia en redes son las menos convencidas. De hecho, el 20% de los encuestados afirmó que la resistencia cultural y la desconfianza del equipo de redes era uno de los mayores obstáculos para el uso con éxito de las redes basadas en IA. Los encuestados que trabajan en un equipo de ingeniería de redes tenían el doble de probabilidades (40%) de citar este reto.

Dada la prevalencia de errores y la tibia aceptación por parte de los expertos en redes de alto nivel, ¿cómo están generando confianza las organizaciones en estas soluciones?

 

¿Qué es la IA explicable y cómo puede ayudar?

La IA explicable es un concepto académico adoptado por un número creciente de proveedores de soluciones comerciales de IA. Se trata de una subdisciplina de la investigación en IA que hace hincapié en el desarrollo de herramientas que expliquen cómo la tecnología de IA/ML toma decisiones y descubre ideas. Los investigadores sostienen que las herramientas de IA explicable allanan el camino para la aceptación humana de la tecnología de IA. También pueden resolver problemas éticos y de cumplimiento.

La investigación de EMA ha validado esta noción. Más del 50% de los participantes en la investigación afirmaron que las herramientas de IA explicables son muy importantes para generar confianza en la tecnología de IA/ML que aplican a la gestión de redes. Otro 41% dijo que era algo importante.

La mayoría de los participantes señalaron tres herramientas y técnicas de IA explicables que mejor ayudan a generar confianza:

Visualizaciones de cómo se descubrió la información (72%): algunos proveedores incorporan elementos visuales que guían a los humanos a través de los caminos que siguen los algoritmos de IA/ML para desarrollar conocimientos. Esto incluye árboles de decisiones, elementos visuales ramificados que muestran cómo trabaja la tecnología con los datos de la red y cómo los interpreta.

Explicaciones en lenguaje natural (66%): estas explicaciones pueden ser frases estáticas fijadas a las salidas de una herramienta de IA/ML y también pueden venir en forma de chatbot o asistente virtual que proporciona una interfaz conversacional. Los usuarios con distintos niveles de conocimientos técnicos pueden entender estas explicaciones.

Puntuaciones de probabilidad (57%): algunas soluciones de IA/ML presentan información sin contexto sobre el grado de confianza en sus propias conclusiones. Una puntuación de probabilidad adopta un enfoque diferente, emparejando cada idea o recomendación con una puntuación que indica el grado de confianza del sistema en sus resultados. Esto ayuda al usuario a determinar si debe actuar según la información, esperar a ver qué pasa o ignorarla por completo.

Los encuestados que informaron de un mayor éxito general con las soluciones de red basadas en IA eran más propensos a ver valor en estas tres capacidades.

Puede haber otras formas de generar confianza en las redes basadas en IA, pero la IA explicable puede ser una de las más efectivas y eficientes. Ofrece cierta transparencia en los sistemas de IA/ML que, de otro modo, podrían ser opacos. Al evaluar las redes basadas en IA, los compradores de TI deben preguntar a los proveedores cómo ayudan a los operadores a desarrollar la confianza en estos sistemas con IA explicable.

 



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS