Entrevista
Inteligencia artificial
IA
Empresa
IA generativa

El CIO de ServiceNow cree que la IA generativa vive un "momento iPhone"

Chris Bedi lleva años trabajando a toda máquina para aprovechar las capacidades de productividad, eficiencia y eficacia de la inteligencia artificial. Pero cuando se lanzó ChatGPT hace un año, todo cambió.

Chris Bedi (ServiceNow)

Como muchas empresas, ServiceNow lleva años incorporando inteligencia artificial (IA) a sus sistemas internos y productos de cara al cliente. Pero cuando apareció ChatGPT de Open AI hace un año, todo cambió rápidamente. 

De repente, lo que había sido aprendizaje automático -o "IA analítica" que podía producir recomendaciones basadas en datos financieros, de ventas y de marketing- se convirtió en procesamiento de lenguaje natural. Un empleado nuevo podía pedir de repente a la aplicación corporativa de IA generativa una respuesta a una pregunta en profundidad de un cliente. Los empleados veteranos podían pedir a la plataforma información sobre los beneficios de la empresa o cómo conseguir un nuevo portátil.

Chris Bedi se incorporó a ServiceNow en septiembre de 2015 y ocupa el cargo de CIO. Antes de unirse a ServiceNow, pasó casi cuatro años como CIO de JDS Uniphase (JDSU), donde fue responsable de TI, instalaciones y compras indirectas. Antes de eso, Bedi ocupó varios cargos en VeriSign entre 2002 y 2011, incluyendo CIO, vicepresidente de desarrollo corporativo y vicepresidente de operaciones de recursos humanos.

Cuando se incorporó a ServiceNow, la empresa facturaba unos 800 millones de dólares al año. En la actualidad, sus ingresos superan los 8.000 millones de dólares y cuenta con unos 22.000 empleados. Bedi también ha apostado fuerte por la IA.

ServiceNow está implantando IA generativa a través de un programa piloto interno. Aprovechando su propia plataforma y los LLM de terceros, la empresa ha puesto en marcha 15 pilotos de IA generativa en varios departamentos, como atención al cliente, TI, RR.HH. y ventas.

Estas pruebas se centran en mejorar la experiencia de clientes y empleados con un mayor autoservicio, productividad de los agentes, gestión automatizada de oportunidades de marketing y desarrollo de software de texto a código.

Bedi habló recientemente con ComputerWorld y explicó por qué ve la introducción de ChatGPT y la IA generativa como un momento decisivo para las empresas, y por qué le preocupa menos lo que pueda salir mal y más si está creando un entorno en el que la tecnología pueda avanzar tan rápido como lo permitan sus capacidades. 

A continuación, extractos de la entrevista.

 

¿Cuándo empezó su empresa a utilizar la IA a cualquier nivel?

Me incorporé en septiembre de 2015, y recuerdo haberme reunido con nuestro equipo de aprendizaje automático como parte de mi incorporación. Así que ya en 2015 estábamos haciendo aplicaciones de aprendizaje automático. Como puedes imaginar en 2015, mucho de esto era un poco más piloto, proyectos científicos.

Con los años, lo hemos escalado enormemente. El sector aún no se ha decidido por un término. ¿Cómo llamamos a la IA que existía antes de la IA generativa? Yo la llamo IA analítica. Si se piensa en ello, se trata de infundir aprendizaje automático en todos nuestros [motores] importantes de clasificación, calificación o recomendación sobre dónde van a terminar los ingresos, la posibilidad de que se cierre un acuerdo de ventas, la probabilidad de que podamos tener un cliente haciendo esto. Llevamos mucho tiempo haciéndolo.

Además, hemos incorporado mucha IA a la plataforma ServiceNow, ya sea MLU, NLP, mecanismos de cálculo basados en aprendizaje automático, calificaciones de riesgo, enrutamiento de casos de clientes, etc. Incluso antes de la IA generativa, utilizábamos machine learning (ML) para evaluar automáticamente los procesos y encontrar cuellos de botella e ineficiencias. Una vez que salió ChatGPT, empezamos muy rápidamente a pasar a los experimentos, y ahora los experimentos están en producción.

La mayoría de los CIO líderes hicieron algo parecido. Si lo llamo IA analítica, llevan tiempo en ello. Lo que la IA generativa y ChatGPT han hecho es despertar al resto de la alta dirección a todo este asunto de la IA en el que la mayoría de los CIO líderes han estado durante un tiempo.

 

¿Puede darme una definición de IA analítica?

A mí también me cuesta. Hacíamos IA antes de que apareciera ChatGPT, pero la llamábamos aprendizaje automático supervisado, aprendizaje automático no supervisado, comprensión del lenguaje natural, consulta del lenguaje natural, procesamiento del lenguaje natural. Todos esos nombres estaban dentro de la categoría de IA. Ahora tenemos la IA generativa, ¿la llamamos IA tradicional? ¿La llamamos IA analítica porque la mayor parte tiene que ver con números? Cuando digo IA analítica, es un término genérico para todas las IA que surgieron antes de ChatGPT. Así que, de nuevo NLU, NLP, NLQ, agentes virtuales, minería de procesos, RTA..., una cesta de cosas.

 

¿Qué cambió en noviembre de 2022 cuando se lanzó ChatGPT?

Creo que lo que cambió en noviembre, y me lo pregunto, ¿es un momento metaverso en el que todos estamos enamorados de la tecnología? ¿O se trata de un blockchain en la que todos buscamos casos de uso? ¿O se trata más bien de un "momento iPhone", que realmente va a cambiar casi todo lo que conocemos?

Creo que esto se parece más al momento iPhone. Lo que la IA generativa nos ha permitido hacer -con los grandes modelos lingüísticos como base de la IA-, lo que define un lenguaje, creo que nos toca a nosotros reimaginarlo. Ahora hemos definido la codificación como un lenguaje. Obviamente, hay texto, ya sean currículos o resúmenes de incidentes de seguridad, todo eso es un lenguaje. Llevamos varios años trabajando con productos de procesamiento del lenguaje natural.

Nos hemos asociado con Hugging Face y StarCoder para desarrollar grandes modelos lingüísticos para nuestros productos. Y, obviamente, sirvo como cliente cero para todos nuestros productos, que es la razón por la que hemos sido capaces de lanzar productos tan rápidamente. Creo que fuimos de los primeros en ofrecer al mercado productos [basados en IA] que funcionaban de verdad.

 

¿Puede mencionar algunos de los principales casos de uso de IA generativa en ServiceNow, tanto interna como externamente?

En este momento, tenemos 15 casos de uso que están activos y utilizan la IA generativa. Yo los simplificaría en cuatro casos de uso generales. Uno gira en torno a la experiencia del cliente/empleado. El sector lleva tiempo buscando la desviación de casos y el autoservicio del empleado. No es un concepto nuevo. Creo que lo que la IA generativa ha hecho es dar a esa función un paso adelante en términos de eficacia.

Si busca una respuesta en cualquier sitio de atención al cliente, incluido el nuestro, obtendrá una respuesta de IA generativa. Es el equivalente de la respuesta de un motor de búsqueda, en la que recibes un montón de enlaces, y la respuesta de una búsqueda de IA generativa, en la que obtienes la información que realmente estás buscando.

Incluso en 10 semanas, hemos visto un aumento del 3% al 4% en las tasas de desvío de casos en nuestro sitio de atención al cliente. Estamos viendo resultados muy similares en el autoservicio para empleados. Los empleados necesitan saber: '¿Quién es mi proveedor de prestaciones? ¿Cómo consigo un portátil nuevo? ¿Cómo consigo una nueva tarjeta de viaje? ¿Es esto digno de un comunicado de prensa?'.

Todas esas respuestas que están enterradas en políticas y documentos corporativos, la IA generativa las hace accesibles al instante. Así, el servicio al cliente y al empleado es el número uno.

El segundo caso de uso es la productividad de los agentes. Un agente puede ser un agente de TI, de operaciones de RR.HH., de atención al cliente o alguien de finanzas. ¿Cómo se puede ayudar a un agente a ser más productivo analizando rápidamente grandes conjuntos de información y resumiéndola para que pueda llegar rápidamente al meollo de la cuestión?

Por otro lado, a medida que gestionan su trabajo y lo pasan de una persona a otra o lo resuelven, es necesario enviar un buen resumen al cliente; la IA generativa puede escribir ese resumen por ellos. Y hemos visto que con lo que hemos desplegado, el 70% de los agentes aceptan esos resúmenes de IA generativa con ediciones mínimas. De hecho, medimos los mínimos.

Hemos visto un aumento de los casos resueltos para los agentes por semana. Hemos observado una reducción del tiempo necesario para resolver los casos. Así que, se mire como se mire, el aumento de la productividad está empezando y estamos en los primeros compases. Sé que mejoraremos.

Otra medida que estamos estudiando, y que me parece muy importante, es el sentimiento de los usuarios de la IA generativa. Por ejemplo, en mi propia empresa, que utiliza IA para sus agentes informáticos, creo que el 56% ya ha dicho que aumenta su productividad. Ese sentimiento es difícil de alcanzar porque estamos muy apegados a nuestras formas actuales de trabajar.

El tercer caso de uso es acelerar la transformación digital. La conversión de texto en código es real. La conversión de texto en flujo de trabajo es real. Lo que hemos visto es una tasa de aceptación del 26% en nuestros desarrolladores de software que aceptan lo que la IA generativa les está proporcionando en un punto de vista de texto a código. Para las personas ajenas al sector, un 26% puede parecer poco, pero como profesional, estoy muy satisfecho con esa cifra. Si tiras de ese hilo, es un 26% más de líneas de código que se pueden escribir sin que tenga que hacerlo un humano. Si se tira un poco más del hilo, se obtiene un 26% más de productividad en un área que es una de las más escasas en cuanto a talento, independientemente del sector: los ingenieros de software. Y la cosa no hará más que mejorar.

Yo diría que queda trabajo por hacer en cuanto a sentimiento y adopción. La gente lleva décadas trabajando de una determinada manera. La IA generativa es muy nueva y, como con cualquier cosa nueva, va a llevar algún momento en que la tasa de adopción ascienda hasta el punto en que sea como si tú o yo escucháramos música en Spotify o algo parecido.

Cuando la IA generativa funcione, creo que la tasa de adopción será un poco más lenta de lo que los líderes como yo queremos. Esa es la receta estándar de la gestión del cambio, y la formación y el desarrollo de habilidades en todas esas cosas.

El cuarto caso de uso gira en torno a cómo ayudar a un humano a convertirse en un experto instantáneo. Si pensamos en nosotros como una empresa de software de alto crecimiento, queremos servir a nuestros clientes de la mejor manera. Todos los meses sale mucha innovación de nuestra plataforma; seguir el ritmo en aras de servir a nuestros clientes es bastante difícil. Pienso en una persona nueva que se incorpora a ServiceNow. Si recuerdas la película Matrix, cuando se conecta esa cosa en la parte posterior de su cabeza y al instante aprende a pilotar un helicóptero, esa es la visión que tengo.

Así que pusimos toda la documentación de nuestros productos, desde los mensajes de valor de alto nivel hasta las expectativas de producto de bajo nivel -cómo se configura esto- y cogimos todas las respuestas a RFP, todas las presentaciones de ventas y la formación de ventas, y las indexamos en grandes modelos lingüísticos. Así que ahora, si alguien se une a ServiceNow un lunes, el martes por la mañana alguien de [nuestro cliente] FedEx pregunta cómo ayudan vuestras soluciones en la gestión del riesgo tecnológico operativo, ese nuevo empleado puede ir rápidamente a un portal y teclear la pregunta y obtendrá una respuesta muy inteligente. Piense en ese contexto de 'experto instantáneo', puede aplicarse a cualquier persona. Nosotros lo aplicamos al que atiende primero al cliente, pero vamos a extenderlo a toda la organización.

 

Explíquenos qué significa el término 'cliente cero' en el despliegue de una nueva tecnología. ¿Quiere decir que primero se aplica a las operaciones internas?

Dos cosas: Hablo de desplegar mucho de esto para casos de uso internos y de cara al cliente, pero como proveedor de software estamos ofreciendo muchos productos de IA generativa al mercado. Cuando digo cliente cero, me refiero a que utilizamos toda esa misma tecnología para impulsar nuestro propio negocio. La usamos para escalar nosotros mismos, y las ganancias de productividad que obtenemos al usar nuestra propia plataforma son evidentes. Por cliente cero, me refiero a que utilizamos cada uno de nuestros productos internamente, probamos el valor antes de que nuestros clientes los utilicen para asegurarnos de que tenemos confianza en el aspecto técnico y en el empresarial, en la gestión del cambio, etc.

 

¿Qué comentarios está escuchando de sus colegas y clientes sobre el panorama actual para los responsables de la toma de decisiones de TI cuando se trata de la IA generativa?

Como ServiceNow da servicio al 90% de las empresas de Fortune 500, tengo el privilegio de hablar con varios CIO de Fortune 500 cada semana. Yo diría que hay tres bandos:

  • Un bando dice: "Tenemos que pasar los próximos tres o cuatro meses resolviendo la gobernanza, la seguridad y todos los fundamentos de una arquitectura supersólida, antes de empezar a hacer pilotos y poner las cosas en producción".
  • Un segundo bando dice: "Sí, la tecnología funciona, pero necesito ver un ROI real antes de invertir capital humano o dinero en esto".
  • Un tercer bando cree que esto es inevitable: "Tenemos que ponernos manos a la obra. No medimos el ROI [de una tecnología establecida como] el correo electrónico, y la IA generativa en el lugar de trabajo será tan común como eso. Así que, cuanto antes nos pongamos en marcha, mejor".

De nuevo, ninguno de los puntos de vista es erróneo. Probablemente todo el mundo esté haciendo algo de cada uno, pero la base común es que todo el mundo está haciendo algo en torno a la IA generativa. A la mayoría de los CIO con los que hablo les ha pedido su CEO o C-suit que tengan una estrategia de IA generativa para cada departamento.

 

En lo que respecta a políticas, normas y supervisión corporativas, ¿qué han instituido para garantizar el uso seguro y ético de la IA generativa, especialmente a la luz de la reciente orden ejecutiva del presidente Biden?

Con las nuevas normas del presidente Biden, creo que es un gran paso en la dirección correcta. Tenemos un compromiso con el uso responsable y ético de los modelos de IA.

Así que apoyamos la nueva orden ejecutiva. Pero también tenemos un consejo de ética y gobernanza de la IA para proteger a nuestros empleados y clientes de los sesgos, la vulnerabilidad de la ciberseguridad, los riesgos para la privacidad de los datos e incluso la experiencia del usuario de la transparencia. Si alguien recibe una respuesta de la IA generativa a su pregunta, queremos que sepa que ha sido generada por una máquina.

Estamos muy centrados en ello. Tenemos un comité de ética y gobernanza de la IA, que es de naturaleza interfuncional. Es legal, es mi organización, es nuestra organización de productos, es cibernética. Probamos todo eso antes de lanzar nada al mercado o a nuestros propios empleados.

 

¿Le han preocupado los sesgos que se han hecho evidentes en algunas plataformas de IA generativa, como las aplicaciones de asistentes de contratación automatizados?

Por supuesto. Sesgos y alucinaciones. Las alucinaciones son reales. ¿Cómo se controlan las alucinaciones? Si tomamos el ejemplo de mi 'experto instantáneo', ¿cómo nos aseguramos de que los modelos son lo suficientemente buenos como para no llevar a alguien por el camino equivocado? Si pensamos en años atrás, ¿recordamos cuando salió por primera vez Apple Maps e indicaba a la gente que condujera hacia lagos?

¿Cómo nos aseguramos de que la IA generativa no interpreta contenidos precisos, pero que cuando los junta se vuelven imprecisos? Creo que se trata de problemas reales que el sector aún no ha resuelto. También hay que tener en cuenta el nivel de sofisticación y ser capaz de medir las tasas de alucinación y mostrar una respuesta sólo cuando el nivel de confianza es superior a "X". Hay formas de hacerlo. Es una historia que aún no se ha desarrollado en cuanto a la respuesta final, pero sí que me preocupa.

 

En términos generales, ¿cómo se establece "X", es decir, un nivel aceptable de precisión de la IA?

Mantenemos las cosas en el laboratorio hasta que confiamos en el nivel de los índices de alucinación. Además, no hay sustituto para un humano que pueda decir: 'Esto no está bien'. Seguimos siendo más listos que las máquinas.

 

¿Cómo está consiguiendo que su propia gente se ponga al día en el desarrollo de la IA internamente y con habilidades como el prompt engineering?

Cuando nos reunimos en junio, establecimos normas, objetivos y formación. Este es el nuevo tipo de formación. Para mi propia organización, establecimos una ruta de formación en IA. Hay una IA 101 y 201. Tenemos que hacer un trabajo de curaduría y es una combinación de formación que desarrollamos a partir de fuentes disponibles públicamente. 

La clave es asegurarse de que el talento de la organización tiene un camino para aprender IA, y esto no es algo que se les está haciendo. Se trata de un camino hacia un viaje. Y, de hecho, lo hemos ampliado a toda la empresa este último trimestre. Vamos a celebrar una jornada de aprendizaje de la IA para que los más de 20.000 empleados de ServiceNow se familiaricen con ella, porque todos vamos a trabajar con ella.

En el futuro, lo llevaremos a los departamentos y las personas. A medida que elaboramos nuestras estrategias de IA, tenemos que conjugarlo con lo que esto significa para el ser humano que ahora va a trabajar con la IA generativa o la IA tradicional, y donde quizás la IA esté haciendo ahora un x% de su trabajo, lo que puede ser incómodo, pero ese es nuestro trabajo como líderes: llevar a la fuerza de trabajo y darles el talento, las herramientas y la formación que necesitan para tener éxito en un mundo centrado en la IA.

 

Es probable que la IA elimine algunas tareas y, en algunos casos, puestos de trabajo. ¿Cree que la IA afectará al número de empleados?

La verdad es que no. Hemos tenido tecnologías de automatización durante mucho, mucho tiempo. Volvamos a Excel y pensemos en todo el trabajo que tenían que hacer los analistas antes de que existiera. No he visto nada que demuestre que hoy haya menos analistas en el trabajo. Creo que va a permitir a la gente hacer cosas más interesantes y ahora se pueden relegar esas tareas repetitivas a las máquinas, y si algún lugar de trabajo cree que tiene escasez de trabajo por hacer, todavía no he encontrado ninguno. Si podemos liberar a la gente del 20% del trabajo de hacer cosas que podemos relegar a las máquinas, estoy seguro de que habrá un 20% más de trabajo por hacer en estas organizaciones.

 

¿Qué le quita el sueño cuando se trata de IA?

Pienso si me estoy moviendo lo suficientemente rápido. Eso es lo que me quita el sueño. Todos sabemos intelectualmente que hay un enorme desbloqueo de productividad, de eficiencia, de eficacia, de experiencias que podemos crear. ¿Nos movemos lo suficientemente rápido? Sé que tenemos que prestar atención a la seguridad y a las alucinaciones; eso es un hecho. 

La mayor limitación al ritmo de cambio no ha sido normalmente la gobernanza de la seguridad, sino la capacidad humana para absorber el cambio. Entonces, ¿estoy creando las condiciones adecuadas para que podamos absorber el cambio? Porque creo firmemente que las empresas que adopten plenamente la IA serán las ganadoras del mañana.

 

¿Qué utilizan para la plataforma de IA generativa? ¿GPT, Llama, PaLM 2? ¿O utilizáis principalmente vuestros propios modelos LLM o modelos de código abierto?

Tenemos grandes modelos lingüísticos en la plataforma ServiceNow. Para muchos de los casos de uso, los utilizamos. Para determinados casos de uso, utilizamos Azure OpenAI. Creo que el sector va a evolucionar mucho. También estamos probando algunos modelos de código abierto para algunos datos que son muy confidenciales y con los que no queremos correr riesgos. Eso es lo que me dicen la mayoría de los CIO. Sí, están haciendo cosas con los grandes modelos de hiperescala, pero también están haciendo algunas cosas con el código abierto y lo están consumiendo a través de plataformas como ServiceNow.

 

¿Considera que la dirección que está tomando la IA generativa se aleja de los modelos a hiperescala como GPT-4 y se dirige hacia LLM más pequeños que son específicos de un dominio?

Al cien por cien esto último, al cien por cien. Eso es lo que estamos desarrollando dentro de nuestra plataforma: LLM específicos de dominio, específicos para casos de uso en los que ya existe una alta densidad de datos dentro de nuestra plataforma, y hemos descubierto que la eficacia de esos modelos es mejor que la de los modelos de propósito más general.

 

Cuesta mucho dinero formar a los LLM. ¿Cómo lo afronta?

Bueno, los modelos de dominio específico requieren menos potencia de cálculo. También tenemos una asociación con Nvidia que es de dominio público. Estamos utilizando software y chips de Nvidia para alimentar nuestros LLM y hemos tenido bastante éxito. Ya estamos en producción con ello. De nuevo, se trata de un modelo de dominio específico, frente a la economía de un LLM de propósito general.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS