CIO de la Universidad de Phoenix: "Espero que la IA generativa sea como la biónica para los ingenieros"

El equipo de ingeniería del CIO Jamie Smith está construyendo un modelo de inferencia de habilidades utilizando tecnología de IA generativa. Al experto le preocupa que al permitir que los ‘chatbots’ reemplacen a los trabajadores de TI, la originalidad muera.

inteligencia artificial
Créditos: Milad Fakurian (Unsplash).

La aparición de la inteligencia artificial (IA) ha abierto la puerta a un sinfín de oportunidades en cientos de industrias, pero la privacidad sigue siendo la gran preocupación. El uso de datos para abastecer a las herramientas de IA puede revelar involuntariamente información confidencial y personal.

Los chatbots creados sobre modelos de lenguaje extensos (LLM) como GPT-4 se plantean como una gran promesa para reducir la cantidad de tiempo que los trabajadores del conocimiento dedican a resumir las transcripciones de las reuniones y los chats en línea, crear presentaciones y campañas, realizar análisis de datos e incluso reunir código. Pero la tecnología aún no está bien aprobada.

A medida que las herramientas de IA continúan creciendo y ganando aceptación, no solo dentro de las aplicaciones orientadas al consumidor, como Bing de Microsoft y los motores de búsqueda impulsados ??por chatbots como Bard de Google, existe una preocupación creciente sobre la privacidad y la originalidad de los datos.

Una vez que los LLM se estandaricen y más y más empresas utilicen los mismos algoritmos, ¿se diluirá la originalidad de las ideas?

Jamie Smith, CIO de la Universidad de Phoenix, siente pasión por crear equipos digitales de alto rendimiento. Comenzó su carrera como fundador de una de las primeras firmas de consultoría de Internet y, desde entonces, ha buscado aplicar la tecnología a los problemas comerciales.

Smith actualmente está usando un LLM para construir un motor de inferencia de habilidades basado en IA generativa. Pero, a medida que la IA generativa se vuelve más generalizada, a Smith también le preocupa la privacidad de los datos y cómo el uso del mismo modelo de IA por parte de muchas organizaciones podría afectar la originalidad, atributo que solo proviene de los seres humanos.

 

¿Qué te mantiene despierto en la noche?

Me resulta difícil ver cómo todo esto [IA generativa] aumentará en lugar de reemplazar a todos nuestros ingenieros. En este momento, nuestros ingenieros son increíbles máquinas de resolver problemas: olvídense de la codificación. Les hemos permitido pensar en los problemas de los estudiantes y en los problemas de codificación después.

Mi esperanza es que [la IA generativa] sea como la biónica para los ingenieros, que les permita más tiempo para concentrarse en los problemas de los estudiantes y menos tiempo para pensar en cómo compilar su código. La segunda cosa es, y la visión es menos optimista, es que los ingenieros se involucrarán menos en el proceso y, a su vez, obtendremos algo que es más rápido, pero que no tiene alma. Me pregunto a dónde irá la innovación si todos usan los mismos modelos. ¿Dónde está esa parte de una gran idea si la has trasladado a las computadoras?

Ese es el yin y el yang. Y como consumidor, las consideraciones éticas realmente comienzan a amplificarse a medida que confiamos más en los modelos de caja negra que realmente no entendemos cómo funcionan.

 

¿Cómo podrían las herramientas de IA revelar involuntariamente datos confidenciales e información privada?

La IA generativa funciona al ingerir grandes conjuntos de datos y luego generar inferencias o suposiciones a partir de esos conjuntos de datos.

Había una historia famosa en la que Target comenzó a enviarle cosas a la hija adolescente de un chico que estaba embarazada en ese momento, y lo hizo antes de que él se diera cuenta. Ella estaba en la escuela secundaria en ese momento. Entonces, llegó a Target realmente enojado. El modelo supo antes que el padre que su hija estaba embarazada.

 

"Como consumidor, las consideraciones éticas realmente comienzan a amplificarse a medida que confiamos más en los modelos de caja negra que realmente no entendemos cómo funcionan"

 

Ese es un ejemplo de inferencia o revelación de datos. El otro problema tiene que ver con cómo de seguros son los datos que se ingieren. ¿Cuáles son las oportunidades para que salgan de una manera que revelara involuntariamente cosas como información de salud? La información de salud personal, si no se trata adecuadamente, puede salir sin querer. Creo que hay otras más sutiles y esas me preocupan un poco más.

Waymo tiene sus coches donde se encuentra la Universidad de Phoenix. Si considera la cantidad de sensores en esos autos y todos esos datos que se remontan a Google pueden sugerir cosas como, 'Oye, pueden leer matrículas. Veo que tu coche está aparcado en casa de 17:00 a 19:00, es un buen momento para localizarte’. Con todos estos miles de millones de sensores, todos conectados a las nubes de IA, hay algunas formas matizadas en las que podríamos no considerarlos datos súper privados, pero ya estamos revelando otra serie de información que podría deducirse.

La denominada ‘prompt engineering’ es una habilidad incipiente que crece en popularidad. A medida que la IA generativa crece e ingiere datos específicos de la industria o incluso de la empresa para personalizar los LLM, ¿lo ve una amenaza creciente para la privacidad de los datos?

Primero, espero que la prompt engineering crezca como una habilidad. No hay dudas al respecto. Desde mi punto de vista, la ingeniería se trata de codificación y entrenar estos modelos de IA con ingeniería rápida es casi como ser padre; en definitiva estás tratando de alentar un resultado al continuar refinando la forma en que le hace preguntas y realmente ayudando al modelo a comprender qué es un buen resultado. Es similar. Pero un conjunto de habilidades lo suficientemente diferente... Será interesante ver cuántos ingenieros pueden cruzar ese abismo para llegar a la ingeniería rápida.

En el frente de la privacidad, estamos inmersos en una empresa que hace inferencia de habilidades corporativas. Toma un poco de lo que estás haciendo en tus sistemas de trabajo, ya sea tu sistema de gestión de aprendizaje, correo electrónico, para quién y con qué trabajas e infiere habilidades y niveles de habilidad en torno a las competencias para lo que pueda necesitar.

Debido a esto, tuvimos que implementar esto en un modelo único. Entonces, pusimos un nuevo tenant para cada empresa con un modelo base y luego sus datos de capacitación;  mantenemos sus datos de capacitación el tiempo suficiente para entrenar el modelo para luego, tras limpiarlo, enviárselo a ellos. Yo no llamaría a eso una mejor práctica. Es un reto para escalar, pero te estás metiendo en situaciones en las que algunos de los controles no funcionan. Todavía no existe para la privacidad, así que tienes que hacer cosas como esa.

La otra cosa que he visto que las empresas empiezan a hacer es introducir ruido en los datos para desinfectarlos de tal manera que no se pueda llegar a predicciones individuales. Pero siempre hay un equilibrio entre la cantidad de ruido que se introduce y la cantidad en la que disminuirá el resultado en términos de la predicción del modelo.

En este momento, estamos tratando de descubrir nuestra mejor mala opción para garantizar la privacidad en estos modelos porque el anonimato no es perfecto. Especialmente cuando nos estamos metiendo en imágenes, videos y voz y esas cosas que son mucho más complejas y que pueden pasar desapercibidas.

 

Cada modelo de lenguaje tiene un conjunto diferente de API para acceder a él. ¿Cree que en algún momento las cosas se estandarizarán?

Hay muchas empresas que se construyeron sobre GPT-3. Entonces, básicamente estaban haciendo que la API fuera más fácil de manejar y las indicaciones fueran más consistentes. Creo que Jasper fue una de esas varias empresas emergentes que hicieron eso. Es evidente que existe una necesidad. A medida que evolucionan más allá de los grandes modelos de lenguaje y se convierten en imágenes y sonido, tendrá que haber una estandarización.

En este momento, es como un arte oscuro: la ingeniería rápida [prompt engineering] está más cerca de la hechicería que de la ingeniería en este momento. Están surgiendo mejores prácticas, pero hay un problema, al tener muchos modelos [únicos] de aprendizaje automático. Por ejemplo, tenemos un modelo de aprendizaje automático que es texto SMS para nutrir a nuestros prospectos, pero también tenemos un chatbot que es para nutrir prospectos. Tuvimos que entrenar ambos modelos por separado.

 

"La ingeniería rápida [prompt engineering] está más cerca de la hechicería que de la ingeniería en este momento"

 

Hacen falta no solo indicaciones, sino más consistencia en el entrenamiento y en cómo puedes entrenar alrededor de la intención de manera consistente. Tendrá que haber estándares. De lo contrario, será demasiado complicado.

Es como tener un montón de niños en este momento. Tienes que enseñarles a cada uno la misma lección pero en diferentes momentos y a veces no se comportan tan bien.

Esa es la otra parte. Eso es lo que también me asusta. Todavía no sé si es una amenaza existencial, ya sabes, como si fuera el fin del mundo, el apocalipsis. Pero realmente va a remodelar nuestra economía, el trabajo del conocimiento. Está cambiando las cosas más rápido de lo que podemos adaptarnos.

 

¿Es esta su primera incursión en el uso de grandes modelos de lenguaje?

Es mi primera incursión en grandes modelos de lenguaje que no han sido entrenados a partir de nuestros datos, entonces, ¿cuáles son los beneficios si tienes un millón de ex alumnos y petabytes y petabytes de escape digital a lo largo de los años?

 

¿Qué modelo de inferencia de habilidades está utilizando?

Nuestro modelo de inferencia de habilidades es propietario y fue desarrollado por una empresa llamada EmPath, en la que somos inversores. Junto con EmPath, hay un par de otras empresas, como Eightfold.ai, que están haciendo modelos de inferencia de habilidades que son muy similares.

 

¿Es un modelo de lenguaje grande como GPT-4? 

Lo es. Lo que chatGPT y GPT-4 están haciendo bienes la parte de procesamiento de lenguaje natural, de inferir una taxonomía de habilidades basada en las cosas que has hecho y poder entrenar eso. GPT-4 tiene en su mayoría desechado todas las entradas que necesita. Una de las cosas difíciles para nosotros es elegir. ¿Elijo una taxonomía de habilidades de IBM? ¿Elijo una taxonomía MC1? El beneficio de los modelos de lenguaje como GPT-4 es que han desechado todos ellos y pueden proporcionar información de la forma que desee. Eso ha sido realmente útil.

 

Entonces, ¿es esta una herramienta de contratación o una herramienta para mejorar y volver a capacitar a la fuerza laboral existente?

Esto es menos para el reclutamiento porque hay muchos de ellos en las plataformas de seguimiento de candidatos. Lo estamos usando para el desarrollo de habilidades internas para las empresas. Y también lo estamos usando para la creación de equipos. Entonces, si tiene que armar un equipo en una gran organización, se trata de encontrar a todas las personas con el perfil de habilidades adecuado. Es una plataforma diseñada para enfocarse en el aprendizaje y ayudar a elevar las habilidades, o para volver a capacitar y mejorar las habilidades de sus empleados existentes.

Lo interesante es que mientras la IA está ayudando, también está interrumpiendo a esos mismos empleados y requiriéndoles que se vuelvan a capacitar. Está causando la disrupción y ayudando a resolver el problema.

 

"La guerra por el talento es real [...] tenemos que mejorar y volver a capacitar tanto como sea posible internamente"

 

¿Está utilizando esta tecnología de inferencia de habilidades internamente o para clientes?

Lo estamos envolviendo en una plataforma más grande ahora. Todavía estamos en una fase oscura con un par de implementaciones alfa. De hecho, lo implementamos nosotros mismos. Es como comer tu propio filet mignon.

Tenemos 3.500 empleados y realizamos una implementación nosotros mismos para asegurarnos de que funciona. De nuevo, creo que esta va a ser una de esas industrias en las que cuantos más datos pueda alimentar, mejor funcionará. Lo más difícil que encontré es que estos conjuntos de datos son un poco imperfectos; solo son tan buenos como los datos con que los estás alimentando, hasta que podamos conectar más de ese ruido allí y obtener ese escape digital. Todavía es mucho mejor que comenzar desde cero. También hacemos mucha evaluación. Tenemos una herramienta llamada Flo que analiza las entradas y salidas del aprendizaje sugerido por el código. Es uno de los conjuntos de herramientas que buscamos para la recapacitación de los empleados.

 

¿Cuánto tiempo ha estado en desarrollo el proyecto?

Lo comenzamos hace seis u ocho meses y esperamos que entre en funcionamiento en el próximo trimestre, al menos para el primer cliente alfa. Una vez más, estamos aprendiendo a través de él, por lo que hay pequeñas partes funcionando actualmente. La otra cosa es que hay muchas opciones para el plan de estudios además de la Universidad de Phoenix. Entonces, lo primero que tuvimos que hacer fue mapear cada curso que teníamos y decidir qué habilidades surgen de esos cursos y tener validación para cada una de esas habilidades. Así que esa ha sido una gran parte del proceso que ni siquiera involucra tecnología, francamente. Es una alineación de tuercas y tornillos.

Esto es parte de un replanteamiento general sobre nosotros mismos. El título es importante, pero nuestros resultados realmente tienen que ver con obtener el próximo trabajo en el menor tiempo posible. Por lo tanto, esta plataforma ayudará a lograrlo dentro de una empresa. Pienso que muchas veces si le falta una habilidad, la primera inclinación es salir y contratar a alguien en lugar de volver a capacitar a un empleado que ya tiene y que comprende la cultura de la empresa y tiene un historial con la organización.

Como CIO, yo mismo tengo ese problema. La guerra por el talento es real y no podemos comprar suficiente talento en la carrera armamentista actual por los salarios. Por lo tanto, tenemos que mejorar y volver a capacitar tanto como sea posible internamente.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS