Inteligencia artificial
IA
privacidad
Protección de datos
IA generativa

Por qué y cómo crear políticas corporativas de IA generativa

La adopción de la IA generativa se está produciendo a un ritmo vertiginoso, pero las amenazas que plantea exigirán que las organizaciones establezcan barandillas para proteger los datos y la privacidad de los clientes, y para evitar entrar en conflicto con los reguladores.

ChatGPT ia generativa inteligencia artificial
Foto de Mojahid Mottakin (Unsplash).

A medida que un gran número de empresas continúan probando y desplegando herramientas de inteligencia artificial (IA) generativa, muchas de ellas corren el riesgo de sufrir errores de IA, ataques maliciosos y entrar en conflicto con las autoridades reguladoras, por no mencionar la posible exposición de datos confidenciales. 

Por ejemplo, en abril, después de que la división de semiconductores de Samsung permitiera a sus ingenieros utilizar ChatGPT, los trabajadores que utilizaban la plataforma filtraron secretos comerciales en al menos tres ocasiones, según informes publicados. Un empleado pegó código fuente confidencial en el chat para comprobar si había errores, mientras que otro trabajador compartió código con ChatGPT y "solicitó la optimización del código". 

ChatGPT está alojado por su desarrollador, OpenAI, que pide a los usuarios que no compartan información confidencial porque no se puede borrar. 

"En ese momento, es casi como utilizar Google", afirma Matthew Jackson, director de Tecnología Global del proveedor de integración de sistemas Insight Enterprises. "OpenAI guarda tus datos. Pueden utilizar cualquier cosa que introduzcas en esa ventana de chat. Puedes seguir utilizando ChatGPT para ayudar a escribir contenido genérico, pero no quieres pegar información confidencial en esa ventana"

La conclusión es que los grandes modelos lingüísticos (LLM) y otras aplicaciones de IA generativa "no están totalmente horneados", según Avivah Litan, vicepresidenta y distinguida analista de Gartner. "Todavía tienen problemas de precisión, problemas de responsabilidad y privacidad, vulnerabilidades de seguridad, y pueden desviarse en direcciones impredecibles o indeseables", dijo, "pero son totalmente utilizables y proporcionan un enorme impulso a la productividad y la innovación"

Según una encuesta reciente de Harris, las dos principales razones de los directivos para implantar herramientas de IA generativa el año que viene son aumentar los ingresos e impulsar la innovación. Casi la mitad (49%) afirma que seguir el ritmo de la competencia en innovación tecnológica es uno de los principales retos de este año. (Harris Poll encuestó a 1.000 empleados con categoría de director o superior entre abril y mayo de 2023). 

Los encuestados nombraron la productividad de los empleados (72%) como el mayor beneficio de la IA, con el engagement del cliente (a través de chatbots) y la investigación y el desarrollo en segundo y tercer lugar, respectivamente. 

 

La adopción de la IA se dispara 

En los próximos tres años, la mayoría de los líderes empresariales esperan adoptar IA generativa para que los empleados sean más productivos y mejorar el servicio al cliente, según encuestas realizadas por separado por la consultora Ernst & Young (EY) y la empresa de investigación The Harris Poll. Y la mayoría de los CEO están integrando la IA en productos/servicios o planean hacerlo en un plazo de 12 meses. 

"Ningún líder empresarial puede ignorar la IA en 2023", afirma EY en el informe de su encuesta. "El 82% de los líderes de hoy creen que las organizaciones deben invertir en iniciativas de transformación digital, como la IA generativa, o se quedarán atrás". 

Alrededor de la mitad de los encuestados en The Harris Poll, encargada por Insight Enterprises, indicaron que están adoptando la IA para garantizar la calidad del producto y abordar los riesgos de seguridad y protección. 

El 42% de los CEO estadounidenses encuestados por EY afirmaron que ya han integrado plenamente los cambios de productos o servicios impulsados por la IA en sus procesos de asignación de capital y están invirtiendo activamente en la innovación impulsada por la IA, mientras que el 38% afirma que tiene previsto realizar importantes inversiones de capital en esta tecnología en los próximos 12 meses. 

Algo más de la mitad (53%) de los encuestados espera utilizar IA generativa para ayudar en la investigación y el desarrollo, y el 50% planea utilizarla para el desarrollo/pruebas de software, según The Harris Poll

Aunque los directivos reconocen la importancia de IA generativa, también se muestran cautelosos. El 63% de los consejeros delegados que participaron en la encuesta de EY afirmaron que se trata de una fuerza positiva que puede impulsar la eficiencia empresarial, pero el 64% cree que no se está haciendo lo suficiente para gestionar las consecuencias imprevistas del uso de la IA generativa en las empresas y la sociedad. 

A la luz de las "consecuencias imprevistas de la IA", ocho de cada 10 organizaciones han puesto en marcha políticas y estrategias de IA o están considerando hacerlo, según ambas encuestas. 

 

Problemas y soluciones de la IA 

La IA generativa fue el segundo riesgo más nombrado en la encuesta del segundo trimestre de Gartner, apareciendo entre los 10 primeros por primera vez, según Ran Xu, director de investigación en la Práctica de Riesgo y Auditoría de Gartner. 

"Esto refleja tanto el rápido crecimiento de la conciencia pública y el uso de herramientas de IA generativa, así como la amplitud de casos de uso potencial, y por lo tanto los riesgos potenciales, que estas herramientas engendran", dijo Xu en un comunicado. 

Las alucinaciones, en las que las aplicaciones de IA generativa presentan hechos y datos que parecen exactos y reales pero no lo son, son un riesgo clave. Se sabe que los resultados de la IA infringen inadvertidamente los derechos de propiedad intelectual de otros. El uso de herramientas de IA generativa puede plantear problemas de privacidad, ya que pueden compartir información del usuario con terceros, como vendedores o proveedores de servicios, sin previo aviso. Los hackers están utilizando un método conocido como "ataques de inyección de comandos" para manipular la forma en que un gran modelo lingüístico responde a las consultas

"Ese es uno de los riesgos potenciales, ya que la gente puede hacer una pregunta y asumir que los datos son correctos y tomar una decisión importante con datos inexactos", dijo Jackson. "Esa fue la principal preocupación: el uso de datos erróneos. El número dos en nuestra encuesta fue la seguridad". 

Los problemas a los que se enfrentan las organizaciones al desplegar IA generativa, explicó Litan, radican en tres categorías principales: 

  • Input y output, que incluye el uso inaceptable que compromete la toma de decisiones y la confidencialidad de la empresa, las fugas de datos sensibles y los outputs inexactos (incluidas las alucinaciones). 
  • Privacidad y protección de datos, que incluye fugas de datos a través del sistema de un proveedor de LLM alojado, políticas de privacidad o protección de datos incompletas y el incumplimiento de las normas de conformidad reglamentaria. 
  • Riesgos de ciberseguridad, que incluyen el acceso de hackers a los LLM y sus parámetros para influir en los resultados de la IA. 

Según Litan, para mitigar este tipo de amenazas es necesario adoptar un enfoque de gestión de riesgos y seguridad por capas. Las organizaciones pueden reducir de varias formas la posibilidad de que se produzcan entradas o salidas no deseadas o ilegítimas.  

En primer lugar, las organizaciones deben definir políticas de uso aceptable y establecer sistemas y procesos para registrar las solicitudes de uso de aplicaciones de IA generativa, incluido el uso previsto y los datos solicitados. El uso de aplicaciones de IA generativa también debería requerir la aprobación de varios supervisores. 

Las organizaciones también pueden utilizar filtros de contenido de input para la información enviada a los entornos LLM alojados. Esto ayuda a comprobar si las entradas se ajustan a las políticas empresariales de uso aceptable. 

Los riesgos de privacidad y protección de datos pueden mitigarse optando por no alojar un almacenamiento de datos rápido y asegurándose de que un proveedor no utiliza datos corporativos para entrenar sus modelos. Además, las empresas deben examinar el acuerdo de licencia de un proveedor de alojamiento, que define las normas y su responsabilidad en materia de protección de datos en su entorno LLM. 

Por último, las organizaciones tienen que ser conscientes de los ataques de inyección puntual, que es un input malicioso diseñado para engañar a un LLM para que cambie su comportamiento deseado. Esto puede dar lugar al robo de datos o a la estafa de clientes por parte de los sistemas de IA generativa. 

Según Gartner, las organizaciones necesitan una seguridad sólida en torno al entorno LLM empresarial local, que incluya la gestión de accesos, la protección de datos y la seguridad de redes y puntos finales. 

Litan recomienda que los usuarios de IA generativa desplieguen el software Security Service Edge, que combina redes y seguridad en una pila de software nativa de la nube que protege el edge de una organización, sus sitios y aplicaciones. 

Además, las organizaciones deben responsabilizar a sus proveedores de servicios LLM o de IA generativa de cómo evitan los ataques indirectos de inyección puntual en sus LLM, sobre los que una organización usuaria no tiene control ni visibilidad

 

Las ventajas de la IA pueden compensar sus riesgos 

Un error que cometen las empresas es decidir que no merece la pena correr el riesgo de utilizar la IA, por lo que "la primera política que se les ocurre a la mayoría de las empresas es 'no utilizarla'", afirma Jackson, de Insight. 

"Esa fue también nuestra primera política", afirma. "Pero muy rápidamente pusimos en marcha un inquilino privado utilizando OpenAI de Microsoft en la tecnología de Azure. Así, creamos un entorno que era seguro, donde pudimos conectarnos a algunos de nuestros datos empresariales privados. Así, pudimos permitir que la gente lo usara". 

Un empleado de Insight describió la tecnología de IA generativa como si fuera Excel. "No preguntas a la gente cómo va a usar Excel antes de dárselo; simplemente se lo das y a ellos se les ocurren todas estas formas creativas de usarlo", dijo Jackson. 

Insight acabó hablando con muchos clientes sobre casos de uso de IA generativa teniendo en cuenta las propias experiencias de la empresa con la tecnología. 

"Una de las cosas de las que nos dimos cuenta con algunos de nuestros pilotos es que la IA es realmente una herramienta de productividad general. Puede utilizarse en muchos casos", afirma Jackson. "Lo que decidimos [fue] en lugar de pasar por un proceso largo e interminable para personalizarlo excesivamente, sólo íbamos a darlo a algunos departamentos con algunos marcos generales y límites en torno a lo que podían y no podían hacer, y luego ver lo que se les ocurrió". 

Una de las primeras tareas para las que Insight Enterprises utilizó ChatGPT fue en su centro de distribución, donde los clientes compran tecnología y la empresa luego genera imágenes de esos dispositivos y los envía a los clientes; el proceso está lleno de tareas mundanas, como actualizar los estados de los productos y los sistemas de suministro. 

"Entonces, una de las personas en uno de nuestros almacenes se dio cuenta de si se puede pedir a la IA generativa que escriba un script para automatizar algunas de estas actualizaciones del sistema", dijo Jackson. "Este fue un caso de uso práctico que surgió del crowdsourcing de Insight de su propia instancia privada y empresarial de ChatGPT, llamada Insight GPT, en toda la organización". 

El programa de IA generativa escribió un breve script de Python para la operación de almacén de Insight que automatizó un número significativo de tareas y permitió actualizaciones del sistema que podrían ejecutarse contra su sistema de inventario SAP; esencialmente automatizó una tarea que llevaba a las personas cinco minutos cada vez que tenían que hacer una actualización. 

"Se produjo una enorme mejora de la productividad en nuestro almacén. Cuando lo extendimos al resto de los empleados de ese centro, se ahorraron cientos de horas a la semana", afirma Jackson. 

Ahora, Insight se centra en priorizar los casos de uso críticos que pueden requerir más personalización. Esto podría incluir el uso de ingeniería rápida para entrenar al LLM de forma diferente o vincular fuentes de datos back-end más diversas o complicadas

Jackson describió los LLM como una "caja negra" preentrenada, cuyos datos suelen tener un par de años de antigüedad y excluyen los datos corporativos. Sin embargo, los usuarios pueden dar instrucciones a las API para acceder a los datos corporativos como si se tratara de un motor de búsqueda avanzado. "De este modo se accede a contenidos más relevantes y actuales", explica. 

Insight trabaja actualmente con ChatGPT en un proyecto para automatizar la redacción de contratos. Utilizando un modelo estándar de ChatGPT 4.0, la empresa lo conectó a su biblioteca de contratos existente, de la que dispone de decenas de miles. 

Las organizaciones pueden utilizar extensiones de LLM como LangChain o Azure Cognitive Search de Microsoft para descubrir datos corporativos relativos a una tarea dada la herramienta de IA generativa. 

En el caso de Insight, la IA generativa se utilizará para descubrir qué contratos ganó la empresa, priorizarlos y, a continuación, cruzarlos con datos de CRM para automatizar la redacción de futuros contratos para clientes. 

Algunas fuentes de datos, como las bases de datos SQL estándar o las bibliotecas de archivos, son fáciles de conectar; otras, como la nube de AWS o los entornos de almacenamiento personalizados, son más difíciles de acceder de forma segura. 

"Mucha gente cree que es necesario volver a entrenar el modelo para introducir sus propios datos en él, y eso no es en absoluto así; de hecho, eso puede ser arriesgado, dependiendo de dónde viva ese modelo y cómo se ejecute", dijo Jackson. "Puedes levantar fácilmente uno de estos modelos OpenAI dentro de Azure y luego conectar en tus datos dentro de ese inquilino privado". 

"La historia nos dice que si das a las personas las herramientas adecuadas, se vuelven más productivas y descubren nuevas formas de trabajar en su beneficio", añadió Jackson. "Adoptar esta tecnología ofrece a los empleados una oportunidad sin precedentes para evolucionar y elevar su forma de trabajar y, para algunos, incluso descubrir nuevas trayectorias profesionales"



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS