IA
Empresa
IA generativa

Un nuevo amanecer en la gestión del conocimiento impulsada por IA

Los grandes modelos del lenguaje de IA, más pequeños y de código abierto, ofrecen a las empresas la posibilidad de aprovechar sus propios activos de datos para la innovación y la ventaja competitiva.

Inteligencia Artificial

Durante los últimos 30 años, el sueño de poder recopilar, gestionar y utilizar los activos de conocimiento de una organización nunca se ha hecho realidad. Los sistemas para compartir activos de información en toda la empresa han evolucionado en su sofisticación, pero no han sido capaces de pasar al siguiente nivel convirtiendo eficazmente la información que reside en archivos digitales en conocimiento utilizable. Los datos existen en silos cada vez más grandes, pero el verdadero conocimiento sigue residiendo en los empleados.

En este escenario, el auge de los grandes modelos lingüísticos (LLM) está empezando a hacer realidad la verdadera gestión del conocimiento (KM). Estos modelos pueden extraer significado de los datos digitales a una escala y velocidad que superan las capacidades de los analistas humanos. La encuesta State of the CIO de 2023 revela que el 71% de los directores de sistemas de información encuestados prevén una mayor implicación en la estrategia empresarial en los próximos tres años, y el 85% afirma que se centrarán más en la digitalización y la innovación. La aplicación de los LLM a los activos de conocimiento de una organización tiene el potencial de acelerar estas tendencias.

 

Menos es más

Los modelos de IA generativa (GenAI) ChatGPT y Dall-E 2 de OpenAI han revolucionado nuestra concepción de la IA y de lo que puede hacer. Desde escribir poemas hasta crear imágenes, es asombroso cómo un ordenador puede crear nuevos contenidos a partir de unas simples instrucciones. Sin embargo, la escala de los LLM utilizados para realizar estas tareas es enorme y costosa para OpenAI. GPT-4 se entrenó con más de 45 terabytes de datos de texto a través de más de mil GPU durante 34 días y costó casi 5 millones de dólares en potencia de cálculo. En 2022, OpenAI perdió 540 millones de dólares a pesar de haber recaudado 11.300 millones en rondas de financiación.

Claramente, estos costes y su escala de operaciones están más allá de las capacidades de la mayoría de las organizaciones que desean desarrollar sus propios LLM. Sin embargo, el futuro de la IA para muchas empresas pasa por construir y adaptar modelos mucho más pequeños basados en sus propios activos de datos internos. En lugar de depender de las API proporcionadas por empresas como OpenAI y de los riesgos de cargar datos potencialmente sensibles en servidores de terceros, los nuevos enfoques están permitiendo a las empresas crear pequeños LLM internos. El ajuste de los parámetros de los modelos LLM y nuevos lenguajes como Mojo y marcos de programación de IA como PyTorch reducen significativamente los recursos informáticos y el tiempo necesario para ejecutar programas de IA.

 

Lo abierto es mejor

Al igual que la web se basa en software y protocolos de código abierto, es probable que muchas iniciativas empresariales de IA se basen en modelos de código abierto como LLaMA y técnicas de libre acceso como LoRa. Según una nota de Google filtrada recientemente, "La barrera de entrada para la formación y la experimentación ha caído desde la producción total de una gran organización de investigación a una persona, una tarde y un portátil robusto".  Estas barreras de entrada no harán sino reducirse y mejorar los resultados, lo que permitirá a las startups y a las empresas construir modelos de nicho centrados en las necesidades específicas de los negocios y los flujos de trabajo.

 

De GenAI a SynthAI

Un aspecto central de estos avances es el paso de los sistemas de IA que crean nuevos contenidos a partir de simples instrucciones a modelos que se entrenan con los datos internos de una empresa y se programan para generar ideas y recomendaciones útiles.

Los LLM como ChatGPT producen a menudo resultados creíbles, pero no está claro cómo se utilizaron los datos con los que se alimentó el modelo y si las respuestas que da son verdaderas o alucinaciones. El caso reciente de un abogado de Nueva York que utilizó ChatGPT para generar expedientes judiciales y enumerar casos presuntamente históricos en apoyo de la demanda de su cliente mostró los peligros de confiar en los resultados de GenAI: a pesar de parecer pruebas auténticas, seis de los casos enumerados nunca tuvieron lugar.

La empresa de capital riesgo A16Z, de Silicon Valley, ha manifestado recientemente su convencimiento de que el futuro de la IA en el lugar de trabajo no pasa necesariamente por LLM como ChatGPT, sino por modelos más centrados y diseñados para responder a necesidades empresariales específicas. Se refieren a esto como SynthAI, en la que los modelos se entrenan con conjuntos de datos propios y se optimizan para fines concretos, como resolver problemas de atención al cliente, resumir resultados de estudios de mercado y crear correos electrónicos de marketing personalizados.

Aplicar el enfoque SynthAI para gestionar mejor los activos de datos de una empresa es una evolución natural de esta nueva etapa de la revolución de la IA. La consultora BCG ha adoptado este enfoque para 50 años de sus archivos, en gran parte informes, presentaciones y datos recogidos de encuestas y compromisos con clientes. Antes, los empleados sólo podían buscar en estos archivos mediante una búsqueda por palabras clave y luego leer cada documento para comprobar su relevancia. Ahora el sistema proporciona respuestas útiles a las preguntas.

El sueño de la gestión del conocimiento se está haciendo realidad.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS