Inteligencia artificial
IA
IA generativa

7 oscuros secretos de la IA generativa

Exagerada o no, la promesa de los algoritmos de IA generativa sigue siendo fuerte. Pero los responsables de TI que quieran apostar por la tecnología más puntera del momento deben tener en cuenta las siguientes cuestiones fundamentales.

inteligencia artificial
Foto de ThisIsEngineering (Pexels).

Los precios de las acciones se disparan. Todo el mundo sigue asombrado por la forma en que los algoritmos de la inteligencia artificial (IA) generativa son capaces de crear obras de arte asombrosas en cualquier estilo y, en un abrir y cerrar de ojos, escribir largos ensayos con una gramática excelente. Todos los CIO y CEO tienen una o tres diapositivas preparadas para hablar de cómo la IA generativa va a transformar su negocio.

La tecnología aún está en pañales, pero sus capacidades ya son innegables. La próxima ola de la informática incluirá la IA generativa, probablemente en varios lugares a lo largo del flujo de trabajo. El viaje va a ser imparable.

¿Qué podría salir mal? Pues muchas cosas. Los agoreros imaginan la destrucción total de la economía y la esclavitud de los humanos junto con una buena parte del mundo animal también.

Probablemente estén hiperventilando. Pero aunque los peores casos nunca lleguen, eso no significa que todo vaya a ser perfecto. Los algoritmos de IA generativa son todavía muy nuevos y evolucionan rápidamente, pero aún es posible ver grietas en los cimientos. Si examinamos a fondo los algoritmos, aún veremos lugares en los que no cumplirán con las expectativas.

Estos son algunos de los oscuros secretos de los algoritmos de IA generativa que debes tener en cuenta a la hora de planificar cómo incorporar esta tecnología al flujo de trabajo de tu empresa.

 

Conjuran errores de la nada

Hay algo casi mágico en la forma en que los grandes modelos lingüísticos (LLM) escriben ensayos de 1.000 palabras sobre temas oscuros como los rituales de apareamiento de las grullas de arena o la importancia de las crenulaciones en la arquitectura de Europa del Este del siglo XVII. Pero el mismo poder mágico les permite también conjurar errores de la nada. Conjugan verbos y utilizan la gramática con la habilidad de un licenciado en Filología Inglesa. Muchos de los hechos son completamente correctos. Entonces, voilà, se acaban de inventar algo como un niño de cuarto curso intentando fingir.

La estructura de los LLM hace que esto sea inevitable. Utilizan probabilidades para aprender cómo van juntas las palabras. De vez en cuando, los números eligen las palabras equivocadas. No hay ningún conocimiento real, ni siquiera ontología, que les sirva de guía. Son sólo las probabilidades y, a veces, los dados salen mal. Podemos pensar que nos estamos fusionando mentalmente con un nuevo ser superior, pero en realidad no somos diferentes de un jugador de juerga en Las Vegas que busca una señal en la secuencia de tiradas de los dados.

 

Son tamices de datos

Los seres humanos han intentado crear una elaborada jerarquía de conocimientos en la que algunos detalles son privados y otros se comparten con todo el mundo. Esta jerarquía es más evidente en el sistema de clasificación militar, pero muchas empresas también las tienen. Mantener estas jerarquías suele ser una verdadera molestia para el departamento de TI y los CIO que las gestionan.

Los LLM no se llevan muy bien con estas clasificaciones. Aunque los ordenadores son los mejores seguidores de las reglas y pueden mantener catálogos de una complejidad casi infinita, la estructura de los LLM no permite realmente que algunos detalles sean secretos y otros compartibles. Todo no es más que una enorme colección de probabilidades y paseos aleatorios por las cadenas de Markov.

Incluso hay momentos espeluznantes en los que un LLM pega dos hechos utilizando sus probabilidades e infiere algún hecho que nominalmente es secreto. Los humanos podrían incluso hacer lo mismo dados los mismos detalles.

Puede que llegue un momento en que los LLM sean capaces de mantener fuertes capas de secretismo, pero por ahora los sistemas están mejor entrenados con información que es muy pública y no causará revuelo si se filtra. Ya hay varios ejemplos sonados de filtración de datos de empresas y de evasión de las barreras de protección de los LLM. Algunas empresas están tratando de convertir la IA en una herramienta para detener las filtraciones de datos, pero pasará algún tiempo antes de que sepamos cuál es la mejor manera de hacerlo. Hasta entonces, sería mejor que los CIO mantuvieran un estricto control sobre los datos que se les suministran.

 

Proliferan la pereza

A los humanos se nos da muy bien confiar en las máquinas, sobre todo si ahorran trabajo. Cuando las LLM demuestran estar en lo cierto la mayor parte del tiempo, los humanos empiezan a confiar en ellas todo el tiempo.

Incluso pedir a los humanos que vuelvan a comprobar las IA no funciona demasiado bien. Cuando los humanos se acostumbran a que las IA acierten, empiezan a desviarse y a confiar en que las máquinas acertarán sin más.

Esta pereza empieza a llenar la organización. Los humanos dejan de pensar por sí mismos y, finalmente, la empresa se hunde en un estado de baja energía en la que nadie quiere pensar con originalidad. Puede ser relajante y sin estrés durante un tiempo, hasta que aparece la competencia.

 

Se desconoce su coste real

Nadie sabe cuál es el coste real de utilizar un LLM. Hay un precio para muchas de las API que detalla el coste por token, pero hay algunos indicios de que el importe está fuertemente subvencionado por capital riesgo. Vimos cómo ocurría lo mismo con servicios como Uber. Los precios eran bajos hasta que el dinero de los inversores se agotó y entonces los precios se dispararon.

Hay indicios de que los precios actuales no son los precios reales que acabarán dominando el mercado. Alquilar una buena GPU y mantenerla en funcionamiento puede ser mucho más caro. Es posible ahorrar un poco de dinero ejecutando los LLM localmente llenando un rack de tarjetas de vídeo, pero entonces pierdes todas las ventajas de los servicios llave en mano, como pagar sólo por las máquinas cuando las necesitas.

 

Son una pesadilla para los derechos de autor

Ya existen en el mercado algunas buenas LLM que pueden encargarse de tareas generales como hacer los deberes del instituto o escribir ensayos de admisión a la universidad que enfaticen la independencia, el empuje, la habilidad para escribir y el carácter moral de un estudiante (oh, y su habilidad para pensar por sí mismo).

Pero la mayoría de las empresas no tienen este tipo de tareas generales para que las realice la IA. Necesitan personalizar los resultados para su negocio específico. Los LLM básicos pueden proporcionar una base, pero aún queda mucho por entrenar y afinar.

Pocos han descubierto la mejor manera de reunir estos datos de formación. Algunas empresas tienen la suerte de disponer de grandes conjuntos de datos que controlan. La mayoría, sin embargo, están descubriendo que no tienen resueltas todas las cuestiones legales relativas a los derechos de autor. Algunos autores demandan porque no se les consultó sobre el uso de sus escritos para entrenar una IA. Algunos artistas se sienten plagiados. Aún se están resolviendo los problemas de privacidad.

¿Puedes entrenar tu IA con los datos de tus clientes? ¿Están resueltas las cuestiones de derechos de autor? ¿Dispones de los formularios legales adecuados? ¿Están los datos disponibles en el formato adecuado? Hay muchas preguntas que se interponen en el camino de la creación de una gran IA personalizada lista para trabajar en tu empresa.

 

Pueden invitar a la dependencia del proveedor

En teoría, los algoritmos de IA son herramientas generalizadas que han eliminado toda la complejidad de las interfaces de usuario. Se supone que son autónomos, independientes y capaces de manejar lo que la vida -o los humanos idiotas a los que sirven- les depare. En otras palabras, no deben ser tan rígidas e inflexibles como una API. En teoría, esto significa que debería ser fácil cambiar rápidamente de proveedor porque las IA se adaptarán sin más. No será necesario que un equipo de programadores reescriba el código y haga todas las cosas que causan problemas cuando llega el momento de cambiar de proveedor.

En realidad, sin embargo, sigue habiendo diferencias. Puede que las API sean sencillas, pero siguen teniendo diferencias, como las estructuras JSON para las invocaciones. Pero las verdaderas diferencias están enterradas en lo más profundo. Escribir instrucciones para las IA generativas es todo un arte. Las IA no lo ponen fácil para obtener el mejor rendimiento de ellas. Ya existe una descripción de trabajo para personas inteligentes que entiendan la idiosincrasia y puedan escribir mejores prompts que ofrezcan mejores respuestas. Aunque las diferencias en la API sean mínimas, las extrañas diferencias en la estructura de los prompts hacen que sea difícil cambiar rápidamente de IA.

 

Su inteligencia sigue siendo superficial

La brecha entre una familiaridad casual con el material y una comprensión profunda e inteligente ha sido durante mucho tiempo un tema en las universidades. Alexander Pope escribió: "Un poco de aprendizaje es algo peligroso; Bebe hondo, o no pruebes el manantial Pieriano". Eso fue en 1709.

Otras personas inteligentes han señalado problemas similares con los límites de la inteligencia humana. Sócrates llegó a la conclusión de que, a pesar de todos sus conocimientos, en realidad no sabía nada. Shakespeare pensaba que el sabio se sabe tonto.

La lista es larga y la mayoría de estas ideas sobre epistemología se aplican de una forma u otra a la magia de la IA generativa, a menudo en mucha mayor medida. Los CIO y los equipos de liderazgo tecnológico tienen ante sí un difícil reto. Tienen que aprovechar lo mejor que las IA generativas pueden generar, al tiempo que intentan evitar encallar en todos los bancos intelectuales que desde hace tiempo son un problema para las inteligencias de cualquier lugar, ya sean humanas, alienígenas o computacionales.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS