Actualidad
Procesador
Machine learning

'Machine Learning' clave en la batalla del mercado de procesadores

El nuevo TensorRT de Nvidia acelera las predicciones de aprendizaje de la máquina y ofrece resultados con menor latencia, afirma la compañía.

machine learning

Nvidia ha lanzado una nueva versión de TensorRT, un sistema de tiempo de ejecución para aprovechar inferencias usando modelos de aprendizaje profundo a través de las propias GPUs de Nvidia.

Las inferencias, o las predicciones hechas de un modelo entrenado, se pueden servir de CPUs o de GPUs. Usar las inferencias de las GPUs es parte de la estrategia de Nvidia para lograr una mayor adopción de sus procesadores, contrarrestando lo que AMD está haciendo para romper el dominio de Nvidia en el mercado de la GPU de aprendizaje automático.

Nvidia afirma que el TensorRT basado en GPU es mejor en general para la inferencia que los enfoques de CPU solamente. Uno de los puntos de referencia ofrecidos por Nvidia, la prueba de clasificación de imágenes de AlexNet bajo el marco de Caffe, afirma que TensorRT es 42 veces más rápido que una versión de la misma prueba, 16.041 imágenes por segundo frente a 374 cuando se ejecuta en el procesador Tesla P40 de Nvidia.  Servir las predicciones de una GPU también es más eficiente de energía y ofrece resultados con menor latencia, afirma Nvidia.

TensorRT no funciona nada más que con la propia línea de GPU de Nvidia, y es una oferta patentada de código cerrado. AMD, por el contrario, ha estado prometiendo un acercamiento más abierto a cómo sus GPUs se pueden utilizar para las aplicaciones de aprendizaje de la máquina, por medio de la biblioteca libre del hardware abierto del ROCm para acelerar el aprendizaje de la máquina.



TE PUEDE INTERESAR...

CASOS DE ÉXITO

Accede a nuestra publicación de canal

DealerWorld Digital

Documentos ComputerWorld

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS