5 min lectura
Nvidia mostró su poder en IA esta semana, presentando una serie de productos de próxima generación para dar paso a la nueva era de la inteligencia artificial. Desde lo que describió como un superchip revolucionario centrado en IA hasta herramientas de desarrollo más intuitivas, Nvidia claramente tiene la intención de seguir siendo el motor que impulsa la revolución de la IA.
La presentación de Nvidia en SIGGRAPH 2023, una conferencia anual dedicada a la tecnología e investigación de gráficos por computadora, estuvo casi completamente centrada en la IA. El CEO de Nvidia, Jensen Huang, dijo que la IA generativa representa un punto de inflexión similar a la revolución de internet hace décadas. Huang agregó que el mundo se está moviendo hacia una nueva era en la que la mayoría de las interacciones humano-computadora serán impulsadas por la IA.
"Cada aplicación, cada base de datos, cualquier cosa con la que interactúes en una computadora, es probable que primero te encuentres con un modelo de lenguaje grande", dijo Huang.
Al combinar software y hardware especializado, Nvidia se posiciona como el eslabón perdido para realizar todo el potencial de la IA.
El protagonista del evento fue el novedoso Superchip Grace Hopper GH200, la primera GPU con Memoria de Alto Ancho de Banda 3e (HBM3e). Con un increíble ancho de banda de hasta 2TB/s, HBM3e ofrece casi el triple del ancho de banda que la anterior generación HBM2e. El revolucionario chip GH200 con HBM3e marca un nuevo hito en rendimiento y eficiencia para aplicaciones de IA de alto nivel.
Nvidia define su chip Grace Hopper como una "CPU acelerada diseñada desde cero para aplicaciones de IA a gran escala y computación de alto rendimiento (HPC)". El chip es el resultado de combinar las arquitecturas Grace (CPUs de alto rendimiento) y Hopper (GPUs de alto rendimiento) de Nvidia, su nombre evoca el de la famosa científica de la computación estadounidense.
Según Huang, el GH200 puede ofrecer hasta seis veces el rendimiento de entrenamiento de la GPU insignia A100 de Nvidia para modelos de IA grandes o LLM. Se espera que el GH200 esté disponible en el segundo trimestre de 2024.
"GH200 es un nuevo motor para entrenamiento e inferencia", dijo Huang, añadiendo que "los modelos futuros de frontera se construirán de esta manera". Dijo que este nuevo superchip "probablemente incluso ejecuta Crysis" - un videojuego de disparos en primera persona con requisitos de hardware notoriamente pesados.
Nvidia también tuvo algunas noticias para los usuarios domésticos. El fabricante de chips presentó sus nuevas GPU de estación de trabajo RTX basadas en su arquitectura Ada Lovelace: la RTX 5000, RTX 4500 y RTX 4000. Con hasta 7680 núcleos CUDA, estas GPU ofrecen hasta 5 veces el rendimiento de las placas de la generación anterior para el desarrollo de IA, renderizado 3D, edición de video y otros flujos de trabajo profesionales exigentes.
La insignia RTX 6000 Ada sigue siendo la opción principal para los profesionales que requieren un rendimiento máximo. Sin embargo, la nueva línea amplía la arquitectura Ada Lovelace a un rango más amplio de usuarios. Las RTX 4000, 4500 y 5000 estarán disponibles a partir del tercer trimestre de 2022 en los principales OEM.
Sin embargo, estas nuevas tarjetas no son baratas. El precio de la RTX 4000 comienza en $1,250 y la RTX 5000 alrededor de $4,000.
Para profesionales y empresas que llevan sus iniciativas de IA al siguiente nivel, Nvidia presentó su nueva GPU a escala de centro de datos, Nvidia L40. Con hasta 18,176 núcleos CUDA y 48 GB de vRAM, el L40 ofrece un rendimiento de entrenamiento de IA hasta 9.2 veces mayor que el A100.
Nvidia dice que los fabricantes globales de servidores planean ofrecer el L40 en sus sistemas, lo que permite a las empresas entrenar modelos de IA gigantes con eficiencia y ahorro de costos óptimos. Combinado con el software de Nvidia, el L40 podría proporcionar una solución completa para las organizaciones que adoptan la IA.
Continuando con su impulso en la potenciación de aplicaciones de video, Nvidia también anunció un nuevo conjunto de kits de desarrollo de software acelerados por GPU y un servicio nativo de la nube para la edición de video llamado Maxine.
Impulsado por IA, Maxine ofrece capacidades como cancelación de ruido, mejora de resolución súper escalada y contacto visual simulado para videollamadas, lo que permite a los usuarios remotos tener conversaciones naturales desde casi cualquier lugar.
Nvidia dice que los socios de narración visual ya han integrado Maxine en flujos de trabajo como videoconferencias y edición de video.
Finalmente, Nvidia anunció el próximo lanzamiento de AI Workbench, una plataforma unificada que agiliza el desarrollo, prueba e implementación de modelos de IA generativa.
Al proporcionar una interfaz única para administrar datos, modelos y recursos en varias máquinas, AI Workbench permite una colaboración fluida y una escalabilidad desde una estación de trabajo local hasta la infraestructura en la nube.
Con su última gama de ofertas, que abarcan hardware, software y servicios, Nvidia dice que tiene la intención de acelerar la adopción empresarial de la IA a través de una pila tecnológica integral diseñada para abordar sus muchas complejidades.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.