La conferencia virtual GTC 2023 de Nvidia Corp. de esta semana tiene casi demasiados anuncios para digerir, y van mucho más allá de sus unidades de procesamiento de gráficos emblemáticas. Pero después de revisar muchos resúmenes previos de GTC 2023, aquí están lo que creo que son los cinco principales anuncios, más una mención honorable.
Omniverse da vida al metaverso industrial
Omniverse de NVIDIA es una plataforma de computación basada en Universal Scene Description (USD), un ecosistema abierto para desarrollar mundos 3D en apoyo a lo que NVIDIA se refiere como el «metaverso industrial».
NVIDIA ve el metaverso como la próxima generación de internet: un internet conectado en 3D, donde los usuarios irán de un mundo 3D a otro para trabajar, colaborar y jugar. Desarrollado por Pixar, USD ha sido adoptado por Apple, Autodesk y muchas otras compañías, y NVIDIA lo llama el «bloque de construcción del metaverso».
Uno de los aspectos más importantes de Omniverse es que está diseñado para ser lo más realista posible. Esto significa que todas las leyes de la física se aplican, los objetos proyectan sombras, la luz se refleja causando distorsión y los colores se ven diferentes en la sombra. Esto permite a los desarrolladores crear un gemelo digital de casi cualquier entorno, lo que puede acelerar la implementación de nuevos servicios. Por ejemplo, un minorista podría usar Omniverse para simular flujos de tráfico en diferentes diseños de tiendas y probar cientos de opciones antes de realizar cualquier construcción.
NVIDIA anuncia mejoras en Omniverse En la conferencia, varias de las noticias de NVIDIA estuvieron relacionadas con el uso de mundos 3D en diseño y visualización, y la gestión de almacenes y fábricas, y en la industria automotriz.
Resumen de los principales anuncios de Omniverse en GTC23.
Creciendo el Ecosistema con Nuevos Conectores de Omniverse NVIDIA anunció varios nuevos conectores basados en USD para Omniverse, incluyendo Siemens Teamcenter NX Process Simulate, Rockwell Automation Emulate 3D, FlexSim, Blackshark.ai y Unity.
NVIDIA también anunció la disponibilidad general de Bentley Systems LumenRT para NVIDIA Omniverse, que se anunció el año pasado. LumenRT para NVIDIA Omniverse permite a las empresas aprovechar Omniverse para ofrecer visualizaciones 4D de gemelos digitales.
NVIDIA ahora tiene cientos de conectores a Omniverse, desde software hasta sensores y cámaras, creando un amplio ecosistema de desarrollo que permite a las empresas crear soluciones más poderosas y flexibles basadas en visualizar una solución antes de desarrollarla.


Nuevas características en Omniverse
- Shader de dispersión subsuperficial ray-traced en tiempo real: este proceso permite capturar con precisión lo que sucede cuando la luz golpea un objeto y se refracta, se divide o se rompe a través de diferentes tipos de superficies. Hace unos años, NVIDIA fue la primera empresa en hacer trazado de rayos fotorrealistas en tiempo real, y la adición de la dispersión subsuperficial ray-traced en tiempo real en Omniverse es impresionante.
- Mejoras en el rendimiento: las mejoras en la transferencia de datos en tiempo de ejecución y los optimizadores de escena permitirán operar con gemelos digitales más complejos, incluyendo fábricas, almacenes, manzanas de la ciudad, y más.
- Más activos listos para Sim: SimReady es un estándar para crear activos 3D fotorrealistas que incluyen metadatos estándar que permiten a cualquier persona en la plataforma Omniverse utilizarlos. NVIDIA ahora ha puesto a disposición de los clientes cientos de activos SimReady gratuitos.
- IA generativa: las nuevas capacidades de IA generativa incluyen Text-to-Material, Text-to-Code y Audio2Face. La empresa también presentó NVIDIA Picasso, un nuevo servicio en la nube que los desarrolladores pueden utilizar para crear y desplegar aplicaciones de texto a imagen, texto a vídeo y texto a 3D impulsadas por IA generativa.
- NVIDIA está asociada con Getty Images, Adobe y Shutterstock para proporcionar a los desarrolladores contenido basado en USD que puedan incorporar fácilmente en sus flujos de trabajo.
Acelerando la innovación de chips con cuLitho
Uno de los anuncios más impresionantes no se trataba directamente de inteligencia artificial, sino de acelerar la entrega de chips nuevos y más potentes al mercado, lo cual es esencial si la industria de semiconductores quiere apoyar la innovación continua de la IA.
Nvidia cuLitho es una biblioteca de nuevos algoritmos que aceleran los cálculos subyacentes de la litografía computacional, el proceso de impresión de diseños de chips en silicio. La compañía dice que ha demostrado una aceleración de 40 veces o más utilizando cuLitho, lo que tendrá dos impactos clave.
En primer lugar, la velocidad aumentada mejorará la productividad y eficiencia del fabricante de chips al permitir que el sistema Nvidia 500 DGX H100 haga el trabajo de 40,000 sistemas de unidad central de procesamiento, mientras que admite diseños de sistemas de centro de datos que utilizan una octava parte del espacio y una novena parte de la energía. Además, un diseño de chip que solía tardar dos semanas en procesarse ahora se puede procesar durante la noche.
Tan importante como lo anterior, Nvidia dice que cuLitho respaldará la producción de nuevas tecnologías de chips que requieren 10 veces la potencia computacional de los chips de hoy, como para las máscaras curvilíneas inversas y las cámaras de litografía de EUV de alta NA de ASML.
Democratización del acceso a modelos de inteligencia artificial personalizados con DGX Cloud
La inteligencia artificial requiere un proceso de tres pasos: adquirir y preparar los datos, entrenar un modelo basado en los datos y usar el modelo para inferencia a través de una aplicación. Aunque los sistemas Nvidia DGX se han convertido en sistemas especializados populares para este flujo de trabajo de IA, las empresas cada vez quieren realizar el entrenamiento de IA en la nube.
En la conferencia, Nvidia anunció DGX Cloud, una oferta de entrenamiento como servicio híbrido basada en la plataforma DGX. Al llevar las capacidades de DGX a la nube, la oferta brinda a las empresas acceso inmediato a la infraestructura y el software necesarios para entrenar modelos avanzados para la IA generativa. Nvidia DGX Cloud permite a las empresas acceder a su propio «supercomputador de IA» desde un navegador web, con una vista única de los procesos en la nube y en las instalaciones.
Esto permite a un científico señalar un conjunto de datos, decir dónde deben residir los resultados y presionar el botón de inicio. Debido a que es en la nube, la infraestructura subyacente se escala automáticamente y de manera eficiente, lo que permite a las organizaciones comenzar pequeñas y luego crecer según sea necesario. DGX Cloud puede ser especialmente útil para empresas que necesitan escalar su infraestructura de IA pero no tienen los recursos internos para optimizarla. La oferta también admite el uso compartido de procesamiento de IA entre varios equipos de ciencia de datos.
DGX Cloud está actualmente disponible en Oracle Cloud y a través de Equinix y pronto llegará a Microsoft Azure y Google Cloud.
Como parte del lanzamiento de DGX Cloud, Nvidia anunció un nuevo conjunto de servicios para facilitar la ejecución de tres tipos diferentes de modelos personalizados de IA generativa:
NeMo para generar y conversar con lenguaje humano. Picasso para generar texto a imagen, texto a video y texto a modelos 3D. BioNeMo para aprovechar el lenguaje de las proteínas y acelerar el descubrimiento de medicamentos.
Plataformas de inferencia para democratizar la IA generativa
La inferencia de la IA es un área cada vez más importante en el avance tecnológico. Estamos viendo que ChatGPT y otros motores se están incorporando en una variedad de soluciones, incluyendo Microsoft 365. La inferencia también está apoyando el uso de avatares con alimentación de IA en centros de contacto, análisis de video en el control de calidad de fabricación y mucho más.
En el evento, Nvidia anunció la disponibilidad de sus plataformas de cómputo DGX H100 para inferencia de IA. Según Nvidia, DGX H100 ofrece nueve veces más rendimiento, dos veces más rápido en la red y escalabilidad de alta velocidad. Microsoft ha anunciado que será el primer hiperescalador en utilizarlo y proporcionará acceso temprano al DGX H100.
La compañía también anunció Nvidia L4, un acelerador de perfil bajo y ranura única para IA, video y gráficos que se adapta a cualquier servidor estándar. Según Nvidia, el L4 puede decodificar, ejecutar modelos y codificar video 120 veces más rápido que las mejores plataformas de CPU, ejecutar simultáneamente más de 1040 transmisiones HD y procesar gráficos cuatro veces más rápido, y generar imágenes dos veces y media más rápido que el modelo anterior, T4. En la conferencia, Google Cloud anunció acceso temprano a L4.
Finalmente, Nvidia anunció el H100 NVL para inferencia en tiempo real de modelos de lenguaje grande en formas estándar. Esta GPU PCIe se adapta a cualquier servidor estándar que tome una tarjeta PCIe, pero hay dos GPU en el caso doble ancho conectadas a través de un puente NVLink, creando una GPU con 188 gigabytes de memoria. NVIDIA dice que el H100 NVL proporciona 12 veces el rendimiento del NVIDIA HGX A100 y puede ejecutar un modelo en paralelo para reducir la latencia y el tiempo de finalización.
Colaboración con Medtronic en Genius AI
Nvidia ha estado colaborando con Medtronic plc, líder mundial en dispositivos médicos, durante varios años, produciendo una serie de innovaciones en las áreas de cirugía asistida por robots, navegación quirúrgica y sistemas de imágenes intraoperatorias.
En la conferencia, Nvidia anunció una nueva asociación para diseñar el sistema de colonoscopia asistido por IA GI Genius de Medtronic basado en Nvidia Holoscan, que es una infraestructura completa de IA para la construcción de dispositivos y la implementación de aplicaciones de IA directamente en entornos clínicos. El sistema de colonoscopia asistido por IA GI Genius apoyará a los médicos con mejoras de imágenes de IA en tiempo real a través de una nueva suite de algoritmos.
Una de las principales ventajas de Holoscan es que es agnóstico de sensor y modalidad, lo que permite a Medtronic incorporar docenas de dispositivos que han construido o adquirido a lo largo de muchos años en sus iniciativas de IA. Al eliminar la necesidad de que Medtronic construya y mantenga su propia infraestructura, Holoscan permitirá a la empresa mantener su rápido ritmo de innovación.
El impacto social de la IA ha sido objeto de debate porque amenaza muchos empleos, pero su valor en el cuidado de la salud no puede ser exagerado. Los médicos pasan por alto muchas cosas hoy en día porque no pueden ver cada anomalía en cada conjunto de datos, pero una IA sí puede. He hablado con médicos de varios hospitales que usan IA, como el Massachusetts General en Boston, y me han dicho que la IA les permitió pasar menos tiempo en el diagnóstico y más tiempo en el tratamiento, ya que la IA hace gran parte del trabajo pesado de revisión de datos.
Nvidia ha anunciado la disponibilidad de su última unidad de procesamiento de datos, o DPU, BlueField-3
Cuenta con el doble de núcleos de procesador Arm y más aceleradores que la generación anterior de DPU, por lo que puede ejecutar cargas de trabajo hasta ocho veces más rápido. BlueField-3 puede descargar, acelerar y aislar cargas de trabajo en la nube, cómputo de alto rendimiento, empresas y casos de uso de IA acelerada.
En un anuncio relacionado, Oracle Cloud Infrastructure está seleccionando BlueField-3 para su stack de redes. La combinación de OCI y BlueField-3 admite agrupaciones de GPU a gran escala para una capacidad dinámica y siempre activa, con un enorme impulso de rendimiento y eficiencia al descargar las tareas de infraestructura del centro de datos de las CPUs.
Cualquier servidor que esté realizando tareas computacionalmente intensas debe utilizar una DPU. Existen ciertas tareas, como el cifrado y el procesamiento de paquetes, que los servidores basados en CPU no pueden manejar adecuadamente, y esto hace que las organizaciones tengan que gastar mucho dinero en servidores para que funcionen de manera modesta. Las DPUs están diseñadas para permitir que los servidores realicen las tareas que deben hacer y permitir que el motor de descarga se encargue de la mayor parte de las tareas intensivas.