El CEO de Nvidia Corporation (NVDA.US), Jensen Huang, declaró recientemente que la IA generativa representa un nuevo "momento iPhone". Si bien aún está por verse el impacto a largo plazo de la IA generativa, su impacto inmediato parece alterar, quizás de manera irrevocable, el enfoque de la infraestructura en la nube. Como proveedor exclusivo de aceleración de hardware de Microsoft para servicios de inteligencia artificial generativa, Nvidia debería ser el proveedor elegido para la aceleración de inteligencia artificial en la nube a nivel global. ¿Y por qué? Lo vemos a continuación.
Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre pasado, esto se ha convertido en la aplicación para usuarios de más rápido crecimiento, con más de 100 millones en enero. También ha provocado que los proveedores de servicios en la nube vuelvan a evaluar lo que la IA puede hacer. Por ejemplo, Microsoft Corporation (MSFT.US) ha apostado por la IA generativa, que es el término que define a las IA similares a ChatGPT, y aloja todos los servicios de OpenAI.
CEO de Nvidia, Jensen Huang
La caída en el gasto del centro de datos puede reflejar el impacto de ChatGPT
En el primer trimestre de este año, los principales proveedores de servicios en la nube, Microsoft, Alphabet Inc./Google (GOOG) y Amazon.com, Inc. (AMZN), aumentaron sustancialmente los ingresos por servicios en la nube. El segmento de nube inteligente de Microsoft Azure aumentó los ingresos en un 16 % interanual. Google Cloud aumentó los ingresos en un 28% anual. Amazon Web Services ("AWS") también aumentó sus ingresos en un 16% interanual.
A pesar de este crecimiento, ha habido una disminución en el gasto en hardware de servicios en la nube, sobre todo en Intel Corporation (INTC.US), donde los ingresos del centro de datos se redujeron un 39% interanual. Además, la perspectiva de Intel para el segundo trimestre implicaba un recorte mayor, aunque todavía sin especificar de los ingresos interanual para el centro de datos. Las cosas fueron mejores en Advanced Micro Devices, Inc. (AMD.US), donde los ingresos del centro de datos se mantuvieron estables interanuales, pero la compañía predijo una disminución interanual de los ingresos del centro de datos en el segundo trimestre.
¿Cómo se mantiene un crecimiento continuo de la nube con la aparente disminución del gasto en infraestructura de la nube?
Un inversor siempre podría atribuirlo a la cautela frente a los vientos en contra de la situación macroeconómica, combinado quizás con los costes y los problemas de las cadenas de suministros para la producción de hardware.
Pero realmente lo que tenemos por delante es un cambio tecnológico disruptivo, algo mucho más fundamental, que se ha acelerado con la llegada de la IA generativa. Y ese es el cambio de enfoque de las CPU (procesadores AMD o Intel) tradicionales como el motor computacional principal del centro de datos a una combinación de CPU y aceleradores de datos, que en su mayoría están basados en GPU (procesadores gráficos o tarjetas gráficas de Nvidia).
Este es un enfoque que Nvidia ha defendido durante años, algo normal ya que es su negocio, argumentando que la aceleración de la GPU es inherentemente más eficiente en términos de energía y rentable que las CPU individuales. El argumento en contra de esto ha sido que las CPU son más versátiles, mientras que las GPU están restringidas a ciertas tareas que se benefician del paralelismo masivo de la GPU.
Pero la gama de tareas que se benefician de la GPU ha ido en aumento. La supercomputación energéticamente eficiente es ahora el dominio casi exclusivo de la aceleración de GPU (o de Nvidia para que lo entendamos). En los servicios comerciales en la nube, las GPU aceleran todo, desde la transmisión de juegos hasta el metaverso. Y, por supuesto, la IA.
En este sentido, AMD, con una cartera sustancial de GPU, está mejor posicionada que Intel, y esto puede explicar en parte los mejores resultados del centro de datos del primer trimestre de AMD. Sin embargo, la llegada de la IA generativa ha trastornado el mercado de la aceleración de la IA.
Probablemente, los GPT, que es la abreviatura de Generative Pre-trained Transformer, han dejado obsoleta la aceleración de GPU convencional. Cuando Nvidia presentó el acelerador del centro de datos "Hopper" H100, en abril de 2022, incluía un "Transformer Engine" para acelerar las cargas de trabajo generativas de IA. El Transformer Engine se basa en los Tensor Cores de Nvidia para proporcionar una mejora de velocidad 6X en los transformadores de entrenamiento:
En el libro blanco publicado junto con los datos del trimestre anterior, Nvidia explicó las motivaciones del Transformer Engine que, sin entrar en los detalles y términos técnicos tremendamente complejos, a modo de resumen, en 2022, el motor Transformer de Nvidia parecía una tecnología simplemente interesante. Fue una innovación apropiada teniendo en cuenta que Nvidia quería seguir siendo relevante para la comunidad de investigación de IA. En ese momento no tenía idea de cuán crítico se volvería para las consideraciones de los proveedores de la nube como Microsoft que desean hacer que las GPT estén disponibles para el público en general.
Cómo Microsoft dio un salto adelante con la colaboración OpenAI
Cuando Microsoft presentó por primera vez su buscador y navegador generativo impulsado por IA en febrero, parecía que la compañía estaba mucho más avanzada que Google en la integración de GPT en sus productos. Y ahora, mientras Microsoft ofrece sus "copilotos" de IA como características estándar, el "Bard" de la competencia de Google aún es experimental.
Está claro que Microsoft ha dado un gran paso en IA con la ayuda de su colaboración con OpenAI. El servicio en la nube Azure de Microsoft proporciona todo el alojamiento para este (OpenAI), incluido ChatGPT e IA generativas más avanzadas. Además, está claro que Microsoft ha tenido acceso a la tecnología de IA generativa de OpenAI a nivel de código (algo fundamental) y la ha incorporado en varios "copilotos" de IA que la empresa ofrece a día de hoy.
Pero espera, ¿cómo desarrolló Microsoft una relación tan estrecha y aparentemente exclusiva con una institución de investigación que no tiene ánimo de lucro?
Pues resulta que OpenAI no es exactamente una organización sin ánimo de lucro. En 2019, OpenAI creó OpenAI LP como una subsidiaria onerosa y de propiedad total. Esto parece haberse hecho con la única intención de proporcionar un destinatario para una inversión de 1.000$ millones de Microsoft como si fuera una donación.
Posteriormente ya en enero de 2023, Microsoft invirtió otros 10.000$ millones en OpenAI LP, según informó Bloomberg:
El nuevo soporte, basado en 1.000$ millones que Microsoft invirtió en OpenAI en 2019 y otra ronda en 2021, tiene como objetivo brindar a Microsoft acceso a algunos de los sistemas de inteligencia artificial más populares y avanzados. Microsoft compite con Alphabet Inc., Amazon.com Inc. y Meta Platforms Inc. para dominar la tecnología de rápido crecimiento que genera texto, imágenes y otros medios en respuesta a un aviso breve.
Al mismo tiempo, OpenAI necesita la financiación y el poder de computación en la nube de Microsoft para procesar grandes volúmenes de datos y ejecutar los modelos cada vez más complejos que permiten que programas como DALL-E generen imágenes realistas basadas en un puñado de palabras, y ChatGPT para crear imágenes asombrosamente humanas. -como texto conversacional.
10.000$ millones son muchos millones para pagar lo que equivale a un montón de código, pero es un código al que nadie fuera de OpenAI y Microsoft tiene acceso.
La enorme inversión en IA generativa de Microsoft
Para dar el salto a Google, que había inventado el enfoque de IA generativa, Microsoft tuvo que hacer una inversión masiva no solo en el software de OpenAI sino también en el hardware, principalmente el hardware de Nvidia. Qué enorme, solo estamos comenzando a aprender a través de algunas publicaciones de blog de Microsoft.
En 2019, Microsoft y OpenAI iniciaron una asociación, que se amplió este año, para colaborar en las nuevas tecnologías de supercomputación de Azure AI que aceleran los avances en IA, cumplen la promesa de modelos de lenguaje extenso y ayudan a garantizar que los beneficios de la IA se compartan ampliamente.
Las dos empresas comenzaron a trabajar en estrecha colaboración para crear recursos de supercomputación en Azure que fueron diseñados y dedicados para permitir que OpenAI entrenara un conjunto en expansión de modelos de IA cada vez más potentes. Esta infraestructura incluía miles de GPU NVIDIA optimizadas para IA conectadas entre sí en una red de baja latencia y alto rendimiento basada en comunicaciones NVIDIA Quantum InfiniBand para computación de alto rendimiento.
La escala de la infraestructura de computación en la nube que OpenAI necesitaba para entrenar sus modelos no tenía precedentes: grupos exponencialmente más grandes de GPU en red que nadie en la industria había intentado construir, señaló Phil Waymouth, director senior de Microsoft a cargo de asociaciones estratégicas que ayudó a negociar el tratar con OpenAI.
A pesar de la enorme inversión en infraestructura, la base de clientes en este punto estaba relativamente limitada a investigadores de OpenAI y dentro de Microsoft. El cambio del programa de investigación a los servicios comerciales en la nube ha sido llamado por el CEO de Nvidia, Jensen Huang, y otros, como "la industrialización de la IA".
Durante su discurso de apertura de la GPU Technology Conference de marzo de 2023, el director ejecutivo Huang se refirió a la infraestructura necesaria como "fábricas de IA". Al diseñar la fábrica de IA que necesitaba OpenAI, Microsoft ciertamente tuvo una gran oportunidad de evaluar varias alternativas de hardware antes de decidirse por Nvidia.
Nvidia como proveedor casi exclusivo de Microsoft
La construcción de estas fábricas de IA aún está en marcha y continuará a medida que se expanda la demanda de servicios de IA generativa. Una idea de la oportunidad comercial para Nvidia se puede derivar de otra publicación de blog de Matt Vegas, gerente principal de productos para Azure HPC. En la publicación, anuncia que Microsoft está comenzando a ofrecer instancias de máquinas virtuales con un mínimo de 8 GPU Nvidia Hopper H100. Esto es escalable para el uso de IA en "miles" de H100.
Esencialmente, este es un sistema que permite que un sistema múltiple de conexiones pueda funcionar como una sola GPU unificada. Se conectan entre sí a través de enlaces de fibra óptica Nvidia InfiniBand con un ancho de banda de datos total de 3,2 Tb/seg.
Es difícil determinar cuántos aceleradores H100 reales ha comprado Microsoft, pero aparentemente son miles. Aunque nos podemos hacer una idea de cuántos miles al estimar la cantidad de H100 necesarios para alojar los servicios de OpenAI.
OpenAi ha sido muy reservado sobre los detalles de ChatGPT, por lo que es difícil determinar los recursos de hardware que requiere una sola instancia de ChatGPT. Tom's Hardware, web especializada en análisis técnicos de hardware, tiene un artículo interesante en el que el autor ejecutó un GPT menos capaz en una PC equipada con una GPU RTX 4090 (gama alta de las tarjetas gráficas de Nvidia para usuarios) y extrajo las siguientes conclusiones:
Si una sola GPU con 24 GB de VRAM puede ejecutar el GPT menor, entonces estimaría que un solo H100 con 80 GB de VRAM sería suficiente para ejecutar una instancia de ChatGPT. Esto es solamente una estimación. De hecho, una instancia de ChatGPT puede tener su procesamiento distribuido en varios H100 y acceder a más de 80 GB de VRAM, según la carga de trabajo. Los GPT más avanzados, ya sea de OpenAI o Microsoft, pueden requerir aún más.
Según informes, OpenAI recibe 55 millones de visitantes únicos por día durante un tiempo de visita promedio de 8 minutos. Si asumimos que cada visitante obtiene el uso exclusivo de un H100 durante la visita, esto implica que debe haber alrededor de 300.000 H100 en el servicio de nube de Azure para gestionar la carga. Eso equivaldría a 37.500 sistemas H100 DGX, con un valor aproximado de 3.750$ millones en ingresos, probablemente repartidos en varios trimestres.
Hasta el cuarto trimestre del año fiscal 2023 de Nvidia, la mayor parte de esta infraestructura probablemente ya estaba contabilizada en los ingresos del segmento comercial del centro de datos de Nvidia. Sin embargo, el potencial de expansión de los servicios de IA tipo GPT en Azure implica que hay mucho más por venir. El servicio basado en H100 de Microsoft, llamado ND H100 V5, se ofrece actualmente solo como versión preliminar. Esto es probablemente para asegurar que el hardware disponible no se sobrecargue.
¿Estamos ante la siguiente ola de innovación?. Fuente: Edelson Institute
Conclusiones
Todo parece indicar que Nvidia tiene todas las posibilidades de llegar primero y con la mayor cantidad a las necesidades de hardware en IA generativa.
Casi todos los proveedores de hardware en el espacio de servicios en la nube han notado que la IA generativa representa una gran oportunidad. Y tienen razón, pero es improbable que este mercado se distribuya uniformemente.
El dicho que dice que las batallas las gana el que llega primero y con más recursos, es una realidad para Nvidia su negocio de aceleración de IA. Mientras que los competidores sólo hablan de conseguir oportunidades futuras, Nvidia está acaparando el mercado actual para la aceleración generativa de IA.
Los inversores quedaron 'sorprendidos' por las acciones de Nvidia (NVDA.US) incluso por su comportamiento frente a otros grandes tecnológicos como Microsoft y Alphabet/Google. El S&P500 se quedó atrás de las acciones tecnológicas más grandes. Fuente: Bloomberg
La clave del éxito de Nvidia es que a parte de mantenerse en sus segmentos actuales, es que ha anticipado casi proféticamente las necesidades futuras. Nvidia estuvo allí desde el comienzo de OpenAI, cuando Jensen Huang entregó personalmente el primer sistema DGX a OpenAI allá por 2016, hace ya 7 años.
NVDA.US, D1. fuente: xStation
Nvidia Corporation nos ofrecerá esta semana los resultados de su primer trimestre fiscal 2024 (el miércoles 24 después del mercado). En un contexto técnico donde ya no tiene barreras para volver a recuperar los máximos históricos alcanzados en noviembre de 2021.
Darío García, EFA
XTB España
El contenido que se presenta en la sección de FORMACIÓN sólo tiene fines informativos, educativos y de apoyo para utilizar la plataforma. El material presentado, incluyendo los análisis, precios, opiniones u otros contenidos, no es una recomendación de inversión o información que recomiende o sugiera una estrategia de inversión ni se incluye en el ámbito del asesoramiento en materia de inversión recogido en la Ley 6/2023 de los Mercados de Valores y de los Servicios de Inversión (artículo 125.1 g). Este vídeo se ha preparado sin tener en cuenta las necesidades del cliente ni su situación financiera individual.
XTB no aceptará responsabilidad por ningún tipo de pérdidas o daños, incluyendo, entre otros, cualquier lucro cesante, que pueda surgir directa o indirectamente del uso o dependencia de la información incluida en este vídeo. XTB S.A. no es responsable de las acciones u omisiones del cliente, especialmente por la adquisición o disposición de instrumentos financieros, realizados con base en la información que contiene este vídeo.
El rendimiento pasado no es necesariamente indicativo de resultados futuros y cualquier persona que actúe sobre esta información lo hace bajo su propio riesgo.
Copyright © XTB S.A. Todos los derechos reservados. Está prohibido copiar, modificar y distribuir este vídeo sin el consentimiento expreso de XTB S.A.