Acciones de Crecimiento: NVIDIA Corporation

11:39 23 de mayo de 2023

El CEO de Nvidia Corporation (NVDA.US), Jensen Huang, declaró recientemente que la IA generativa representa un nuevo "momento iPhone". Si bien aún está por verse el impacto a largo plazo de la IA generativa, su impacto inmediato parece alterar, quizás de manera irrevocable, el enfoque de la infraestructura en la nube. Como proveedor exclusivo de aceleración de hardware de Microsoft para servicios de inteligencia artificial generativa, Nvidia debería ser el proveedor elegido para la aceleración de inteligencia artificial en la nube a nivel global. ¿Y por qué? Lo vemos a continuación.

Desde el lanzamiento de ChatGPT por parte de OpenAI en noviembre pasado, esto se ha convertido en la aplicación para usuarios de más rápido crecimiento, con más de 100 millones en enero. También ha provocado que los proveedores de servicios en la nube vuelvan a evaluar lo que la IA puede hacer. Por ejemplo, Microsoft Corporation (MSFT.US) ha apostado por la IA generativa, que es el término que define a las IA similares a ChatGPT, y aloja todos los servicios de OpenAI.

CEO de Nvidia, Jensen Huang

La caída en el gasto del centro de datos puede reflejar el impacto de ChatGPT

En el primer trimestre de este año, los principales proveedores de servicios en la nube, Microsoft, Alphabet Inc./Google (GOOG) y Amazon.com, Inc. (AMZN), aumentaron sustancialmente los ingresos por servicios en la nube. El segmento de nube inteligente de Microsoft Azure aumentó los ingresos en un 16 % interanual. Google Cloud aumentó los ingresos en un 28% anual. Amazon Web Services ("AWS") también aumentó sus ingresos en un 16% interanual.

A pesar de este crecimiento, ha habido una disminución en el gasto en hardware de servicios en la nube, sobre todo en Intel Corporation (INTC.US), donde los ingresos del centro de datos se redujeron un 39% interanual. Además, la perspectiva de Intel para el segundo trimestre implicaba un recorte mayor, aunque todavía sin especificar de los ingresos interanual para el centro de datos. Las cosas fueron mejores en Advanced Micro Devices, Inc. (AMD.US), donde los ingresos del centro de datos se mantuvieron estables interanuales, pero la compañía predijo una disminución interanual de los ingresos del centro de datos en el segundo trimestre.

 

¿Cómo se mantiene un crecimiento continuo de la nube con la aparente disminución del gasto en infraestructura de la nube?

Un inversor siempre podría atribuirlo a la cautela frente a los vientos en contra de la situación macroeconómica, combinado quizás con los costes y los problemas de las cadenas de suministros para la producción de hardware.

Pero realmente lo que tenemos por delante es un cambio tecnológico disruptivo, algo mucho más fundamental, que se ha acelerado con la llegada de la IA generativa. Y ese es el cambio de enfoque de las CPU (procesadores AMD o Intel) tradicionales como el motor computacional principal del centro de datos a una combinación de CPU y aceleradores de datos, que en su mayoría están basados en GPU (procesadores gráficos o tarjetas gráficas de Nvidia).

Este es un enfoque que Nvidia ha defendido durante años, algo normal ya que es su negocio, argumentando que la aceleración de la GPU es inherentemente más eficiente en términos de energía y rentable que las CPU individuales. El argumento en contra de esto ha sido que las CPU son más versátiles, mientras que las GPU están restringidas a ciertas tareas que se benefician del paralelismo masivo de la GPU.

Pero la gama de tareas que se benefician de la GPU ha ido en aumento. La supercomputación energéticamente eficiente es ahora el dominio casi exclusivo de la aceleración de GPU (o de Nvidia para que lo entendamos). En los servicios comerciales en la nube, las GPU aceleran todo, desde la transmisión de juegos hasta el metaverso. Y, por supuesto, la IA.

En este sentido, AMD, con una cartera sustancial de GPU, está mejor posicionada que Intel, y esto puede explicar en parte los mejores resultados del centro de datos del primer trimestre de AMD. Sin embargo, la llegada de la IA generativa ha trastornado el mercado de la aceleración de la IA.

Probablemente, los GPT, que es la abreviatura de Generative Pre-trained Transformer, han dejado obsoleta la aceleración de GPU convencional. Cuando Nvidia presentó el acelerador del centro de datos "Hopper" H100, en abril de 2022, incluía un "Transformer Engine" para acelerar las cargas de trabajo generativas de IA. El Transformer Engine se basa en los Tensor Cores de Nvidia para proporcionar una mejora de velocidad 6X en los transformadores de entrenamiento:

En el libro blanco publicado junto con los datos del trimestre anterior, Nvidia explicó las motivaciones del Transformer Engine que, sin entrar en los detalles y términos técnicos tremendamente complejos, a modo de resumen, en 2022, el motor Transformer de Nvidia parecía una tecnología simplemente interesante. Fue una innovación apropiada teniendo en cuenta que Nvidia quería seguir siendo relevante para la comunidad de investigación de IA. En ese momento no tenía idea de cuán crítico se volvería para las consideraciones de los proveedores de la nube como Microsoft que desean hacer que las GPT estén disponibles para el público en general.

 

Cómo Microsoft dio un salto adelante con la colaboración OpenAI

Cuando Microsoft presentó por primera vez su buscador y navegador generativo impulsado por IA en febrero, parecía que la compañía estaba mucho más avanzada que Google en la integración de GPT en sus productos. Y ahora, mientras Microsoft ofrece sus "copilotos" de IA como características estándar, el "Bard" de la competencia de Google aún es experimental.

Está claro que Microsoft ha dado un gran paso en IA con la ayuda de su colaboración con OpenAI. El servicio en la nube Azure de Microsoft proporciona todo el alojamiento para este (OpenAI), incluido ChatGPT e IA generativas más avanzadas. Además, está claro que Microsoft ha tenido acceso a la tecnología de IA generativa de OpenAI a nivel de código (algo fundamental) y la ha incorporado en varios "copilotos" de IA que la empresa ofrece a día de hoy.

 

Pero espera, ¿cómo desarrolló Microsoft una relación tan estrecha y aparentemente exclusiva con una institución de investigación que no tiene ánimo de lucro?

Pues resulta que OpenAI no es exactamente una organización sin ánimo de lucro. En 2019, OpenAI creó OpenAI LP como una subsidiaria onerosa y de propiedad total. Esto parece haberse hecho con la única intención de proporcionar un destinatario para una inversión de 1.000$ millones de Microsoft como si fuera una donación.

Posteriormente ya en enero de 2023, Microsoft invirtió otros 10.000$ millones en OpenAI LP, según informó Bloomberg:

El nuevo soporte, basado en 1.000$ millones que Microsoft invirtió en OpenAI en 2019 y otra ronda en 2021, tiene como objetivo brindar a Microsoft acceso a algunos de los sistemas de inteligencia artificial más populares y avanzados. Microsoft compite con Alphabet Inc., Amazon.com Inc. y Meta Platforms Inc. para dominar la tecnología de rápido crecimiento que genera texto, imágenes y otros medios en respuesta a un aviso breve.

Al mismo tiempo, OpenAI necesita la financiación y el poder de computación en la nube de Microsoft para procesar grandes volúmenes de datos y ejecutar los modelos cada vez más complejos que permiten que programas como DALL-E generen imágenes realistas basadas en un puñado de palabras, y ChatGPT para crear imágenes asombrosamente humanas. -como texto conversacional.

10.000$ millones son muchos millones para pagar lo que equivale a un montón de código, pero es un código al que nadie fuera de OpenAI y Microsoft tiene acceso.

 

La enorme inversión en IA generativa de Microsoft

Para dar el salto a Google, que había inventado el enfoque de IA generativa, Microsoft tuvo que hacer una inversión masiva no solo en el software de OpenAI sino también en el hardware, principalmente el hardware de Nvidia. Qué enorme, solo estamos comenzando a aprender a través de algunas publicaciones de blog de Microsoft.

En 2019, Microsoft y OpenAI iniciaron una asociación, que se amplió este año, para colaborar en las nuevas tecnologías de supercomputación de Azure AI que aceleran los avances en IA, cumplen la promesa de modelos de lenguaje extenso y ayudan a garantizar que los beneficios de la IA se compartan ampliamente.

Las dos empresas comenzaron a trabajar en estrecha colaboración para crear recursos de supercomputación en Azure que fueron diseñados y dedicados para permitir que OpenAI entrenara un conjunto en expansión de modelos de IA cada vez más potentes. Esta infraestructura incluía miles de GPU NVIDIA optimizadas para IA conectadas entre sí en una red de baja latencia y alto rendimiento basada en comunicaciones NVIDIA Quantum InfiniBand para computación de alto rendimiento.

La escala de la infraestructura de computación en la nube que OpenAI necesitaba para entrenar sus modelos no tenía precedentes: grupos exponencialmente más grandes de GPU en red que nadie en la industria había intentado construir, señaló Phil Waymouth, director senior de Microsoft a cargo de asociaciones estratégicas que ayudó a negociar el tratar con OpenAI.

A pesar de la enorme inversión en infraestructura, la base de clientes en este punto estaba relativamente limitada a investigadores de OpenAI y dentro de Microsoft. El cambio del programa de investigación a los servicios comerciales en la nube ha sido llamado por el CEO de Nvidia, Jensen Huang, y otros, como "la industrialización de la IA".

Durante su discurso de apertura de la GPU Technology Conference de marzo de 2023, el director ejecutivo Huang se refirió a la infraestructura necesaria como "fábricas de IA". Al diseñar la fábrica de IA que necesitaba OpenAI, Microsoft ciertamente tuvo una gran oportunidad de evaluar varias alternativas de hardware antes de decidirse por Nvidia.

 

Nvidia como proveedor casi exclusivo de Microsoft

La construcción de estas fábricas de IA aún está en marcha y continuará a medida que se expanda la demanda de servicios de IA generativa. Una idea de la oportunidad comercial para Nvidia se puede derivar de otra publicación de blog de Matt Vegas, gerente principal de productos para Azure HPC. En la publicación, anuncia que Microsoft está comenzando a ofrecer instancias de máquinas virtuales con un mínimo de 8 GPU Nvidia Hopper H100. Esto es escalable para el uso de IA en "miles" de H100.

Esencialmente, este es un sistema que permite que un sistema múltiple de conexiones pueda funcionar como una sola GPU unificada. Se conectan entre sí a través de enlaces de fibra óptica Nvidia InfiniBand con un ancho de banda de datos total de 3,2 Tb/seg.

Es difícil determinar cuántos aceleradores H100 reales ha comprado Microsoft, pero aparentemente son miles. Aunque nos podemos hacer una idea de cuántos miles al estimar la cantidad de H100 necesarios para alojar los servicios de OpenAI.

OpenAi ha sido muy reservado sobre los detalles de ChatGPT, por lo que es difícil determinar los recursos de hardware que requiere una sola instancia de ChatGPT. Tom's Hardware, web especializada en análisis técnicos de hardware, tiene un artículo interesante en el que el autor ejecutó un GPT menos capaz en una PC equipada con una GPU RTX 4090 (gama alta de las tarjetas gráficas de Nvidia para usuarios) y extrajo las siguientes conclusiones:

Si una sola GPU con 24 GB de VRAM puede ejecutar el GPT menor, entonces estimaría que un solo H100 con 80 GB de VRAM sería suficiente para ejecutar una instancia de ChatGPT. Esto es solamente una estimación. De hecho, una instancia de ChatGPT puede tener su procesamiento distribuido en varios H100 y acceder a más de 80 GB de VRAM, según la carga de trabajo. Los GPT más avanzados, ya sea de OpenAI o Microsoft, pueden requerir aún más.

Según informes, OpenAI recibe 55 millones de visitantes únicos por día durante un tiempo de visita promedio de 8 minutos. Si asumimos que cada visitante obtiene el uso exclusivo de un H100 durante la visita, esto implica que debe haber alrededor de 300.000 H100 en el servicio de nube de Azure para gestionar la carga. Eso equivaldría a 37.500 sistemas H100 DGX, con un valor aproximado de 3.750$ millones en ingresos, probablemente repartidos en varios trimestres.

Hasta el cuarto trimestre del año fiscal 2023 de Nvidia, la mayor parte de esta infraestructura probablemente ya estaba contabilizada en los ingresos del segmento comercial del centro de datos de Nvidia. Sin embargo, el potencial de expansión de los servicios de IA tipo GPT en Azure implica que hay mucho más por venir. El servicio basado en H100 de Microsoft, llamado ND H100 V5, se ofrece actualmente solo como versión preliminar. Esto es probablemente para asegurar que el hardware disponible no se sobrecargue.

¿Estamos ante la siguiente ola de innovación?. Fuente: Edelson Institute

Conclusiones

Todo parece indicar que Nvidia  tiene todas las posibilidades de llegar primero y con la mayor cantidad a las necesidades de hardware en IA generativa.

Casi todos los proveedores de hardware en el espacio de servicios en la nube han notado que la IA generativa representa una gran oportunidad. Y tienen razón, pero es improbable que este mercado se distribuya uniformemente.

El dicho que dice que las batallas las gana el que llega primero y con más recursos, es una realidad para Nvidia su negocio de aceleración de IA. Mientras que los competidores sólo hablan de conseguir oportunidades futuras, Nvidia está acaparando el mercado actual para la aceleración generativa de IA.

Los inversores quedaron 'sorprendidos' por las acciones de Nvidia (NVDA.US) incluso por su comportamiento frente a otros grandes tecnológicos como Microsoft y Alphabet/Google. El S&P500 se quedó atrás de las acciones tecnológicas más grandes. Fuente: Bloomberg

La clave del éxito de Nvidia es que a parte de mantenerse en sus segmentos actuales, es que ha anticipado casi proféticamente las necesidades futuras. Nvidia estuvo allí desde el comienzo de OpenAI, cuando Jensen Huang entregó personalmente el primer sistema DGX a OpenAI allá por 2016, hace ya 7 años.

NVDA.US, D1. fuente: xStation

Nvidia Corporation nos ofrecerá esta semana los resultados de su primer trimestre fiscal 2024 (el miércoles 24 después del mercado). En un contexto técnico donde ya no tiene barreras para volver a recuperar los máximos históricos alcanzados en noviembre de 2021.

 

Darío García, EFA
XTB España

El contenido que se presenta en la sección de FORMACIÓN sólo tiene fines informativos, educativos y de apoyo para utilizar la plataforma. El material presentado, incluyendo los análisis, precios, opiniones u otros contenidos, no es una recomendación de inversión o información que recomiende o sugiera una estrategia de inversión ni se incluye en el ámbito del asesoramiento en materia de inversión recogido en la Ley 6/2023 de los Mercados de Valores y de los Servicios de Inversión (artículo 125.1 g). Este vídeo se ha preparado sin tener en cuenta las necesidades del cliente ni su situación financiera individual.
XTB no aceptará responsabilidad por ningún tipo de pérdidas o daños, incluyendo, entre otros, cualquier lucro cesante, que pueda surgir directa o indirectamente del uso o dependencia de la información incluida en este vídeo. XTB S.A. no es responsable de las acciones u omisiones del cliente, especialmente por la adquisición o disposición de instrumentos financieros, realizados con base en la información que contiene este vídeo.
El rendimiento pasado no es necesariamente indicativo de resultados futuros y cualquier persona que actúe sobre esta información lo hace bajo su propio riesgo.
Copyright © XTB S.A. Todos los derechos reservados. Está prohibido copiar, modificar y distribuir este vídeo sin el consentimiento expreso de XTB S.A.

Compartir:
Volver

Únete a más de 1.000.000 Clientes de todo el mundo

Utilizamos Cookies

Al hacer clic en "Aceptar todas", aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación en la página web, analizar el uso de la página web, y ayudar en nuestras estrategias de márketing.

Este grupo contiene cookies que son necesarias para que funcione nuestra página web. Forman parte de las funcionalidades como las preferencias de idioma, distribución de tráfico o mantener abierta la sesión del usario. No se pueden deshabilitar.

Nombre de la cookie
Descripción
SERVERID
userBranchSymbol Fecha de caducidad: 17 de octubre de 2024
adobe_unique_id Fecha de caducidad: 16 de octubre de 2025
test_cookie Fecha de caducidad: 1 de febrero de 2023
SESSID Fecha de caducidad: 2 de marzo de 2024
__hssc Fecha de caducidad: 1 de febrero de 2023
__cf_bm Fecha de caducidad: 1 de febrero de 2023
intercom-id-iojaybix Fecha de caducidad: 13 de julio de 2025
intercom-session-iojaybix Fecha de caducidad: 23 de octubre de 2024
leavingBranchPopup
countryIsoCode
intercom-device-id-iojaybix Fecha de caducidad: 13 de julio de 2025
xtbCookiesSettings Fecha de caducidad: 16 de octubre de 2025
TS5b68a4e1027
xtbLanguageSettings Fecha de caducidad: 16 de octubre de 2025
userPreviousBranchSymbol Fecha de caducidad: 16 de octubre de 2025
TS5b68a4e1027
__cfruid
__cf_bm Fecha de caducidad: 16 de octubre de 2024
__cf_bm Fecha de caducidad: 16 de octubre de 2024
_cfuvid
__cfruid
__cf_bm Fecha de caducidad: 16 de octubre de 2024
adobe_unique_id Fecha de caducidad: 16 de octubre de 2025
TS5b68a4e1027
SERVERID
TS5b68a4e1027
__cfruid
__cf_bm Fecha de caducidad: 16 de octubre de 2024
intercom-id-iojaybix Fecha de caducidad: 26 de noviembre de 2024
intercom-session-iojaybix Fecha de caducidad: 8 de marzo de 2024
intercom-device-id-iojaybix Fecha de caducidad: 26 de noviembre de 2024
xtbCookiesSettings Fecha de caducidad: 16 de octubre de 2025
_cfuvid
__cf_bm Fecha de caducidad: 16 de octubre de 2024

Utilizamos herramientas que nos dejan analizar el uso de nuestra página web. Estos datos nos permiten mejorar la experiencia del usuario en nuestra página web.

Nombre de la cookie
Descripción
_gid Fecha de caducidad: 2 de febrero de 2023
_gaexp Fecha de caducidad: 4 de mayo de 2023
_gat_UA-16408788-1 Fecha de caducidad: 1 de febrero de 2023
_gat_UA-121192761-1 Fecha de caducidad: 1 de febrero de 2023
_gcl_au Fecha de caducidad: 2 de mayo de 2023
_ga_CBPL72L2EC Fecha de caducidad: 31 de enero de 2025
_ga Fecha de caducidad: 31 de enero de 2025
AnalyticsSyncHistory Fecha de caducidad: 3 de marzo de 2023
__hstc Fecha de caducidad: 31 de julio de 2023
__hssrc
ln_or Fecha de caducidad: 2 de febrero de 2023
_hjSessionUser_1132297 Fecha de caducidad: 1 de febrero de 2024
_hjFirstSeen Fecha de caducidad: 1 de febrero de 2023
_hjIncludedInSessionSample Fecha de caducidad: 1 de febrero de 2023
_hjSession_1132297 Fecha de caducidad: 1 de febrero de 2023
_hjIncludedInPageviewSample Fecha de caducidad: 1 de febrero de 2023
_hjAbsoluteSessionInProgress Fecha de caducidad: 1 de febrero de 2023
_vwo_uuid_v2 Fecha de caducidad: 17 de octubre de 2025
_vwo_uuid Fecha de caducidad: 16 de octubre de 2025
_vwo_ds Fecha de caducidad: 15 de noviembre de 2024
_vwo_sn Fecha de caducidad: 16 de octubre de 2024
_vis_opt_s Fecha de caducidad: 24 de enero de 2025
_vis_opt_test_cookie
__hstc Fecha de caducidad: 14 de abril de 2025
__hssrc
__hssc Fecha de caducidad: 16 de octubre de 2024

Este grupo de cookies se utiliza para mostrarte anuncios de temas en los que estás interesado. También nos permite monitorizar nuestras actividades de márketing, y nos ayuda a medir la efectividad de nuestros anuncios.

Nombre de la cookie
Descripción
_omappvp Fecha de caducidad: 13 de enero de 2034
_omappvs Fecha de caducidad: 1 de febrero de 2023
_fbp Fecha de caducidad: 2 de mayo de 2023
fr Fecha de caducidad: 7 de diciembre de 2022
lang
_ttp Fecha de caducidad: 26 de febrero de 2024
_tt_enable_cookie Fecha de caducidad: 26 de febrero de 2024
_ttp Fecha de caducidad: 26 de febrero de 2024
hubspotutk Fecha de caducidad: 31 de julio de 2023
omSeen-pyfa0xtqk5j72jwykxzy Fecha de caducidad: 8 de octubre de 2022
YSC
VISITOR_INFO1_LIVE Fecha de caducidad: 14 de abril de 2025
hubspotutk Fecha de caducidad: 14 de abril de 2025
VISITOR_PRIVACY_METADATA Fecha de caducidad: 14 de abril de 2025

Las cookies de este grupo almacenan las preferencias que elijas mientras utilizas la página web, para que ya estén establecidas cuando vuelvas a visitar la página tiempo después.

Nombre de la cookie
Descripción
UserMatchHistory Fecha de caducidad: 3 de marzo de 2023
bcookie Fecha de caducidad: 1 de febrero de 2024
lidc Fecha de caducidad: 2 de febrero de 2023
lang
bscookie Fecha de caducidad: 1 de febrero de 2024
li_gc Fecha de caducidad: 31 de julio de 2023

Esta página utiliza cookies. Las cookies se almacenan en tu navegador y las utilizan la mayoría de las páginas web para ayudarte a personalizar tu experiencia web. Para obtener más información vea nuestra Política de Privacidad. Puedes gestionar las cookies pinchando en "Configuración". Al hacer clic en "Aceptar todas", das tu consentimiento para todas nuestras cookies.

Cambiar región e idioma
País de residencia
Idioma