A Nvidia (NVDC34), gigante dos chips de inteligência artificial (IA), faturou US$ 220 bilhões (cerca de R$ 1,1 trilhão) na última quinta-feira (23), um dia após a empresa divulgar seu balanço. O valor de mercado ganho em apenas um dia equivale a mais de “duas Petrobras” (PETR3;PETR4), que ontem fechou o pregão valendo R$ 492,3 bilhões. Ou seja, duas das estatais brasileiras equivalem a R$ 984,6 bilhões.
Na quarta-feira, antes da divulgação do documento, a Nvidia valia US$ 2,35 trilhões, e viu seu valor saltar para US$ 2,55 trilhões após o fechamento do mercado, o que a coloca como a terceira mais valiosa da bolsa americana, atrás apenas da Apple e Microsoft.
Esta semana, a Nvidia informou que teve receita de US$ 26 bilhões, quase triplicando os US$ 7,19 bilhões do ano anterior. O lucro líquido saltou cerca de 7 vezes em relação ao ano anterior, passando de US$ 2,04 bilhões para US$ 14,88 bilhões.
Continua após a publicidade
Hoje, as ações da empresa subiram 9,3% e atingiram patamar inédito para a marca. “A Nvidia domina o mercado de treinamento em IA, onde a demanda por GPUs de alto desempenho é muito alta. Além disso, a empresa está investindo em novas tecnologias, como as CPUs Grace Hopper e as GPUs Blackwell, que deverão manter a liderança no mercado”, afirma Matheus Popst, sócio da Arbor Capital.
Como a Nvidia ganha dinheiro
Fundada há mais de 30 anos, a empresa do CEO Jensen Huang antecipou o atual boom tecnológico em algumas décadas – quase involuntariamente. Criada em 1993, a Nvidia começou a desenvolver chips de processamento de vídeo (ou GPUs) para computadores e videogames em 1999. Essa tecnologia se tornou essencial para o processamento de vídeos pesados na indústria de games (alimentando consoles como Xbox e PlayStation) e indispensável em supercomputadores – que podem ser usado em sistemas em nuvem ou mineração de criptomoedas, duas áreas nas quais a Nvidia se tornou favorita há anos.
Continua após a publicidade
Para que qualquer inteligência artificial funcione, é necessária uma enorme quantidade de dados. Estes, por sua vez, exigem uma infraestrutura informática de última geração para processar informações. É aí que entram as GPUs: criados para acelerar o processamento gráfico em paralelo às CPUs (unidades centrais de processamento, que executam tarefas sequencialmente e com maior consumo de energia), esses chips evoluíram para abastecer as máquinas nas quais as redes neurais que rodam impulsionam a IA.
Esse processo ocorreu ao longo dos anos, quando especialistas começaram a otimizar GPUs para algoritmos de IA. Estima-se que apenas duas GPUs sejam necessárias para realizar o mesmo trabalho de IA que mais de 10 mil CPUs.
Em 2012, por exemplo, a empresa foi vital para o avanço da IA. Com a ajuda das GPUs Nvidia, foi desenvolvida a AlexNet, uma rede de algoritmos de aprendizagem profunda, considerada a pedra angular da IA moderna. Desenvolvido por nomes muito conhecidos hoje – Geoffrey Hinton, um dos “pais da IA moderna”, Ilya Sutskever, cofundador da OpenAI, e Alex Krizhevsky – o AlexNet estabeleceu padrões para algoritmos e uso de hardware.
Continua após a publicidade
Em 2009, Hinton chegou a dizer em entrevista que os pesquisadores de IA deveriam comprar GPUs Nvidia, pois elas seriam o futuro da IA. A profecia se tornou realidade – em 2016, Huang admitiu que a virada para o mundo da IA aconteceu de forma casual e inesperada.
A Nvidia comercializa atualmente a GPU H100, que além de prometer uma experiência visual excepcional para os gamers, foi otimizada para lidar com grandes volumes de dados, tornando-se uma opção mais eficiente para treinamento de modelos de IA. Cada um deles custa a partir de US$ 20 mil e as empresas precisam de milhares de unidades. No início deste ano, Mark Zuckerberg anunciou a compra de 350.000 GPUs H100 para desenvolver os modelos de IA da Meta.
O H100 é quatro vezes mais rápido que seu antecessor, o A100, no treinamento de grandes modelos de linguagem (LLMs) e na resposta aos comandos do usuário.
Continua após a publicidade
(com Estadão Conteúdo)