Nvidia melhora chip de ponta para lidar com sistemas de IA maiores

Nvidia aprimora chip de ponta para enfrentar sistemas de IA maiores

13 de novembro (ANBLE) – A Nvidia (NVDA.O) adicionou novos recursos ao seu chip de ponta para inteligência artificial, dizendo que a nova oferta começará a ser disponibilizada no próximo ano, juntamente com a Amazon.com (AMZN.O), o Google da Alphabet (GOOGL.O) e a Oracle (ORCL.N).

O H200, como é chamado o chip, superará o atual chip de ponta H100 da Nvidia. A principal atualização é uma memória de alta largura de banda, uma das partes mais caras do chip que determina a quantidade de dados que ele pode processar rapidamente.

A Nvidia domina o mercado de chips de IA e alimenta o serviço ChatGPT da OpenAI e muitos outros serviços de IA generativos semelhantes que respondem a consultas com uma escrita semelhante à humana. A adição de mais memória de alta largura de banda e uma conexão mais rápida com os elementos de processamento do chip significa que esses serviços serão capazes de fornecer uma resposta mais rápida.

O H200 possui 141 gigabytes de memória de alta largura de banda, em comparação com os 80 gigabytes do anterior H100. A Nvidia não divulgou os fornecedores de memória do novo chip, mas a Micron Technology (MU.O) afirmou em setembro que estava trabalhando para se tornar um fornecedor da Nvidia.

A Nvidia também compra memória da SK Hynix da Coreia (000660.KS), que afirmou no mês passado que os chips de IA estão ajudando a revitalizar as vendas.

A Nvidia anunciou na quarta-feira que a Amazon Web Services, o Google Cloud, o Microsoft Azure e a Oracle Cloud Infrastructure estarão entre os primeiros provedores de serviços em nuvem a oferecer acesso aos chips H200, além dos provedores especializados em nuvem de IA CoreWeave, Lambda e Vultr.

Nossos Padrões: Os Princípios de Confiança ANBLE da Thomson.