A Lei de Moore chegou ao fim. Entenda por que a NVIDIA aposta na Lei de Huang

Durante sua participação na Computex 2025, Jensen Huang, CEO da NVIDIA, cravou sem rodeios: a Lei de Moore ficou para trás. Segundo ele, os avanços que movem a tecnologia hoje não vêm mais da miniaturização dos transistores, e sim de uma transformação estrutural no design dos sistemas. Esse novo paradigma, que já norteia as estratégias da empresa, ganhou até nome: Lei de Huang.

A lógica por trás da Lei de Huang

Jensen Huang, CEO da NVIDIA
Jensen Huang, CEO da NVIDIA

O raciocínio é simples, mas poderoso. À medida que os transistores se aproximam dos limites físicos e econômicos, o ganho por reduzir seus tamanhos se torna cada vez menor. O que antes impulsionava saltos geracionais na indústria de chips começa a perder fôlego.

Huang, então, aposta em uma abordagem completamente diferente. O futuro, segundo ele, está na capacidade de interconectar múltiplos chips como se fossem um único cérebro. Tecnologias como CoWoS, da TSMC, que permite empacotar diversos chips no mesmo módulo, e NVLink, solução proprietária da NVIDIA para interligar GPUs, são exemplos claros desse caminho.

O fim dos ciclos longos

Se a indústria tradicional trabalha com ciclos de desenvolvimento que variam de um a dois anos, a NVIDIA decidiu acelerar. Huang revelou que seus times já operam em ciclos de seis meses — e a meta é reduzir esse tempo pela metade, chegando a apenas três meses entre cada salto tecnológico. Produtos como o Blackwell Ultra e o Vera Rubin, lançados com poucos meses de diferença, são a materialização desse novo ritmo.

O crescimento agora vem do sistema, não do chip

nvlink switch tray ari 1920x1080 2

Para Huang, ficou evidente que não é mais o silício isolado que dita o progresso. O avanço vem de uma soma de fatores: sistemas mais robustos, interconexões velozes e arquiteturas desenhadas desde o início para operar em larga escala.

“O desempenho não cresce mais só com o chip. Ele cresce com o sistema. Com as interconexões. Com arquiteturas que pensam na escala desde o começo”, resumiu o executivo durante sua apresentação em Taipei.

Esse conceito não é abstrato. Na prática, é a única forma de lidar com a explosão de demanda gerada por IA generativa, data centers e computação distribuída.

A Lei de Moore ficou no passado

Criada por Gordon Moore, cofundador da Intel, a famosa “Lei de Moore” surgiu como uma observação em 1965. Moore percebeu que o número de transistores em um chip dobrava aproximadamente a cada 24 meses, reduzindo custos e aumentando o desempenho. Embora nunca tenha sido uma lei científica formal, virou uma espécie de bússola para toda a indústria de semicondutores por mais de cinco décadas.

Só que os tempos mudaram. A miniaturização está esbarrando em barreiras físicas, e a própria Intel já admite que esse modelo de evolução desacelerou, algo que Huang agora rotula como encerrado.

Uma quebra de paradigma definitiva

Em 2023, Huang afirmou que, na última década, os chips da NVIDIA se tornaram mil vezes mais rápidos. Isso simplesmente ignora qualquer limitação imposta pela antiga Lei de Moore.

Na prática, a Lei de Huang não é só uma provocação teórica. Ela já está em curso, moldando o presente e, muito provavelmente, ditando o futuro da computação, da inteligência artificial e de toda a indústria de semicondutores.

O nascimento da Lei de Huang

Curiosamente, o nome Lei de Huang não foi cunhado pelo próprio CEO da NVIDIA. A expressão surgiu em 2018, em um artigo da jornalista Tekla S. Perry, da IEEE Spectrum, que analisava o ritmo avassalador de evolução das GPUs. O termo ganhou ainda mais força quando o colunista Christopher Mims, do The Wall Street Journal, ajudou a popularizá-lo.

Mas o conceito vai além de uma questão de nomenclatura. Na prática, sintetiza uma nova realidade: quem não repensar a arquitetura de chips e sistemas inteiros ficará para trás.

A nova matemática da IA

Em janeiro, durante a CES 2025, Huang reforçou esse ponto em entrevista ao TechCrunch. Segundo ele, há três leis de escalabilidade na IA moderna:

  • Pré-treinamento: quando o modelo aprende a partir de grandes volumes de dados.

  • Pós-treinamento: etapa de refinamento, normalmente baseada em feedback humano.

  • Test-time compute: quando o modelo “pensa” durante a execução, na fase de inferência.

Esse último ponto, inclusive, é o que mais pressiona os custos atuais. Modelos como o OpenAI o3, por exemplo, chegam a custar quase US$ 20 por tarefa devido ao alto consumo de computação em tempo real, praticamente o valor de uma assinatura mensal do ChatGPT Plus.

Você também deve ler!

5 destaques da NVIDIA na Computex 2025 que mostram a visão da empresa para o futuro da IA

Adicionar aos favoritos o Link permanente.