Saltar para o conteúdo

China recupera uma tecnologia de 50 anos que consome 200 vezes menos energia do que a digital.

Mãos segurando um chip com pinça, osciloscópio e caderno com esboços ao fundo.

Este processador experimental da Universidade de Pequim abandona a lógica binária tradicional e regressa a uma forma mais antiga e analógica de computação, prometendo IA que funciona mais depressa enquanto consome apenas uma fração da energia utilizada pelas principais GPUs atuais.

A China aposta no analógico para quebrar o muro energético da IA

O progresso da IA na última década tem sido impulsionado por centros de dados cada vez maiores, cheios de processadores gráficos famintos por energia. Cada novo modelo precisa de mais silício, mais refrigeração e mais eletricidade do que o anterior.

A equipa chinesa por detrás do novo chip argumenta que esta trajetória bate numa parede. Alegam que o seu processador analógico de IA executa certas tarefas 12 vezes mais depressa do que chips digitais avançados, usando cerca de 1/200 da energia.

Um chip de IA que seja simultaneamente mais rápido e 200 vezes mais eficiente não se limitaria a reduzir custos; reescreveria a economia da computação em larga escala.

O trabalho, liderado pelo investigador Sun Zhong na Universidade de Pequim e publicado na Nature Communications, não pretende substituir todos os processadores digitais. Em vez disso, visa algumas das operações matemáticas mais gulosas em energia no coração da IA moderna.

O que significa “analógico” quando o seu telemóvel é totalmente digital

Antes de a eletrónica digital dominar, os engenheiros construíam computadores analógicos usando tensões, correntes e veios rotativos para modelar sistemas físicos. Eram volumosos e limitados, mas surpreendentemente eficazes em tarefas específicas, como balística ou sistemas de controlo.

O novo chip chinês revisita essa herança com materiais modernos e circuitos à escala nanométrica.

Como a computação analógica difere do seu portátil

Os chips digitais representam toda a informação como sequências de zeros e uns. Cada operação é dividida em muitos passos pequenos, executados sequencialmente por portas lógicas.

  • Um processador digital divide cada cálculo em operações cronometradas e ordenadas.
  • Um circuito analógico usa sinais elétricos contínuos, deixando a natureza realizar muitas operações ao mesmo tempo.

Num chip analógico de IA, os valores são codificados como tensões ou correntes. Quando esses sinais atravessam uma rede cuidadosamente concebida de componentes, a física do circuito executa a matemática numa única passagem.

Esse paralelismo, combinado com a ausência da necessidade de comutar milhares de milhões de transístores individuais a cada passo, explica as poupanças energéticas dramáticas.

Porque é que o analógico caiu em desuso - e depois regressou

As máquinas analógicas clássicas deixaram de ser usadas porque eram difíceis de programar, difíceis de reconfigurar e propensas a ruído e deriva. Os sistemas digitais, em contraste, escalaram muito bem com a Lei de Moore e forneciam resultados precisos e repetíveis.

Várias tendências estão agora a mudar o equilíbrio:

  • A escalabilidade dos transístores traz retornos decrescentes, tornando a força bruta digital menos atrativa.
  • As cargas de trabalho de IA toleram pequenos erros numéricos, o que se adequa à natureza imperfeita do analógico.
  • Novas técnicas de fabrico melhoram a estabilidade e a calibração de circuitos analógicos.

O chip da Universidade de Pequim está exatamente nesta interseção: troca um pouco de precisão numérica por enormes aumentos de velocidade e eficiência em tarefas ao estilo da IA.

Um chip concebido para cargas de trabalho reais de IA, não apenas equações de laboratório

Muitos protótipos analógicos anteriores ficaram presos a problemas “de brinquedo”. Este aponta para dados do mundo real. Os investigadores testaram-no em sistemas de recomendação, uma aplicação de referência para gigantes da internet.

Pense nos algoritmos que a Netflix, a Amazon ou o TikTok usam para sugerir o que poderá ver, comprar ou seguir a seguir. Nos bastidores, processam matrizes enormes de históricos de utilizadores e atributos de conteúdo. Esse tipo de carga de trabalho é extremamente exigente tanto em memória como em computação.

Nestas tarefas de recomendação, o chip analógico chinês processou conjuntos de dados comparáveis, em tamanho, aos usados por plataformas comerciais. Entregou resultados muito mais rapidamente do que hardware digital avançado, reduzindo o consumo energético para uma fração minúscula.

A equipa também experimentou compressão de imagem. Aqui, o chip reconstruiu imagens comprimidas com qualidade visual próxima da de métodos digitais convencionais de alta precisão, ao mesmo tempo que reduziu para metade os requisitos de armazenamento nos casos de teste.

A IA muitas vezes não precisa de aritmética perfeita; precisa de resultados “suficientemente bons”, rápidos e baratos - e os circuitos analógicos prosperam nesse regime.

O truque matemático escondido: fatorização matricial não negativa

No centro deste avanço está uma técnica com um nome pouco elegante: fatorização matricial não negativa, ou NMF.

O que a NMF realmente faz

Imagine que tem uma folha de cálculo enorme de números - utilizadores e filmes, clientes e produtos, píxeis e níveis de brilho. A NMF tenta decompor essa grande matriz em duas matrizes mais pequenas e mais fáceis de interpretar, sob a restrição de que todos os valores permaneçam não negativos.

Isto revela padrões escondidos:

  • Em recomendações, pode descobrir “gostos” ou “temas” subjacentes.
  • Em imagens, pode separar uma fotografia em blocos de construção básicos ou características.
  • Em áudio, pode separar sons em fontes, como notas ou instrumentos.

Em hardware digital, a NMF é computacionalmente pesada, especialmente quando os conjuntos de dados contêm milhões de entradas. Pode exigir milhares ou milhões de atualizações iterativas para uma única análise.

A equipa chinesa ligou estas operações de NMF diretamente à circuitaria analógica, usando uma disposição “in-memory” em que os mesmos componentes tanto armazenam como processam dados. Na prática, a matemática matricial acontece numa única operação física, em vez de uma longa sequência de instruções.

Computação in-memory: eliminar o engarrafamento de dados

Um dos maiores estrangulamentos na IA moderna não é a potência de cálculo bruta, mas o transporte incessante de dados entre chips de memória e processadores. Cada viagem desperdiça tempo e energia e gera calor.

A computação in-memory reorganiza o sistema para que a maioria dos cálculos ocorra onde os dados já estão. O chip analógico de NMF abraça esta filosofia: matrizes de elementos semelhantes a memória realizam operações à medida que correntes as atravessam.

Arquitetura Onde os dados vivem Onde a matemática acontece Perfil energético
GPU tradicional Memória fora do chip e no chip Núcleos digitais separados Elevado, devido ao movimento constante de dados
Chip analógico NMF Dentro de matrizes analógicas Nas mesmas matrizes, via física Baixo, movimento mínimo de dados

Este redesenho não resolve todos os desafios da IA, mas ataca a parte mais dolorosa do treino e inferência em larga escala: o tráfego de memória.

Como se compara com hardware ao nível da Nvidia

A GPU Nvidia H100 tornou-se um símbolo da vaga atual de IA. Consegue realizar biliões de operações por segundo, mas também consome centenas de watts por chip e muitas vezes opera em bastidores que consomem dezenas de quilowatts.

A equipa da Universidade de Pequim estima que, para tarefas do tipo NMF, o seu design analógico pode correr pelo menos uma ordem de grandeza mais depressa do que essas GPUs, usando 1/200 da potência. Algumas projeções em materiais universitários sugerem até ganhos de velocidade de 1.000 vezes em configurações específicas, embora esses números venham com muitas ressalvas.

Crucialmente, essas comparações aplicam-se a uma classe estreita de cargas de trabalho. Chips digitais de uso geral continuam a vencer em flexibilidade, precisão e ecossistemas de software maduros. O chip analógico parece mais um acelerador de propósito específico que poderá coexistir com CPUs e GPUs em futuros centros de dados.

Se as GPUs digitais são camiões que transportam qualquer coisa, os aceleradores analógicos são comboios de alta velocidade construídos para uma linha e uma carga específicas.

Utilizações potenciais e impacto no mundo real

Onde este tipo de chip pode ter impacto primeiro

Vários setores destacam-se como beneficiários iniciais, se a tecnologia escalar para além do laboratório:

  • Plataformas de streaming e redes sociais - recomendações mais rápidas e baratas para vídeo, música e feeds.
  • Telecomunicações e redes de edge - IA local em estações base ou routers com orçamentos energéticos apertados.
  • Monitorização industrial - deteção de padrões em fluxos de sensores sem refrigeração pesada no local.
  • Imagiologia em saúde - compressão e análise onde hospitais não podem alojar grandes centros de dados.

Para operadores de centros de dados, um ganho de eficiência de 200 vezes em algumas cargas de trabalho poderia reduzir faturas de eletricidade e infraestrutura de refrigeração. Para regiões que tentam expandir capacidade de IA sem sobrecarregar redes elétricas, isso importa tanto quanto o desempenho bruto.

Riscos e obstáculos práticos

A tecnologia também enfrenta obstáculos sérios:

  • Ruído e precisão - circuitos analógicos captam interferência e derivam com a temperatura, o que pode prejudicar a exatidão.
  • Complexidade de fabrico - fabricar e calibrar grandes matrizes analógicas à escala é difícil.
  • Modelo de programação - os programadores estão habituados a código digital, não a configurar matrizes físicas.
  • Normalização - cada design analógico é altamente especializado, o que abranda o crescimento do ecossistema.

Há também um ângulo geopolítico. Uma classe “doméstica” de aceleradores de IA, menos dependente de fabricantes ocidentais, encaixa na ambição da China de auto-suficiência em semicondutores e IA. Isso pode acelerar financiamento e implantação mesmo que, no início, a tecnologia permaneça de nicho.

O que isto significa para o futuro do hardware de IA

O chip analógico de NMF não sinaliza o fim da computação digital. Em vez disso, ilustra uma mudança para arquiteturas mais diversas, ajustadas a núcleos matemáticos específicos.

Podemos em breve ver sistemas de IA que misturam:

  • CPUs de uso geral para lógica de controlo.
  • GPUs ou aceleradores digitais para treinar grandes redes neuronais.
  • Matrizes analógicas in-memory para fatorização matricial, blocos de atenção ou padrões recorrentes.

Para utilizadores comuns, o efeito pode surgir de forma discreta: recomendações mais inteligentes em dispositivos de baixo consumo, funcionalidades de IA em smartphones mais baratos, ou serviços na cloud que deixem de aumentar preços apenas para pagar a conta da eletricidade.

Para decisores políticos a lidar com a pegada de carbono da IA, a ideia de que truques analógicos “à antiga” podem reduzir o consumo energético em duas ordens de grandeza oferece uma rara nota encorajadora num setor normalmente definido por crescimento implacável tanto em potência como em procura.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário