Microsoft diz ter desenvolvido modelo hipereficiente de IA que roda apenas em CPUs
Em um avanço considerável no segmento, Microsoft diz ter desenvolvido modelo hipereficiente de IA que roda apenas em CPUs. A gigante da tecnologia anunciou o BitNet b1.58 2B4T — o maior modelo do tipo bitnet já criado, com bilhões de parâmetros.
Atualmente, está disponível sob a licença MIT e pode ser executado em processadores convencionais, como o chip M2 da Apple.
Para contextualizar, os bitnets são modelos de inteligência artificial (IA) muito compactados, projetados para funcionar em equipamentos com recursos limitados.
Diferentemente de modelos tradicionais, que usam pesos (valores que definem a estrutura interna da IA) quantizados em múltiplos bits, os bitnets conseguem reduzir esses pesos a somente três valores: -1, 0 e 1.
Essa técnica promete alta eficiência no uso de processamento e memória, tornando-a adequada para equipamentos menos potentes, sem a necessidade de hardware de última geração.
O BitNet b1.58 2B4T foi treinado com 4 trilhões de tokens — equivalente a cerca de 33 milhões de livros, segundo estimativas, superando modelos tradicionais de tamanhos próximos, de acordo com a própria Microsoft.

Leia mais
- ASUS lança notebook TUF Gaming A14 com Ryzen AI 7 350 e RTX 5060
- AMD lança Amuse 3.0 com geração de vídeo por IA e desempenho até 4,3x mais rápido em GPUs e CPUs Ryzen
- Tech demo Zorah da Unreal Engine 5 com renderização neural está disponível para download
Com resultados expressivos, Microsoft diz ter desenvolvido modelo hipereficiente de IA
Usando como base as informações compartilhadas pela companhia, o modelo superou os seguintes concorrentes em benchmarks:
- Llama 3.2 1B (Meta);
- Gemma 3 1B (Google);
- Qwen 2.5 1.5B (Alibaba).
E, especificando os benchmarks mencionados, a Microsoft informou que foram utilizados tanto o GSM8K (para problemas matemáticos de nível escolar) quanto o PIQA (testes de raciocínio físico e senso comum).
De toda forma, existe uma característica que vale a pena ser mencionada. Para atingir o desempenho ostentado, é necessário usar o framework personalizado bitnet.cpp — que até o momento da publicação desta matéria, não suporta GPUs.
Baseando-se nos resultados compartilhados, os bitnets podem ser um caminho interessante para levar o potencial da inteligência artificial para equipamentos com recursos não tão abundantes, como smartphones e máquinas que não são extremamente modernas.
Porém, a limitação de compatibilidade é um obstáculo que precisa ser analisado para a sua adoção em larga escala — e tudo indica que esse problema não mudará tão cedo.
E aí? O que achou das informações? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Adrenaline!
Fonte: techcrunch