Ironwood TPU do Google: uma fera refrigerada a líquido para superar a Nvidia! 🚀💦

Ah, o Google, a velha e astuta raposa do mundo da tecnologia, sacou seu mais recente truque debaixo de sua cauda espessa – Ironwood, a Unidade de Processamento Tensor (TPU) de sétima geração. Este não é apenas um chip qualquer, veja bem; é um acelerador de IA criado especificamente para o Google, que se vangloria de ser o mais avançado até agora. Construído para inferência eficiente e em escala, ele está pronto para dar à Nvidia uma corrida pelo seu dinheiro – ou pelo menos é o que dizem. 🤑


Oi galera, prontos para mergulhar no mundo louco das notícias de cripto? Junte-se ao nosso canal do Telegram onde deciframos os mistérios da blockchain e rimos das mudanças de humor imprevisíveis do Bitcoin. É como uma novela, mas com mais drama descentralizado! Não fique de fora, venha com a gente agora e vamos aproveitar a montanha-russa das criptos juntos! 💰🎢

Junte-se ao Telegram


Ironwood TPU do Google: uma potência em escala de pod para fazer a Nvidia suar! 😓

O Google nos deu uma prévia do Ironwood durante a festa do Google Cloud Next ’25 em abril, e agora está abrindo as comportas. Eles estão apresentando isso como o chip para a “era da inferência”, onde os modelos precisam pensar, responder e gerar mais rápido do que uma criança pegando a última fatia de bolo. 🍰

De acordo com um relatório da CNBC, esse movimento faz parte de um grande jogo de poder entre os hiperscaladores, todos correndo para dominar a pilha de IA como crianças brigando pelo último brinquedo na caixa de areia. Sob o capô, o Ironwood possui uma interconexão de toro 3D, resfriamento líquido (porque até os chips precisam de um dia de spa) e um Sparsecore aprimorado para lidar com incorporações ultragrandes para classificação, recomendações, finanças e computação científica. 🧠💧

🔥 IMPERDÍVEL: Dólar pode DISPARAR contra o Real! Saiba antes que seja tarde!

Ver previsão agora!

Ele foi projetado para minimizar a movimentação de dados e os gargalos de comunicação – a ruína de todo trabalho multi-chip. Os números? Ah, eles são interessantes: até 4.614 TFLOPs (FP8) por chip, 192 GB de HBM com largura de banda de 7,37 TB/s e largura de banda bidirecional entre chips de 1,2 TB/s. Os pods variam de 256 chips a uma configuração impressionante de 9.216 chips, fornecendo 42,5 exaflops (FP8) de computação. E com um consumo de energia total de cerca de 10 MW, o resfriamento líquido garante que ele permaneça fresco sob pressão, ao contrário do que acontece com seu tio em reuniões familiares. 🥵❄️

O Google afirma que o Ironwood é mais de 4x mais rápido que seu antecessor, Trillium (TPU v6), e oferece desempenho aproximadamente 2x melhor por watt. Também é quase 30 vezes mais eficiente em termos de energia do que seu primeiro Cloud TPU de 2018. Na forma máxima, ele supostamente supera supercomputadores como El Capitan – embora, como sempre, aceite essas afirmações com uma pitada de sal. 🧂

Embora possa treinar, o verdadeiro truque do Ironwood é a inferência para grandes modelos de linguagem e sistemas de mistura de especialistas. Pense em chatbots, agentes, modelos de classe Gemini e pipelines de pesquisa de alta dimensão que exigem velocidade e precisão. É como o Usain Bolt das batatas fritas, mas sem as roupas chamativas. 🏃♂️💨

A integração vem por meio do hipercomputador AI do Google Cloud, emparelhando o hardware com software como o Pathways para orquestrar a computação distribuída em milhares de matrizes. Essa pilha já alimenta tudo, desde a Pesquisa até o Gmail, e o Ironwood é uma atualização para clientes que desejam uma rota gerenciada e nativa de TPU junto com GPUs. 🛠️

A mensagem do mercado? O desafio do Google ao trono da Nvidia, argumentando que as TPUs específicas de domínio podem ofuscar as GPUs de uso geral em termos de preço-desempenho e uso de energia para determinadas tarefas de IA. Os primeiros a adotar incluem a Anthropic, que planeja implantações em escala de um milhão de TPU para Claude – uma medida que está levantando muitas sobrancelhas. 🤨

O CEO da Alphabet, Sundar Pichai, enquadrou a demanda como um importante impulsionador de receita, citando um salto de 34% na receita do Google Cloud para US$ 15,15 bilhões no terceiro trimestre de 2025 e investimentos vinculados ao desenvolvimento de IA totalizando US$ 93 bilhões. “Estamos vendo uma demanda substancial por nossos produtos de infraestrutura de IA… e estamos investindo para atender a isso”, disse ele, observando que foram assinados mais negócios de bilhões de dólares este ano do que nos dois anteriores juntos. 💰💼

A disponibilidade mais ampla do Ironwood está prevista para o final de 2025 por meio do Google Cloud, com solicitações de acesso abertas agora. Para empresas que avaliam orçamentos de energia, densidade de rack e metas de latência, a questão não é sobre o exagero – é se a matemática e o perfil de resfriamento do FP8 em escala de pod da Ironwood estão alinhados com suas cargas de trabalho. 🧐

Perguntas frequentes❓

  • Onde o Ironwood estará disponível? Por meio do Google Cloud em regiões globais, incluindo América do Norte, Europa e Ásia-Pacífico. 🌍
  • Quando começa o acesso? A disponibilidade mais ampla começa nas próximas semanas, com implementação mais ampla no final de 2025. ⏳
  • Para quais cargas de trabalho ele foi criado? Inferência de alto rendimento para LLMs, MoEs, pesquisa, recomendações, finanças e computação científica. 🤖
  • Como ele se compara às TPUs anteriores? O Google cita um rendimento 4x maior e um desempenho por watt 2x melhor do que o Trillium. 🚀

2025-11-06 19:19