Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

パウロ
Sim, estou me aprofundando na arquitetura baseada tanto no ICMS quanto no Enfabrica. É uma espécie de acordo Mellanox. Mas o NVLink ficaria tão congestionado em GPU, CPU e DPU. A Nvidia precisa simplificar a passagem de dados para kv e peso.

Zephyr7 horas atrás
A introdução do HBF não vai acontecer
Dê uma olhada no acordo da Nvidia com ICMS e Enfabrica para descobrir o motivo
9
Acho que HBF é superestimado demais
Em alguns casos, se o software for modificado consideravelmente, não será impossível usá-lo, mas seria uma ilusão de que substituirá o HBM ou que o tamanho do mercado será grande
Como escrito aqui, se estiver quase carregado aqui, será o viés e peso do mesmo modelo, não KV, mas isso seria insanamente inutilizável
Segundo especialistas, o HBF pode ser introduzido nas GPUs NVIDIA até 2027~28, e o mercado pode superar o HBM até 2038
Com o aumento das cargas de trabalho em IA, a adoção do flash de alta largura de banda (HBF) está acelerando, e especialistas preveem uma comercialização mais cedo do que o esperado. Segundo o Sisa Journal, o professor do KAIST Kim Jong-ho, popularmente conhecido como o "pai do HBM", sugere que a Samsung Electronics e a SanDisk planejam integrar o HBF aos produtos NVIDIA, AMD e Google até o final de 2027 ou início de 2028. Como mencionado no relatório, Kim acrescenta que, embora o HBM leve mais de 10 anos para ser desenvolvido, o HBF pode ser comercializado muito antes, já que as empresas já estão aproveitando a expertise em processos e design acumulada no HBM para desenvolver o HBF.
Além disso, Kim prevê que a adoção do HBF se expandirá por volta da época em que o HBM6 for introduzido, e o mercado de HBF pode superar o HBM por volta de 2038. Segundo Kim, o HBM6 não é uma única pilha de memória, mas múltiplas pilhas estão interconectadas como um prédio de apartamentos. À medida que os HBMs baseados em DRAM enfrentam limitações de capacidade, Kim acredita que o HBF na forma de pilhas NAND surgirá para preencher essa lacuna.
O papel do HBF na inferência de IA e na arquitetura de sistemas
Sobre o papel do HBF em cargas de trabalho de IA, Kim explicou que as GPUs primeiro obtêm dados variáveis do HBM durante a inferência, processam-nos e geram saída. Kim acredita que, no futuro, a HBF assumirá esse papel e fornecerá uma capacidade significativamente maior para apoiar a tarefa. O HBM é mais rápido, enquanto o HBF oferece cerca de 10 vezes mais capacidade. Como mencionado no relatório, Kim enfatiza que, embora o HBF suporte ciclos ilimitados de leitura, ele é limitado a cerca de 100.000 ciclos de escrita, então o software de empresas como OpenAI e Google deve ser otimizado para operações intensivas em leitura.
Kim acrescentou ainda que o processo atual de alimentação de dados para GPUs envolve um longo caminho de transmissão através da rede de armazenamento, processadores de dados e pipelines de GPU. No futuro, a empresa prevê uma arquitetura mais simplificada que possa processar dados diretamente atrás do HBM. Essa estrutura, que deve ser implementada no HBM7, às vezes é chamada de "fábrica de memória".
Samsung e SK Hynix estão promovendo o desenvolvimento do HBF
Como destacado no relatório, a SK hynix planeja lançar uma versão experimental do HBF para demo ainda este mês. O relatório também destacou que a Samsung Electronics e a SK Hynix assinaram um memorando de entendimento (MOU) com a SanDisk para promover a padronização do HBF e estão atualmente trabalhando nessa iniciativa por meio de um consórcio conjunto. Ambas as empresas estão desenvolvendo ativamente produtos HBF e pretendem lançá-los em 2027.
De acordo com fontes do setor citadas no relatório, estima-se que o HBF seja capaz de fornecer larguras de banda superiores a 1.638GB/s, o que representa um salto significativo em comparação com SSDs padrão que normalmente oferecem cerca de 7.000MB/s via NVMe PCIe 4.0. Em termos de capacidade, espera-se que o HBF alcance até 512GB, significativamente maior que os 64GB do HBM4.
8
Folha de cobre, poço de perfuração
Google TPUでアップグレード
M9グレーパナソニックつえええ
As TPUs do Google lideram o caminho na tecnologia CCL (Chip Cl), e os fabricantes de brocas recebem com agrado as atualizações.
À medida que as plataformas ASIC continuam a evoluir para maiores exigências de densidade de computação e largura de banda, as TPUs desenvolvidas por eles mesmos estão entrando em uma nova fase de atualizações de especificações. De acordo com fontes da cadeia de suprimentos, o Google planeja aumentar de forma abrangente o número de camadas de PCB e graus de materiais CCL para sua plataforma TPU de próxima geração a partir de 2026, trazendo oportunidades de atualização de especificações para fabricantes de CCL no Japão e em Taiwan. À medida que o número de camadas de substrato aumenta e a dificuldade dos materiais aumenta, a estrutura de demanda por brocas no processo de fabricação também muda.
O fornecimento de CCL do Google para projetos TPU atualmente é principalmente apoiado pela Panasonic do Japão e pela Taikoo Technology de Taiwan. Olhando para a geração TPU V6e (série Ghost), a Panasonic sofria com a escassez de fornecimento de fibras de vidro constantes de baixo dielétrico, e a Swire Technology entrou na cadeia de suprimentos e conquistou uma certa parcela. De acordo com estimativas da cadeia de suprimentos, o projeto de TPU de nova geração será fornecido pela Panasonic em cerca de 70% e pelo Swire com cerca de 30%, sugerindo um retorno a uma estrutura de suprimentos mais estável.
Com base no projeto atual, o GhostLite e o GhostFish da série Ghost mantêm uma configuração conservadora de aproximadamente 22~24 camadas de PCBs e CCL grau M7. No entanto, após 2026, a plataforma TPU será transferida para ZebraFish e SunFish, o que melhorará significativamente as especificações gerais. Segundo fontes da cadeia de suprimentos, a nova plataforma adota CCL grau M8/M9, e o número de camadas de PCB aumentou para 36 e 44 camadas, respectivamente, e espera-se que atenda a maiores exigências de largura de banda e consumo de energia ao adotar fibra óptica Low Dk de maior qualidade e folha de cobre HVLP4.
À medida que o número de camadas de PCB e graus de materiais aumenta, também aumenta a pressão sobre o processo de fabricação. Segundo fontes do setor, a demanda por brocas para placas de IA de alto desempenho está crescendo em um ritmo que supera significativamente a taxa de crescimento do valor de produção de PCBs. Anteriormente, uma única broca era usada cerca de 3.000 vezes, mas com a adoção de placas de IA de alto desempenho, sua vida útil caiu drasticamente para menos de 800 vezes. No futuro, se placas-mãe interposer de nível M9 e placas-mãe ASIC forem introduzidas, o número de vezes em que uma única broca é usada pode ser ainda mais reduzido.
Analistas do setor acreditam que a transformação do design das TPUs pelo Google após 2026 significa que os ASICs entraram em uma nova fase de "alto número de piso, altas especificações de materiais e alto valor agregado". Isso não só se refletirá no preço médio de venda (ASP) dos produtos CCL e PCB de alto padrão, mas também se refletirá em cadeias de suprimentos principais a montante, como fibra de vidro de baixo dielétrico, folha de cobre HVLP de alta qualidade e brocas. As cadeias de suprimentos estão ajustando suas configurações antecipadamente para acomodar a adoção de novas plataformas.
11
Melhores
Classificação
Favoritos
