Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acho que o HBF está superestimado
Em algumas partes, mesmo que haja uma grande reformulação de software, não é impossível de usar, mas dizer que pode substituir o HBM ou que o mercado é grande é uma ilusão.
Se for apenas para ler, como está escrito aqui, em vez de kv, será o mesmo modelo de viés ou peso, mas isso tornaria a usabilidade péssima.
[Notícias] Segundo especialistas, o HBF pode ser integrado em GPUs da NVIDIA até 2027-28, e o mercado pode superar o HBM até 2038.
Com o aumento da carga de trabalho de IA, a adoção de Flash de alta largura de banda (HBF) está acelerando, e os especialistas preveem uma comercialização mais rápida do que o esperado. De acordo com o Sisa Journal, o professor Kim Jong-ho da KAIST, amplamente conhecido como o "pai do HBM", sugeriu que a Samsung Electronics e a SanDisk planejam integrar o HBF em produtos da NVIDIA, AMD e Google até o final de 2027 ou início de 2028. Como apontado no relatório, o professor Kim acrescenta que, enquanto o desenvolvimento do HBM leva mais de 10 anos, as empresas já estão aproveitando a experiência acumulada em processos e design do HBM para iniciar o desenvolvimento do HBF, o que pode levar a uma comercialização muito mais rápida.
Além disso, Kim prevê que a adoção do HBF se expandirá por volta da introdução do HBM6, e que o mercado de HBF pode superar o HBM por volta de 2038. Segundo Kim, o HBM6 não será um único empilhamento de memória, mas sim múltiplos empilhamentos interconectados como um condomínio. À medida que o HBM baseado em DRAM enfrenta limites de capacidade, Kim acredita que o HBF em formato de empilhamento NAND surgirá para preencher essa lacuna.
O papel do HBF na inferência de IA e na arquitetura de sistemas
Sobre o papel do HBF nas cargas de trabalho de IA, Kim explica que a GPU primeiro obtém dados variáveis do HBM durante a inferência, processa e gera a saída. Ele acredita que no futuro o HBF assumirá esse papel, oferecendo uma capacidade significativamente maior para suportar as tarefas. O HBM é rápido, mas o HBF oferece cerca de 10 vezes mais capacidade. Como apontado no relatório, Kim enfatiza que, enquanto o HBF suporta ciclos de leitura ilimitados, os ciclos de gravação são limitados a cerca de 100 mil, o que significa que o software de empresas como OpenAI e Google precisa ser otimizado para operações concentradas em leitura.
Kim acrescenta que o processo atual de fornecimento de dados para GPUs envolve uma longa rota de transmissão através de redes de armazenamento, processadores de dados e pipelines de GPU. No futuro, ele imagina uma arquitetura mais simplificada que possa processar dados diretamente atrás do HBM. Essa estrutura, que se espera que seja realizada no HBM7, é também chamada de "fábrica de memória".
Samsung e SK Hynix impulsionam o desenvolvimento do HBF
Como destacado no relatório, a SK Hynix planeja demonstrar uma versão de teste do HBF no final deste mês. Além disso, a Samsung Electronics e a SK Hynix assinaram um memorando de entendimento (MOU) para promover a padronização do HBF com a SanDisk, e atualmente estão avançando em seus esforços por meio de um consórcio conjunto. Ambas as empresas estão ativamente desenvolvendo produtos HBF, visando um lançamento no mercado em 2027.
De acordo com fontes da indústria citadas no relatório, estima-se que o HBF possa alcançar uma largura de banda superior a 1.638 GB/s, o que representa um grande salto em comparação com um SSD padrão que normalmente oferece cerca de 7.000 MB/s via NVMe PCIe 4.0. Em termos de capacidade, espera-se que o HBF atinja até 512 GB, superando significativamente os 64 GB do HBM4.
Top
Classificação
Favoritos
