HBMがDRAM価格を押し上げる仕組み: ▫️AIデータセンターは、AIワークロード(速度、容量)に対応するために高帯域幅メモリ(HBM)を必要とします。 ▫️HBMは3〜4枚のDRAMチップを縦に積み重ねることで作られます。 ▫️メモリメーカー(Micron、Samsung SK、Hynix)がPCやスマートフォンの代わりにDRAMをHBMに使用している場合。 ▫️DRAMはPCやスマートフォンのコストの15〜40%を占めています(供給が尽きつつあり、新たな容量はHBMに割り当てられています) ▫️HBMはDRAMに比べて営業利益率がはるかに良いです(50%対35%) ▫️中国のメモリメーカーはDRAMよりもHBMに注力しています(一方、Micronは消費者向けDRAM事業から撤退しています)。 ▫️2030年までにHBMはDRAM収入の50%+を占める(2023年の8%から増加)。 *** エコノミストの統計: マイクロンHBMのブルームバーグ動画: