eetimes

  ↓ 3月21日

 

+++++++++++ 抜粋します。

今回サンプル出荷した12層HBM4は、1秒間に2Tバイトを超えるデータを処理可能な帯域幅を実現。これは、1秒間に400本以上のフルHD映画(各5Gバイトで計算)に相当するデータを処理する水準であり、前世代のHBM3Eと比べ60%以上高速化されているという。容量についても、同社のコア技術である「advanced MR-MUF(Mass Reflow Molded Underfill)」プロセスの適用によって、12層製品で最高となる36Gバイトを実現。同社はプレスリリースの中で、「AIメモリに不可欠な業界最高の容量と速度を備えている」と強調している。

+++++++++++

 

<HBM4>

2Tbyte超えのデータ帯域と36Gbyteの容量を誇ります(12層製品)。前世代のHBM3Eの60%以上高速化を達成した模様です。

 

hankyoreh新聞

  ↓

 

SK hynixが次々とAI対応の新製品を発表しています。現在DRAM1位のサムスンの地位が脅かされています。汎用メモリは粗利益が低い。高付加価値のHBMの開発能力と実績を誇るSK hynixの方が有利です。

 

GIGAZINE

  ↓ 2024年9月27日

 

去年HBM3の量産体制を始めています。今回のHBM4は更に高性能。いずれ量産体制にはいるのでしょう。昔はメモリと言えばサムスンでしたが。。最近はSK hynixの開発能力の方が上を行っています。

 

ダイヤモンド

  ↓

 

100年企業など存在しません。特に会社が大きくなりすぎると、会社組織の運営が難しくなる傾向が強い。新技術への移行が難しくなるようです。(大企業病?)巨大な企業が容赦無く淘汰される時代へと変わりつつあります。インテル・サムスンといった大企業でも危機的状況に陥ります。