HBFが切り拓くAIストレージ革命|HBMの限界を超えるSLC SSDとHBS、NVIDIA全方位戦略の展望と未来!

SanDisk HBF 半導体情報
HBF × SLC SSD × HBS ― 革新が始まる

 HBFはHBMの限界を補い、SLC SSDは「今こそSLCだ」とIOPS性能を強化。HBSはモバイルAIを進化させ、NVIDIAはSCADAを含む全方位戦略でGPU・メモリ・ストレージを統合。これらの技術は2027~2031年に商用化され、AIインフラの未来を大きく変革し、新たな可能性を切り拓くことで産業全体を刷新する。

あわせて読みたい
NAND最新技術で先を行くハイニックス、NVIDIA協業で1億IOPS実現へ!キオクシアを凌ぎAIストレージ覇権を狙う!
SEMICON Japan 2025|サンディスクが語る3D-NANDへの進化とHBFが拓くAI推論時代の大容量メモリ戦略

AI時代のメモリ革命:HBF・SLC SSD・HBSの最新動向

 AIワークロードの急拡大に伴い、次世代メモリ技術の開発が加速しています。HBM(High Bandwidth Memory)が長らくGPU性能を支えてきましたが、その限界を補う存在として注目されているのがHBF(High Bandwidth Flash)です。

 さらに、データセンター向けにはSLCベースのAI SSDが、モバイル分野ではHBS(High Bandwidth Storage)が新しい可能性を示しています。今までは容量効率を優先してTLCやQLCが主流でしたが、AI時代に求められるのは圧倒的な速度と信頼性です。まさに「今こそSLCだ」という雰囲気が業界全体に広がりつつあります。

HBF:HBMの限界を補う大容量フラッシュ

 KAISTの金正浩教授は、HBFが2027~2028年にNVIDIA、AMD、Googleの製品に搭載される可能性を示しました。HBMの開発には10年以上を要しましたが、HBFはHBMで培われた設計や工程のノウハウを活用できるため、より短期間で商用化が進むとされています。HBM6世代では複数のスタックを集合住宅のように接続する構造が導入される見込みで、DRAMベースHBMの容量限界を補う形でNANDスタック型HBFが台頭すると予測されています。

 HBFはHBMより速度は劣るものの、容量は約10倍に達し、HBM4の64GBに対して最大512GBが想定されています。帯域幅も1,638GB/sを超えるとされ、従来のSSDを大きく凌駕します。読み出しは無制限ですが書き込みは約10万回に制限されるため、OpenAIやGoogleなどのソフトウェアが読み出し中心の最適化を行う必要があります。Samsung ElectronicsとSK hynixはSanDiskとMOUを締結し、HBFの標準化を共同で推進しています。両社はコンソーシアムを通じて開発を進め、2027年の市場投入を目指しています。

SLCベースAI SSD:データセンターの新潮流

 AIの普及に伴い、データセンター向けSSD市場ではSLC(Single-Level Cell)技術が再び注目されています。従来はTLCやQLCが容量効率の高さから主流でしたが、AI環境では膨大なデータ処理が求められるため、速度と信頼性に優れるSLCが有力視されています。
 SK hynixは「AIN Family」を展開し、SLC NANDを採用したAI-N P製品で最大2,500万IOPSを実現しました。これは従来の高性能SSDの約8~10倍に相当します。さらに第2世代では1億IOPSを目指し、2027年の量産を計画しています。

 日本のKioxiaもNVIDIAと協力し、同様に1億IOPS級の次世代SSDを2027年に商用化する予定です。NVIDIAはSLC NANDを次世代AIストレージの鍵と位置づけ、SCADA(Scaled Accelerated Data Access)という新しいソフトウェア基盤を開発しています。従来のようにCPUを経由してGPUにデータを渡すのではなく、GPU自身がストレージから直接データを取得することで学習や推論の効率を大幅に改善します。こうした取り組みはSSD性能の飛躍的な向上を前提としており、メモリメーカー各社は競って開発を進めています。

 ここで重要なのは、HBFもSLC NANDを基盤に開発されている点です。SLC NANDを積層することでHBFは大容量かつ高帯域を実現し、AI推論に最適化された新しいストレージ形態となります。SK hynixとSanDiskは標準化を進めており、2027年にPoCサンプルが登場し、その後本格的な評価が始まる予定です。つまり、SLCベースAI SSDの流れとHBFは密接に関連しており、同じ技術基盤から派生した次世代ソリューションと位置づけられます。

HBS:モバイル向けの積層型ストレージ

 SK hynixはHBFの開発を進める一方で、モバイル分野に向けてHBS(High Bandwidth Storage)という新しい概念を探っています。これは低消費電力のWide I/O DRAMとNANDを最大16層積層し、Vertical Fan-Out(VFO)技術で接続するものです。VFOは従来の曲線的な配線ではなく垂直方向に接続することで、配線長を4.6倍短縮し、電力効率を4.9%改善、パッケージ高さを27%削減し、放熱性能も向上させます。

 この技術はすでにAppleのVision Pro向けDRAMパッケージで採用されており、HBSではさらにNANDを統合することでスマートフォンやタブレットのAI性能を強化する狙いがあります。HBMと異なりTSVを必要としないため、歩留まりが高く製造コストも低減できる点が特徴です。SK hynixは「LPW NAND」という商標を出願しており、これはSanDiskのHBF技術と連動するものとみられています。ロードマップによれば、HBF製品は2029~2031年に登場する見込みです。

SCADAとCXLメモリの位置づけ

SCADA

 SCADA(Scaled Accelerated Data Access)はNVIDIAが開発している新しいソフトウェア基盤で、GPUがストレージI/Oを直接制御する仕組みです。従来はCPUがストレージからデータを読み込み、GPUへ転送していましたが、SCADAではGPU自身がNVMe SSDやSLC NANDベースのストレージから直接データを取得します。
 これにより、特にAI推論時に頻発する小ブロックI/Oの処理効率が大幅に改善され、学習や推論の速度と効率が飛躍的に向上します。

CXLメモリ

 CXL(Compute Express Link)メモリは、CPU・GPU・アクセラレータ間でメモリ空間を共有し、低レイテンシでアクセスできるようにする標準規格です。主な目的は「メモリ階層の拡張と共有」であり、DRAMや永続メモリを柔軟に扱えるように設計されています。これにより、システム全体で効率的にメモリを利用でき、AIや高性能計算において大容量メモリを必要とする場面で強みを発揮します。

共通点と補完関係

  • 両者とも「CPUを介さずアクセラレータが直接アクセスする」という思想を共有している
  • CXLは主にメモリ拡張と共有に焦点を当てている
  • SCADAはストレージアクセス効率化に特化している
  • 両者を組み合わせることで、GPUは大容量メモリと高速ストレージの両方に直接アクセス可能となり、AI学習や推論の効率をさらに高められる

参考リンク: Compute Express Link (CXL)公式サイト / NVIDIA公式サイト

総合的な展望

 HBFはHBMの容量限界を補う技術としてSamsung、SK hynix、SanDiskが連携し、GPUやデータセンターに大容量と高帯域を提供する存在として期待されています。SLCベースAI SSDは「今こそSLCだ」という流れの中でIOPS性能を大幅に高め、HBFとも直結する技術基盤を形成しています。HBSはモバイル向けにDRAMとNANDを積層し、低コストで効率的なAI性能強化を実現します。

 さらにNVIDIAはSCADAを含む全方位戦略を展開し、GPU・メモリ・ストレージを横断的に統合しようとしています。これらの技術は2027~2031年に商用化が進み、AI時代のメモリ業界に大きな転換点をもたらすでしょう。

参考資料

コメント

タイトルとURLをコピーしました