ScalePOD(R) AI ソリューション

AI用途に最適化されたインフラ・ソリューション

最大1024ノードまで拡張可能なビルディングブロック

CPU偏重システムからデータ中心システムへ

従来のHPCシステムでは、CPUを中心とした設計が組まれてきました。HPCだけでなく、AIアプリケーションへの対応も必要になるにつれ、大規模データを全て保管し分析に活用するには、データ移動などの運用が必要になる場合が多いでしょう。ScaleWorXは、AI用途向けに、データとデータ・ライフサイクルを中心に据えた全体システムをご提供します。

拡張が容易で使い勝手の良いシステムを実現

エンタープライズHPCやAI分野の急成長に伴い、大規模データの入出力、キュレーション、保管と利用を支えるストレージに求められる性能、容量、スケーラビリティ、多目的性(脱サイロ)は高まり続けています。ScaleWorXは、様々な業界におけるITインフラの知見を活かし、最適化済みかつ、よりシンプルな全体システムを提供し、システム導入の簡素化、時間短縮に寄与します。

事前検証を活用し投資効率を最大化

大規模なシステム投資を成功させるためには、事前検証は欠かせません。サーバー、ネットワーク、ストレージのメーカー各社との緊密な連携によるサポート体制を有するScaleWorXが、ラック丸ごとのシステム検証を実施することにより、事前に正しい投資判断を行うことが可能です。

主な特徴
AIワークロード用サイジング

高速なデータ収集・前処理、学習、推論を可能にするハードウェア構成

ターンキーソリューション
  • AI研究者がすぐに使い始めることができるパッケージ化されたシステム
  • OS: Ubuntu, RHEL
  • GPUプラットフォーム:NVIDIA®CUDA®
  • 機械学習ライブラリ:TensorFlow
  • 深層学習ライブラリ:PyTorch
  • 大規模言語モデル:Llama 2
  • グラフィカルな対話操作:Open OnDemand
高コストパフォーマンス
  • NVIDIA® H100 Te㎱ orコア GPU搭載のScalePOD®AI サーバー
  • NVIDIA® Grace Hopper Superchip搭載サーバー(2024/Q1 出荷開始予定)
  • DDN®A³I™ソリューションの最新ストレージ AI400X2™

ScalePOD® AI サーバー

ScalePOD®AI サーバーは、AI学習/推論や、HPC用途に最適なハイパフォーマンスサーバーです。NVIDIAの最新GPU H100のあらゆるフォームファクターに対応しており、また4th Gen Intel Xeon / AMD EPYC 9004プロセッサーと柔軟に組み合わせることが可能なため、幅広いHPC/AIワークロードを飛躍的に性能向上させます。

H223/263:HPC/AI Arm Server – NVIDIA Grace Hopper Superchip

G293/363/493/593:HPC/AI Server ‒ NVIDIA H100+AMD EPYC 9004 / 4th Gen Intel Xeon

また、NVIDIA GPU で AI を構築および実行するために最適化された100 を超えるフレームワーク、学習済みモデル、開発ツールが備わっているNVIDIA AI Enterpriseに対応。AI チャットボット、レコメンデーション エンジン、ビジョン AI など、H100 で高速化する AI ワークフローを構築するために必要な AI フレームワークおよびツールが活用できるようになります。

主な特徴

  • H100 Tensor コアにより幅広いHPC/AIのタスクにおけるマトリックス演算を高速化
  • 新しいTransformer EngineはFP8 と FP16 を動的に選択し、リキャストとスケーリングを自動的に処理することで、前世代のA100 と比較して、大規模言語モデルの AI トレーニングを最大 9倍、AI 推論を最大 30 倍高速化
  • DPX 命令により動的プログラミング アルゴリズムの処理を CPU と比較して 40倍、前世代の A100と比較して、7倍に高速化
  • マルチインスタンスGPU(MIG)により、1つのGPUで最大7個のGPUインスタンスで仮想環境のマルチテナント/マルチユーザー構成をサポート、サービス品質(QoS)を最大化
  • NVIDIAコンフィデンシャルコンピューティングにより、ハードウェアおよびハイパーバイザーレベルで各インスタンスを分離

その他コンポーネント

高性能ネットワーク

  • NVIDIA Quantum 400Gb/s NDR InfiniBand Switch QM9700 series, 64 ports
  • パフォーマンス:400Gb/s(ポートあたり)、データスループット合計:最大51.2Tb/s
  • OSFPコネクタ、パッシブ/アクティブカッパー、アクティブファイバーケーブル対応

  • NVIDIA Quantum 200Gb/s HDR InfiniBand Switch QM8700 series, 40 ports
  • パフォーマンス:200Gb/s(ポートあたり)、データスループット合計:最大16Tb/s
  • QSFP56コネクタ、パッシブ/アクティブカッパー、アクティブファイバーケーブル対応

高速・大容量ストレージアプライアンス

  • DDN AI400X2 1台 500TB/ 300万 IOPS/ 読み込み最大90GB/秒
  • 容量と性能をリニアにスケールアウト:高IOPSのオールフラッシュ領域からHDD/NVMeのハイブリッド構成が可能
  • NVIDIA GPUDirect®Storageに対応し、I/Oパスのボトルネックを解消
  • NVIDIA Quantum 200Gb/s HDR InfiniBand Switch QM8700 series, 40 ports
  • 高可用性:各コンポーネント(ネットワーク、ファイルサービス、コントローラー、SAS HBA、エンクロージャI/Oモジュール)が冗長構成
  • Top500で第9位にランクインしているNVIDIA 社「Selene 」や、NAVER社CLOVA(音声認識、画像認識、人工ニューラルネットワークによる翻訳を統合したAIプラットフォーム)をはじめ、様々な大規模AIワークロード環境での実績多数

AIライブラリ

  • 下記すべてがプリロード・動作確認され出荷
  • OS:Ubuntu 23.04 LTS、Red Hat Enterprise Linux 9.2
  • GPUプラットフォーム: NVIDIA® CUDA®
  • 機械学習ライブラリ:TensorFlow
  • 深層学習ライブラリ:PyTorch
  • 大規模言語モデル:Llama 2
  • グラフィカルな対話操作:Open OnDemand

製品の詳細、価格についてはこちらよりお問い合わせください。