インテル® Gaudi® AI アクセラレーター
第 1 世代のディープラーニング・トレーニングおよび推論プロセッサー。
インテル® Gaudi® AI アクセラレーター
クラウドとオンプレミスで優れた価格性能を実現
第 1 世代のインテル® Gaudi® AI プロセッサーを使用すると、お客様は同等の GPU に代わる最もコスト効率の高いハイパフォーマンスなトレーニングと推論のメリットを享受できます。これは、インテル® Gaudi® AI アクセラレーターベースの AWS DL1 インスタンスが、同等の NVIDIA GPU ベースのインスタンスと比較して最大 40% 優れた価格性能のトレーニングを提供できるようにするディープラーニング・アーキテクチャーです。インテル® Gaudi® AI アクセラレーターによる効率的なアーキテクチャーにより、Supermicro は、インテル® Gaudi® AI アクセラレーターを搭載した Supermicro X12 Server で GPU ベースのサーバーと同様に大幅な価格性能の優位性をお客様に提供できます。
クラウドにおけるインテル® Gaudi® AI アクセラレーター
インテル® Gaudi® AI アクセラレーターをベースとした Amazon EC2 DL1 インスタンスを始めましょう。
データセンターにおけるインテル® Gaudi® AI アクセラレーター
Supermicro でインテル® Gaudi® AI プロセッサーをデータセンターに組み込みましょう。
インテル® Gaudi® AI アクセラレーターはなぜこれほど効率的なのでしょうか?
- 16nm プロセス・テクノロジー
- DL に最適化された行列乗算エンジン
- 8 個のプログラマブル Tensor プロセッサー・コア
- 32GB オンボード HBM2
- 24 SRAM
- 10 個の統合 100G イーサネット・ポート
インテル® Gaudi® AI アクセラレーターのシステムをオンプレミスで構築するためのオプション
オンプレミスのシステムを構築したいお客様には、8 個のインテル® Gaudi® AI プロセッサーを搭載した Supermicro X12 Server をお勧めします。インテル® Gaudi® AI アクセラレーターをベースとした独自のサーバーを構成したいお客様には、リファレンス・モデルのオプション HLS-1 と HLS-1H を提供しています。
インテル® Gaudi® AI アクセラレーターでの開発を迅速かつ容易に: インテル® Gaudi® ソフトウェア
ディープラーニング・モデル開発向けに最適化されており、既存の GPU ベースモデルからインテル® Gaudi® AI プラットフォーム・ハードウェアへの移行を容易にします。PyTorch と TensorFlow のフレームワークを統合し、急速に増加しているコンピューター・ビジョン、自然言語処理、マルチモーダル・モデルをサポートしています。実際、Hugging Face の 50 万を超えるモデルは、Habana Optimum ソフトウェア・ライブラリーを使用するインテル® Gaudi® アクセラレーターで簡単に有効化されています。
モデルの移行は 2 行のコードを追加するだけで簡単に開始できます。また、独自のカーネルをプログラムしたいエキスパート・ユーザー向けには、インテル® Gaudi® プラットフォームがそのためのツールキットとライブラリーも提供します。インテル® Gaudi® ソフトウェアは、第 1 世代のインテル® Gaudi® アクセラレーターとインテル® Gaudi® 2 アクセラレーターでのモデルのトレーニングと推論をサポートしています。
インテル® Gaudi® プラットフォームが、Gaudi での既存のモデルや新しいモデルの構築をどのように容易にしているかについて詳しくは、インテル® Gaudi® ソフトウェアの製品ページをご確認ください >