インテル® デベロッパー・クラウド・コンソールにアクセスして、8 つのインテル® Gaudi® 2 アクセラレーターを備えたノードにアクセスしましょう。アクセス権は、お求めやすい価格かつ時間単位で付与されます。詳細については、アクセス権の取得をご覧ください。

インテル® Gaudi® ソフトウェアにプリインストールされている GPU 移行ツールキットを使用します。このツールキットは、CUDA* およびその他の GPU 固有のコマンドで Python* コードをインテル® Gaudi® アクセラレーターが理解できるコードに変換します。ツールキットはリアルタイムで実行され、元のコードには変更を及ぼしません。モデルスクリプトに GPU_migration ライブラリーを追加する必要があります。GPU 移行ツールキット・ユーザーガイドでは、インテル® Gaudi® アクセラレーターでモデルが機能することを確認する方法を詳しく説明します。

完全にドキュメント化され最適化されたモデルについては、次の GitHub* リポジトリーで確認できます。モデル・リファレンスおよび Hugging Face* によるインテル® Gaudi® アクセラレーターのための最適化 これらのリポジトリーには、データセットをダウンロードしてモデルを実行する方法についての指示が含まれています。詳細については、使い方ページを参照してください。

使い方ページには、モデルをインテル® Gaudi® プロセッサーに移行する方法をはじめとした、解説ビデオや詳細なドキュメントへのダイレクトリンクなどといった情報が掲載されています。インテル® Gaudi® プロセッサーを初めて使用する場合は、インテル® デベロッパー・クラウド・クイック・スタート・ガイドを参照してください。

インテル® Gaudi® アクセラレーター・ライブラリー向け最適化から始めましょう。こちらには、すべての Hugging Face Transformer と拡散ベースのモデルをインテル® Gaudi® アクセラレーターで実行できる専用のライブラリーがあります。使用を開始するには、Hugging Face を使用するを参照してください。

大多数のユーザーは、インテルの PyTorch* 用 Docker* イメージを実行することをお勧めします。こちらには、モデルを正常に実行するために必要なインテル® Gaudi® ソフトウェア、ドライバー、ライブラリーがすべて含まれています。インテル® Gaudi® アクセラレーター向け Docker イメージをプルして実行するには、Docker インストール・インストラクションを参照してください。

最新の MLPerf* パフォーマンス番号を含むトレーニングと推論のためのパフォーマンス番号は、モデル・パフォーマンス・データで確認できます。

インテル® Gaudi® AI アクセラレーター・デベロッパー・フォーラムでは質問を投稿し、インテルのチームメンバーや幅広いコミュニティーから回答を受けることが可能です。

ソフトウェアの最新バージョンを特定するには、リリースノートを参照してください。ご利用中のプラットフォームにおけるインテル® Gaudi® ソフトウェアの最新バージョンを確認するには、インテル® Gaudi® ソフトウェア・ドキュメントのソフトウェア・スタック検証セクションを参照してください。

はい。インテル® Gaudi® アクセラレーター向け Tensor プロセッサー・コア (TPC*) ソフトウェア開発キットを使用して、カーネルを作成することができます。これは TPC-C ベースのカーネル・ライブラリーであるため、カスタム CUDA カーネルの場合、インテル® Gaudi® アクセラレーター向け TPC カーネルに変換する必要があります。詳細については、TPC プログラミングを参照してください。