インテル® Gaudi® AI アクセラレーターの使い方
インテル® Gaudi® AI アクセラレーターでモデルを実行し、トレーニングおよび推論のための環境を構成します。システム構成要件については、インストール・ガイドを参照してください。
初めてのユーザー
インテル® Gaudi® アクセラレーターの使用が初めての場合は、クイック・スタート・ガイドにアクセスし、関連するビデオをご覧ください。これらのリソースでは、インテル® Tiber™ デベロッパー・クラウドを使用して、インテル® Gaudi® アクセラレーターと Hugging Face* モデルのモデル・リファレンスからワークロードを実行します。
始める
インテル® Gaudi® アクセラレーターでモデルを実行する方法
- インテル® Gaudi® アクセラレーター・インスタンスにアクセスします。
- PyTorch* で Docker* イメージ (インテル® Gaudi® ソフトウェアと PyTorch フレームワークを含むもの) を読み込みます。
- 次のセクションでリストされている GitHub* リポジトリーからモデルを選択してロードします。Hugging Face モデル、モデル・リファレンス、生成 AI (GenAI) の例が含まれます。
ドキュメント
インテル® Gaudi® AI アクセラレーター・プラットフォーム・ソフトウェアとインテル® Gaudi® ソフトウェア・スタックをインストールする方法をご覧ください。
PyTorch でモデルを実行する方法をご覧ください。
DistributedDataParallel API サポートを使用した、PyTorch モデルでのトレーニングを拡張する方法をご覧ください。NIC を使用してサーバー内およびサーバー間でスケーリングする方法をご覧ください。