AI 推論ソリューション開発に役立つ最新情報

このフォームから登録すると、AI 推論アプリケーションの開発を手軽に始められる OpenVINO™ ツールキットに関する、インテルからの最新情報を得られます。以下のような特典も含みます。

• 製品の最新アップデートやリリースへの早期アクセス
• ウェビナーやイベントへの特別招待
• トレーニングやチュートリアルの資料
• 開発コンテストの告知
• その他インテルからの最新情報

このフォームを送信することにより、お客様は、年齢が 18 歳以上であり、個人情報がインテルと共有され、このビジネスリクエストに使用されることに同意したものとみなされます。インテルのウェブサイトとお知らせには、 プライバシー通知 利用規約 が適用されます。
このフォームを送信することにより、お客様は、年齢が 18 歳以上であり、個人情報がインテルと共有され、このビジネスリクエストに使用されることに同意したものとみなされます。また、インテル® テクノロジーや業界トレンドの最新ニュースを電子メールや電話で受け取るために、登録を申し込むことに同意したものとします。登録はいつでも解除できます。インテルのウェブサイトとお知らせには、 プライバシー通知 利用規約 が適用されます。

サポート、リソース、よくある質問

OpenVINO™ ツールキットの問題については、GitHub リポジトリーでご報告ください。エッジ AI リファレンス・キットに関する質問やお問い合わせは、GitHub の OpenVINO™ ノートブックのリポジトリーまたはインテルのサポートフォーラムのディスカッションにご参加ください。

「エッジ AI リファレンス・キット」は、AI ソリューション開発を支援する目的でインテルより提供されています。これらのキットでは、一般的なプラットフォームで利用可能な AI を加速する、事前にトレーニングされた最適化済みモデルを使用しており、詳細なドキュメント、ハウツービデオ、コードサンプル、GitHub リポジトリーが含まれています。「エッジ AI リファレンス・キット」を活用することで、AI ソリューションの導入や採用プロセスを高速化して、本版環境への投入時間を短縮することができます。

これらのキットで使用されている OpenVINO™ ツールキットは、AI ユースケースのモデル圧縮のプロセスを加速し、さまざまなハードウェア・プラットフォームに導入できるので、AI 推論ソリューションの開発が迅速化し、アイデアをより効率的に実世界の AI アプリケーションへと変換できます。

あります。OpenVINO™ ツールキットは、モデルをコンパイルしてさまざまなデバイスで実行できるので、コードを一度書けば、モデルをさまざまな CPU、GPU、VPU、その他のアクセラレーターに導入できる柔軟性があります。

可能な限り最高のパフォーマンスを得るには、システム上で最新の GPU ドライバーを適切にセットアップしてインストールすることが重要です。インテルの GPU ドライバーを Windows および Ubuntu にインストールする方法にあるガイドを使用してください。

ガイドを用いてドライバーをインストールし、システムをセットアップした後で、GPU ベースの AI 推論ソリューション向け OpenVINO™ ツールキットを使用してください。

このガイドは、Ubuntu 22.04 LTS および Windows 11 のシステム上で、インテル® Arc™ グラフィックスとインテル® データセンター GPU フレックス・シリーズでテストされました。OpenVINO™ ツールキットの GPU プラグインを使用し、インテル® GPU に推論をオフロードするには、インテル® グラフィックス・ドライバーをシステム上で適切に構成する必要があります。

インテルによるディスクリート GPU の新しいファミリーは、ゲームだけでなく、AI をエッジやサーバー上で実行できます。

OpenVINO™ ツールキットのプラグイン・アーキテクチャーは、サードパーティーのハードウェア上でも AI 推論の最適化をサポートしています。こちらから、サポートされているデバイスの全リストをご覧ください。

OpenVINO™ ツールキットは、計算負荷が高いディープラーニング・モデルを、精度への影響を最小限に抑えつつ実行します。第 12 世代以降のインテル® Core™ プロセッサー上においては、自動デバイスプラグインやスレッド・スケジューリングなどの、効率性を最大限に引き出す機能を備えています。

OpenVINO™ ツールキットは、複数のフレームワークや標準化されたプロトコルと非常に高い互換性を備えています。OpenVINO™ モデル・サーバーは、最新のワークロード向けに、導入をよりスケーラブルにするために、TensorFlow Serving や KServe と同じアーキテクチャーおよび API を使用できます。

OpenVINO™ ツールキットは、モデル変換 API と NNCF により、パフォーマンスを強化しレイテンシーを低減するための最適化手法をいくつか提供しています。入力データを処理し、予測を生成して出力するための時間を最小限に抑えます。意思決定は迅速で、システムとのやり取りはより効率的です。

OpenVINO™ ツールキットの「モデル最適化ガイド」では、量子化を意識したトレーニングやポストトレーニング量子化など、さまざまなモデル圧縮のオプションを紹介しています。

OpenVINO™ ツールキットの一部である、OpenVINO™ モデル・サーバーは、モデルをホストし、幅広いハードウェア上でアプリケーションを効率的に導入できます。コードを書き換えることなく、AI 推論アクセラレーションを追加できます。

  • モデルは、KServe でも使用されている共通 API を通じて、標準的なネットワーク・プロトコルでアクセスできます。
  • リモート AI 推論により、必要な更新回数が少ない、API 呼び出しを重視する軽量のクライアントを作成できます。
  • アプリケーションは、モデル・フレームワーク、ハードウェア、およびインフラストラクチャーから独立して開発、保守できます。
  • クライアント・アプリケーションを通じてトポロジーや重みが公開されないため、モデルへのアクセス制御が容易です。
  • この導入構造により、より効率的な水平および垂直 AI 推論のスケーリングが可能です。

包括的なツールとリソースが提供されているため、OpenVINO™ ツールキットを使用した AI 推論や AI モデルの実環境でのパフォーマンスを最適化しながら、ワークフローを効率化できます。