技術仕様
基本仕様
レビュー
インテル® Movidius™ Myriad™ X VPU
インテル® Movidius™ Myriad™ X VPU は、ディープ・ニューラル・ネットワーク推論の専用ハードウェア・アクセラレーターである、Neural Compute Engine を搭載するインテル初の VPU です。Neural Compute Engine と 16 個の強力な SHAVE コアおよび高スループットのインテリジェント・メモリー・ファブリックとが連携しているインテル® Movidius™ Myriad™ X は、オンデバイスのディープ・ニューラル・ネットワークとコンピューター・ビジョン・アプリケーションに理想的です。
インテル® Movidius™ Myriad™ X VPU は、ニューラル・ネットワークをエッジに移植するインテル® ディストリビューションの OpenVINO™ ツールキットでプログラム可能です。また、カスタムビジョン、イメージングおよびディープ・ニューラル・ワークロードをチップに実装するために必要な開発ツール、フレームワーク、API をすべて備えた Myriad Development Kit (MDK) でもプログラムできます。
利点
専用 Neural Compute Engine
インテル® Movidius™ Myriad™ X は、ディープ・ニューラル・ネットワーク推論専用のハードウェア・アクセラレーターである Neural Compute Engine を搭載したインテル初の VPU です。インテリジェント・メモリー・ファブリック経由で他の主要コンポーネントと直接推論を実行する Neural Compute Engine は、卓越した消費電力当たり性能を発揮します。しかも、他のアーキテクチャーに生じるような一般的なデータフローのボトルネックが発生しません。
16 個の高パフォーマンス SHAVE コア
これらのプログラム可能なプロセッサーは、コンピューター・ビジョンに最適な命令セットを搭載しており、従来のコンピューター・ビジョン・ワークロードを実行するのに使用できます。またはわずかなデータ構造を備えた特別サポートにより、CNN アプリケーション用のカスタム・レイヤー・タイプを実行することで Neural Compute Engine を補完できます。
強化されたビジョン・アクセラレーター・スイート
インテルはインテル® Movidius™ Myriad™ VPU に新しいビジョン・アクセラレーターのスイートを追加しました。これには、デュアル 720 フィードの処理が可能な新しいステレオ・デプス・ブロックが含まれています。ビジョン・アクセラレーターのスイートが利用可能になったことで、主なビジョン・ワークロードを専用機能のハードウェアにオフロードして、電力効率を向上させることが可能になりました。
柔軟性の高い画像処理とエンコード
インテル® Movidius™ Myriad™ X VPU には、最も要求の厳しい画像や動画の用途を実現できる、完全に調整できる ISP パイプラインが搭載されています。 また、インテル® Movidius™ Myriad™ X VPU には最大 4K の動画解像度に対応したハードウェア・ベースのエンコード機能も搭載されています。つまり、VPU はあらゆる画像、コンピューター・ビジョン、CNN ワークロードに対応したシングルチップのソリューションです。
複数の VPU 構成をサポート
PCIe* インターフェイスでは、複数のインテル® Movidius™ Myriad™ VPU を 1 枚の PCIe* アドインカードに構成することにより、エッジサーバーで VPU をエッジ AI アクセラレーターとして使用でき、より柔軟性のあるパフォーマンスを発揮できます。
Neural Compute Engine: ディープ・ニューラル・ネットワーク向けのハードウェア・ベースの高速化技術
インテル® Movidius™ Myriad™ X VPU は、最新のニューラル・コンピュート・エンジンを搭載しています。 これは Movidius™ VPU 製品ラインの低消費電力特性を犠牲にすることなく、ディープ・ニューラル・ネットワークのパフォーマンスを大幅に向上させる目的で設計されたハードウェア・アクセラレーターです。MAC ブロックのアレイとインテリジェント・メモリー・ファブリックとの直接的なインターフェース接続を特長とする Neural Compute Engine は、ディープラーニングの推論に必要な計算を高速に実行できます。しかも、他のプロセッサー・デザインに生じる「データウォール」ボトルネックが発生することもありません。インテル® Movidius® Myriad X VPU アーキテクチャーを搭載し、16 基の SHAVE コア (1 秒ごとに 916 億個の演算) を組み合わせた Neural Compute Engine が 1秒間に達成できるニューラルネットワーク推論演算の最大数は 、Myriad 2 VPU SHAVE プロセッサー (1 秒ごとに 80 億の演算) が 1 秒間に達成できるニューラルネットワーク推論演算の最大数の10 倍以上です。
- ネイティブ FP16 と固定小数点 8 ビットのサポート
- 数多くの一般的なディープ。ニューラル・ネットワークに対応したエンドツーエンドの高速化
- Caffe および Tensorflow 形式へのニューラル・ネットワークの迅速な移植と導入
- 1 秒あたり消費電力あたりの推論における優れた電力効率
関連オファー
IoT および組込み機器向けプロセッサー
IoT プロセッサーが強化されたインテルのポートフォリオを発見して、最も必要な場合にコンピューティングリソースによるデータから重要な洞察と業務価値を獲得できます。
インテル® FPGA
インテル® FPGA と SoC では、IP コア、開発プラットフォーム、ソフトウェア開発者設計のフローとともに、幅広いビデオやインテリジェントビジョンアプリケーション向けのビデオやビジョンパイプラインの各部にある課題やソリューションに適応できる柔軟な開発経路を提供しています。
インテル® Neural Compute Stick 2 (インテル® NCS2)
インテル®
ニューラル・コンピュート・スティック 2 を使用するリアルタイム推論が求められる低消費電力アプリケーション上で、畳み込みニューラル・ネットワーク (CNN) を開発、微調整、導入します。
インテル® ビジョン・アクセラレーター・デザイン
エッジ AI アクセラレーター・カードにより、迅速で正確なビデオ解析とコンビューター・ビジョンのアプリケーション向けに電力効率の高いディープ・ニューラル・ネットワーク推論を導入できます。
インテル® DevCloud for the Edge
インテル® DevCloud for the Edge を搭載したインテルのハードウェア上でコンピューター・ビジョンの AI ワークロードを使用した試作品と実験。
OpenVINO™ ツールキット
複数のインテル® アーキテクチャーで AI とコンピューター・ビジョンの可能性を最大限に発揮し、ヘルスケア、ライフサイエンス、リテール、産業用などの新しい強化されたユースケースでの利用を可能にします。
通知と免責事項1 2
免責事項
性能は、使用状況、構成、その他の要因によって異なります。詳細については、www.Intel.co.jp/PerformanceIndex を参照してください。 パフォーマンス実績は構成情報に記載された日に実施したテストに基づくものであり、公開中のアップデートがすべて適用されているとは限りません。構成の詳細については、補足資料を参照してください。絶対的なセキュリティーを提供できる製品やコンポーネントはありません。
インテル® テクノロジーを使用するには、対応するハードウェア、ソフトウェア、またはサービスの有効化が必要となる場合があります。絶対的なセキュリティーを提供できる製品やコンポーネントはありません。コストと結果は状況によって変わります。インテルは、サードパーティーのデータについて管理や監査を行っていません。正確さを評価するには、他のソースを参照する必要があります。