エッジ AI とコンピューター・ビジョン
インテルは、CPU から目的に合わせて構築された AI アクセラレーターまで、さまざまな人工知能コンピューティング・ソースを提供し、1の IoT セグメント全体のさまざまな顧客の用途をサポートします。
コンピューティング・ポートフォリオのインテル® AI
インテルは、ワークロードに焦点を当てた CPU と GPU 製品から、プログラマブル・コンポーネントやディープラーニング・アクセラレーターまで、AI コンピューティング向けの製品ポートフォリオを提供しています。
CPU
インテルの CPU は、最も一般的な AI ワークロードに最適な最も柔軟なプロセッサーであり、シリコンに統合された AI 強化機能 (インテル® Deep Learning Boost インテル® AVX 512 など) を搭載した AI 強化機能によるディープラーニング推論の基盤です。
iGPU
インテルの統合 GPU と組み込まれた AI ワークロードのハードウェア・サポート (dp4a など) は、AI ワークロード向けの全体的な CPU の優れたパフォーマンスを向上させます。
FPGA
インテルの® FPGAsは、より安全でインタラクティブな体験を実現する低レイテンシー・ソリューションとして、AI 推論の用途に最適です。
VPU
インテル® Movidius™ VPU は、インテリジェント・カメラとエッジサーバー上でコンピューター・ビジョンとエッジ AI ワークロードを実現し、電力効率とコンピューティング・パフォーマンスのバランスを実現します。
OpenVINO™を使用した AI 推論ソフトウェアのワークフロー
インテル® ディストリビューションの OpenVINO™ ツールキットをご確認ください。複数のインテルの® アーキテクチャーで AI とコンピューター・ビジョンの可能性を最大限に引き出し、医療、ライフサイエンス、小売、産業用などの新しい強化されたユースケースでの利用を可能にします。
最適化
推論に対応したインテル® 最適化 AI フレームワーク (TensorFlow*、PyTorch*、MXNet*、Keras*、Caffe*、OpenVINO™、ONNX*) により、アルゴリズムとアプリケーションを高速化します。
テスト
購入する前に、インテル® DevCloud 上の複数のハードウェア構成でアプリケーションのパフォーマンスとアクセラレーションを評価してください。
インテル® DevCloud にアクセスする
展開
書き込みにより、OpenVINO™の任意の場所に配置することで、独自のプロトタイプを開発し、インテル アーキテクチャー全体に展開します。
エクスポレ OpenVINO™
スケール
エッジでの開発の複雑さを軽減するために、ソフトウェア、生産準備キット、統合に対応した製品、その他のリソースをご覧ください。また、技術的支援リソースとマッチメイキングの機会にアクセスするために、インテル® AI Buildersに参加することもできます。
インテル® AI: 稼働中
注目のプラットフォーム
IoT テクノロジー
関連テクノロジーを参照して、より多くのデータを収集し、より速く分析し、迅速に対応することができます。
免責事項
インテル® テクノロジーの機能と利点はシステム構成によって異なり、対応するハードウェアやソフトウェア、またはサービスの有効化が必要となる場合があります。実際の性能はシステム構成によって異なります。絶対的なセキュリティーを提供できる製品やコンポーネントはありません。詳細については、各システムメーカーまたは販売店にお問い合わせいただくか、http://www.intel.co.jp/ を参照してください。
このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。