OpenVINO™ツールキットのインテル® Distribution

753640
4/9/2026

概要

本パッケージには、Linux*、Windows*、macOS* 用 OpenVINO™ ツールキット・ソフトウェア・バージョン 2026.1 のインテル® Distributionが含まれています。

ご利用可能なダウンロード

  • Microsoft* Windows*
  • サイズ : 187.8 MB
  • SHA256 : D5C23B1EB54374E020B66446F39CC4009B168C196E3F4BAD8061F47EB1418FA4
  • Microsoft* Windows*
  • サイズ : 736.1 MB
  • SHA256 : F12CAB6A76B633F7EFFF089E5E192229E020DCA157E31EBC4DAE378B939F5ACF
  • macOS*
  • サイズ : 40.1 MB
  • SHA256 : F7BB6777383BAD03B7437FE1E256BA469960DD6A595934D7FB2D9681A21E65F1
  • Ubuntu Family*
  • サイズ : 35.5 MB
  • SHA256 : EC7D0147FFAFD5F196E805376469DBE9DE1CBC4CC8EFBD2A033F8C240EDE060B
  • Ubuntu 22.04 LTS*, Ubuntu Family*
  • サイズ : 93.5 MB
  • SHA256 : 3B4D92FEC96860DFEA844CD7C23E190D76C243E75815491D53405B4CED892103
  • Ubuntu 24.04 LTS*, Linux*
  • サイズ : 95.6 MB
  • SHA256 : 0F54D388CDCFC691162BC4FFA28792FC953B6C3F5A1B89CAC03D40C6284379D5
  • Linux*, Debian Linux*
  • サイズ : 32.7 MB
  • SHA256 : 8646F9F20DF5410F905227D582877D4C19962A753C9A2E0AEA79BA4D29BC6A43
  • CentOS Linux* ファミリー, Linux*
  • サイズ : 70.9 MB
  • SHA256 : 39DEBD57818BB9F64589CB17642227A862766A76BA10C9A622663815FB350F51
  • Linux*, Red Hat* Linux* ファミリー
  • サイズ : 73.3 MB
  • SHA256 : A63EAFC7A78D9DFB0C1AD597BAA4B0E5C6C87357DCBBA213C7AE8AD882A07B8B
  • Android*
  • サイズ : 71 MB
  • SHA256 : E0A303E60720E71E1FE0A64DAD7067ECD3960A57EB825DC630A7C5E49216A93E

詳細

最新情報

  • コード変更を最小限に抑えるための、より多くのGen AI カバレッジとフレームワークの統合


    • CPU と GPU でサポートされる新しいモデル: Qwen3 VL
    • CPU でサポートされる新しいモデル: GPT-OSS 120B
    • プレビュー: インテルの CPU、GPU、NPU で最適化された推論を可能にする llama.cpp 向けの OpenVINO バックエンドの紹介。Llama-3.2-1B-Instruct-GGUF、Phi-3-mini-4k-instruct-gguf、Qwen2.5-1.5B-Instruct-GGUF、Mistral-7B-Instruct-v0.3 などの GGUF モデルで検証済み。
    • 新しいノートブック: Qwen3-VL、Qwen2.5-VL、LLaVa-NeXT-Video 間でのビデオファイルのサポートとインタラクティブなモデル切り替えを備えた統合された VLM チャットボット。
  • より広範な LLM モデルサポートとより多くのモデル圧縮技術

    • GenAI OpenVINO™、画像とビデオの生成に TaylorSeer Lite キャッシュを追加し、Hugging Face Diffors と連携して、Flux、SD3、LTX-Video パイプライン全体で拡散トランス推論を加速します。
    • GPU 上の LTX-Video 生成は、RMSNorm と RoPE オペレーターの融合によりエンドツーエンドのアクセラレーションを実現し、ビデオ生成性能を大幅に向上させます。
    • GenAI OpenVINO™、LLMを備えたQwen3-VLおよびVLモデルに動的LoRAサポートを追加し、開発者が実行時にアダプターを交換して、基本モデルをリロードすることなく、本番環境で複数のモデルバリアントを効率的に提供できるようにします。
    • プレビュー: ov::Model のリリース重み API を使用すると、NPU でのモデルのコンパイル中にメモリの再利用が可能になり、エッジとクライアントのデプロイのピーク時のメモリ消費量が大幅に削減されます。このプロパティは、ユーザーが ov::Model で設定する必要があり、コンパイル時に適用されます。
  • エッジ、クラウド、またはローカルで AI を実行するためのポータビリティーとパフォーマンスの向上


    • インテル® Core™ シリーズ 3 プロセッサー (以前の開発コード名 Wildcat Lake) および 32GB メモリーを搭載した インテル® Arc™ Pro B70 グラフィックスのサポートを導入。20-30B パラメーター LLM でのシングル GPU 推論
    • プロンプト・ルックアップ・デコードはビジョン言語パイプラインにまで拡張され、インテル® CPU および GPU 上のマルチモーダル・ワークロードで大幅に高速なトークン生成を実現しました。
    • GenAI OpenVINO™、トークン化からICU DLLの依存関係を排除した後、ランタイムフットプリントが小さくなり、メモリ使用量の削減、起動の高速化、および展開の簡素化につながります。
    • GenAI OpenVINO、NPM パッケージを介して WhisperPipeline for Node.js を導入し、単語レベルの音声からテキストへの文字起こしにより、プロダクションに対応した音声認識を実現します。
    • OpenVINO™ モデル・サーバーは、Qwen3-MOE および GPT-OSS-20b モデルのサポートを強化し、継続的なバッチ処理によるパフォーマンス、精度、および堅牢な同時要求処理を向上させます。これらの事前に最適化されたモデルは、簡単に展開できるようにHugging Faceで利用できます。さらに、モデルサーバーでは、AI 画像編集用の /image エンドポイントを介して、画像のインペインティングおよびアウトペインティング機能が導入されています。

すべての詳細を入手してください。 2026.1 リリースノートを参照してください。

取り付け手順

Archive* から OpenVINO™ ランタイムのインストール方法は、お使いのオペレーティング・システムに応じて選択できます。

ダウンロード・パッケージの内容 (アーカイブ・ファイル)

  • C/C++ と Python API の両方を提供
  • さらに、コード サンプルが含まれています

役立つリンク

メモ: リンクは新しいウィンドウで開きます。

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。