メインコンテンツへスキップ
インテルのロゴ - ホームページに戻る
マイツール

言語の選択

  • Bahasa Indonesia
  • Deutsch
  • English
  • Español
  • Français
  • Português
  • Tiếng Việt
  • ไทย
  • 한국어
  • 日本語
  • 简体中文
  • 繁體中文
サインイン 制限されたコンテンツにアクセスするには

Intel.com 検索の使用

いくつかの方法で Intel.com サイト全体を簡単に検索できます。

  • 商標名: Core i9
  • 文書番号: 123456
  • Code Name: Emerald Rapids
  • 特殊演算子: "Ice Lake", Ice AND Lake, Ice OR Lake, Ice*

クイックリンク

最も検索されている項目の検索結果については以下のクイックリンクもご利用できます。

  • 製品情報
  • 支える
  • ドライバーおよびソフトウェア

最近の検索

サインイン 制限されたコンテンツにアクセスするには

詳細検索

検索のみ

Sign in to access restricted content.
  1. Streamline Deep-Learning Integration

お使いのブラウザーのバージョンは、このサイトでは推奨されません。
以下のリンクをクリックして、最新バージョンのブラウザへのアップグレードをご検討ください。

  • Safari
  • Chrome
  • Edge
  • Firefox

PDF のダウンロード
PDF のダウンロード

Streamline Deep Learning Integration

Intel factories are using the Intel® Distribution of OpenVINO™ toolkit to streamline deep-learning integration with the factories' computer vision automatic defect-classification systems.

Intel factories have been using computer vision for over a decade to automate defect detection and classification. The factories use TensorFlow* as the core open source library to help develop and train deep-learning models. However, the interface between the computer vision systems and TensorFlow is cumbersome and requires days of custom programming from data scientists.

The Intel® Distribution of OpenVINO™ toolkit significantly streamlines this interface. Therefore, Intel IT has found it to be the most convenient and fastest way to deploy deep learning (in particular, deep neural networks) in the Microsoft* Windows environment.

  • The OpenVINO™ toolkit helps data scientists more easily interface with powerful back-end deep-learning engines like TensorFlow.
  • This frees up data scientists to use their time more productively.
  • There is no unique hardware to deploy—the OpenVINO™ toolkit runs on existing Intel® Xeon® processor-based servers.
  • Because it is optimized for Intel® hardware, the OpenVINO™ toolkit boosted model inference performance by 10x, according to internal Intel IT measurements.

When Intel IT began using the OpenVINO™ toolkit, they weren’t concerned with inference speed. However, the 10x performance increase that they experienced is an added benefit and opens up additional use cases. For example, they are now exploring the use of OpenVINO for real-time process control, which requires millisecond response times. They are currently working with the OpenVINO development team to add the necessary temporal convolutional network model into the Model Zoo.

Intel IT is committed to making Intel’s manufacturing processes as accurate and efficient as possible. Computer vision was an important step in achieving those goals. Now, the OpenVINO™ toolkit helps save time so that highly qualified engineers can accomplish more productive tasks, rather than coding a cumbersome interface to TensorFlow. OpenVINO helped Intel IT simplify development and optimize TensorFlow for top performance.

関連ビデオ

さらに表示 表示件数を減らす

関連資料

  • 会社情報
  • 当社の取り組み
  • インクルージョン
  • 投資家向け情報 (英語)
  • お問い合わせ
  • ニュースルーム
  • サイトマップ
  • リクルーティング情報
  • © Intel Corporation
  • 利用規約
  • *法務情報
  • Cookie
  • プライバシー・ポリシー
  • サプライチェーンの透明性 (英語)
  • 私の個人情報を共有しない California Consumer Privacy Act (CCPA) Opt-Out Icon

インテルのテクノロジーを使用するには、対応するハードウェア、ソフトウェア、またはサービスの有効化が必要となる場合があります。// 絶対的なセキュリティーを提供できる製品またはコンポーネントはありません。// コストと結果は異なることがあります。//性能は、使用状況、構成、その他の要因により異なります。詳細については、intel.com/performanceindex  (英語) を参照してください。 // インテルの完全な法的通知と免責事項をご覧ください。// インテルは人権を尊重し、人権侵害の発生を回避するように尽力しています。詳しくはインテルの Global Human Rights Principles (世界人権の原則) をご覧ください。インテルの製品とソフトウェアは、国際的に認められている人権を侵害しない、または侵害の原因とならないアプリケーションに使用されることを目的としています。

インテルのフッターロゴ