メインコンテンツへスキップ
サポート・ナレッジベース

中間表現 (IR) によるOpenVINO™ランタイム推論パイプラインの実装は可能ですか?

コンテンツタイプ: 製品情報 & ドキュメント   |   記事 ID: 000092935   |   最終改訂日: 2023/02/28

詳細

  1. TensorFlow* モデルを IR に変換。
  2. IR を使用して OpenVINO™ ランタイム推論パイプラインを実装する手順を決定できません。

解決方法

  1. Create* OpenVINO™ ランタイム・コア
    import openvino.runtime as ov
    core = ov.Core()

     
  2. モデルのコンパイル
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. 推論要求を作成する
    infer_request = compiled_model.create_infer_request()
     
  4. 設定 入力
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. 開始 推論
    infer_request.start_async()
    infer_request.wait()

     
  6. 推論結果の処理
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

関連製品

本記事は、3 製品に適用します。
インテル® Xeon Phi™ プロセッサー・ソフトウェア OpenVINO™ toolkit パフォーマンス・ライブラリー

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。