メインコンテンツへスキップ
サポート・ナレッジベース

OpenVINO™ API 2.0 でランタイム C++ API を使用してOpenVINO™ Tensor* ノードを取得できません

コンテンツタイプ: トラブルシューティング   |   記事 ID: 000094847   |   最終改訂日: 2026/03/12

詳細

OpenVINO™ API 2.0 で次の API の代替が見つかりません:

Blob::Ptr features_output = infer_request.GetBlob("features");
Blob::Ptr heatmaps_output = infer_request.GetBlob("heatmaps");
Blob::Ptr pafs_output = infer_request.GetBlob("pafs");

解決方法

この Blob API (Blob::Ptr and InferRequest::GetBlob) は 2022 OpenVINO™ リリース以降非推奨となり、OpenVINO™ ランタイム API 2.0 で削除されました。

OpenVINO™ API 2.0 では、推論結果には Tensor API を使用してアクセスします。

出力テンソルを名前で取得するには、次のメソッドを使用します

infer_request.get_tensor(const std::string& tensor_name);

返された ov::Tensor は、出力データ、形状、および要素タイプへのアクセスを提供します。

追加情報

関連製品

本記事は、1 製品に適用します。

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。