メインコンテンツへスキップ
サポート・ナレッジベース

モデルサーバーでRESTを使用して予測を要求することは可能ですかOpenVINO™?

コンテンツタイプ: 互換性   |   記事 ID: 000098156   |   最終改訂日: 2024/03/21

環境

オペレーティング・システム

Windows® 10, 64-bit*

詳細

モデル・サーバーで REST を使用して予測を要求OpenVINO™ことができません。

解決方法

次のコードを使用して、OpenVINO™ モデル サーバーで REST を使用して予測を要求します。

from ovmsclient import make_http_client
client = make_http_client("localhost:8000")
with open("img.jpeg", "rb") as f:
data = f.read()
inputs = {"input_name": data}
results = client.predict(inputs=inputs, model_name="my_model")

追加情報

TensorFlow* Serving API を参照してください

関連製品

本記事は、3 製品に適用します。
インテル® Xeon Phi™ プロセッサー・ソフトウェア OpenVINO™ toolkit パフォーマンス・ライブラリー

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。