メインコンテンツへスキップ
サポート・ナレッジベース

モデル・オプティマイザーを使用して、トレーニング済みのカスタム TensorFlow* モデルを変換できない

コンテンツタイプ: トラブルシューティング   |   記事 ID: 000095016   |   最終改訂日: 2023/05/30

詳細

次のコマンドを実行します。

mo --saved_model_dir saved_model_0/

エラーが発生しました:

[ エラー ]置換器「REPLACEMENT_ID」の実行中に発生した例外 (<クラス「openvino.tools.mo.middle.PartialInfer.PartialInfer」>): 「ParseExample/ParseExampleV2」ノードでのシェイプ / 値の伝搬が停止しました。
詳細については、モデル・オプティマイザーに関するよくある質問 (質問 #38) を参照してください。(https://docs.openvino.ai/latest/openvino_docs_MO_DG_prepare_model_Model_Optimizer_FAQ.html?question=38#question-38)
[ 情報 ]また、モデル・オプティマイザーのコマンドラインに「-use_new_frontend」オプションを追加して、新しい TensorFlow フロントエンド (2022年3月時点のプレビュー機能) を使用することもできます。
新しい TensorFlow フロントエンドの詳細については、https://docs.openvino.ai/latest/openvino_docs_MO_DG_TensorFlow_Frontend.html をご覧ください

解決方法

モデル・オプティマイザーで以下のパラメーターを指定して、カスタム・トレーニング済みの TensorFlow モデルを変換します。

--input,-output, --input_shape, --reverse_input_channels

モデルを IR 形式に変換する方法の詳細については、モデル・オプティマイザー使用ガイドを参照してください。

関連製品

本記事は、3 製品に適用します。
インテル® Xeon Phi™ プロセッサー・ソフトウェア OpenVINO™ toolkit パフォーマンス・ライブラリー

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。