インテル® ニューラル・コンピュート・スティック 2での推論のための TensorFlow オブジェクト検出 API モデルの変換 (インテル® NCS 2)

ドキュメント

トラブルシューティング

000055228

2023/06/06

インテル® NCS 2 の スタートガイド に従って、OpenVINO™・ツールキットをインストールし、インテル® NCS 2 を設定します。

メモ スタートガイドとこの記事は、元のインテル® Movidius™ニューラル・コンピュート・スティックを使用しているユーザーにも適用されます。

mo_tf.py スクリプトは、~/intel/openvino/deployment_tools/model_optimizer・ディレクトリーにあります。インテル® NCS 2 での推論のためにモデルを中間表現 (IR) に変換する際には、以下のパラメーターを指定する必要があります。

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • 構成ファイルは~ /intel/openvino/deployment_tools/model_optimizer/extensions/front/tf ディレクトリーにあります。モデルのトポロジーに一致する構成ファイルを選択します。構成ファイルの一覧については、 モデルを変換する方法 を参照してください。

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • このパラメーターは、推論エンジンのサンプル・アプリケーションで変換された TensorFlow オブジェクト検出 API モデルを使用している場合に必要です。

--data_type FP16

  • インテル® NCS 2 で実行する半精度浮動小数点フォーマットを指定します。

モデル・オプティマイザー・コマンドの例:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

モデル・オプティマイザーに関する追加情報は、OpenVINO™・ ツールキットのドキュメントに記載されています