Detectron2*、および Layout-LM* モデルを中間表現 (IR) にOpenVINO™し、CPU プラグインで推論する方法を決定できません。
Detectron2 モデルを変換するには、Colab チュートリアルに従って、PyTorch* による Detectron2* モデルのトレーニングと推論を行い、また、以下の手順に従ってモデルを ONNX* フォーマットに変換してから IR フォーマットに変換します。
$ python export_model.py --config-file ./output.yaml --sample-image ./new.jpg --output ./model/ --export-method トレース --format onnx MODEL。重み ./出力/model_final.pth モデル。DEVICE CPU
print (cfg.dump())
open ("output.yaml"、"w") を f:
f.write (cfg.dump())
$ pip インストール openvino-dev
$ mo --input_model ./model/model.onnx
ONNX* モデルの場合:
$ benchmark_app -m model.onnx -d CPU -niter 100 -api 非同期 -hint スループット
$ benchmark_app -m model.onnx -d CPU -niter 100 -api 非同期 -hint レイテンシー
IRモデル付き:
$ benchmark_app -m model.xml -d CPU -niter 100 -api 非同期 -hint スループット
$ benchmark_app -m model.xml -d CPU -niter 100 -api async -hint レイテンシー
レイアウト LM モデルを変換します。以下の手順に従って、Layout-LM モデルを変換し、OpenVINO™による推論を行います。
$ pip はトランスフォーマーをインストールします[onnx]
$ python3 -m transformers.onnx --model=microsoft/layoutlm-base-uncased onnx
$ pip インストール openvino-dev
$ mo --input_model ./onnx/model.onnx
ONNX* モデルの場合:
$ benchmark_app -m onnx/model.onnx -d CPU -niter 100 -api async -hint throughput -data_shape input_ids[1,1]、bbox[1,1,4]、attention_mask[1,1]、token_type_ids[1,1]
$ benchmark_app -m onnx/model.onnx -d CPU -niter 100 -api async -hint latency -data_shape input_ids[1,1]、bbox[1,1,4]、attention_mask[1,1]、token_type_ids[1,1]
IRモデル付き:
$ benchmark_app -m model.xml -d CPU -niter 100 -api async -hint スループット -data_shape input_ids[1,1]、bbox[1,1,4]、attention_mask[1,1]、token_type_ids[1,1]
$ benchmark_app -m model.xml -d CPU -niter 100 -api async-hint レイテンシー -data_shape input_ids[1,1]、bbox[1,1,4]、attention_mask[1,1]、token_type_ids[1,1]
| メモ |
上記のコマンドで -data_shape で定義される入力シェイプは、ユースケースによって異なる場合があります。 |