メインコンテンツへスキップ
サポート・ナレッジベース

量子化されたモデル形式が、INT8ではなくFP32のままである理由は?

コンテンツタイプ: 製品情報 & ドキュメント   |   記事 ID: 000095064   |   最終改訂日: 2023/06/13

詳細

  • FP32 精度フォーマットの量子化 ONNX モデル。
  • compress_model_weights機能を実行して、トレーニング後の量子化を実行した後に、ビンファイルのサイズを縮小します。
  • モデルをコンパイルし、モデルの出力が INT8 ではなく FP32 であることに気づいた。

解決方法

量子化の間、パフォーマンスの観点から必要な操作のみが量子化されていました。残りの操作は、出力に FP32 として残ります。

追加情報

低精度変換のOpenVINO™を参照してください。

関連製品

本記事は、3 製品に適用します。
インテル® Xeon Phi™ プロセッサー・ソフトウェア OpenVINO™ toolkit パフォーマンス・ライブラリー

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。