# 量子化によるNNのコンパクト化 浮動小数点(32bit)で行われていた演算を、整数int(8bit)での演算に置き換える 回路規模。必要メモリが小さくなる 整数で近似してもほとんど、性能は変わらない bit数を小さくしていくと、精度が落ちていく 量子化関数が微分できない →BPによるパラメータの更新ができない →学習時には浮動小数点で学習し、推論時には量子化した、パラメータのみ必要