# 量子化によるNNのコンパクト化 浮動小数点(32bit)で行われていた演算を、整数int(8bit)での演算に置き換える 回路規模。必要メモリが小さくなる 整数で近似してもほとんど、性能は変わらない bit数を小さくしていくと、精度が落ちていく 量子化関数が微分できない →BPによるパラメータの更新ができない →学習時には浮動小数点で学習し、推論時には量子化した、パラメータのみ必要
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up