# Histogram losses Когда я занимался видео, мне пригодилось расталкивать гистограммы позитивов и негативов (подробнее [здесь](https://ntechlab.atlassian.net/wiki/spaces/RE/pages/1708589067/Theoretical+maximum)). Делая например из таких гистограм ![](https://i.imgur.com/MkcgyaJ.png) такие ![](https://i.imgur.com/w2WONdx.png) Мне стало интересно, происходило ли что-то похожее в литературе. Итак, обзор. ## Binomial Deviance ![](https://i.imgur.com/kjqwVpr.png) Оказывается я использовал этот лосс, чтобы обучить веса усреднения. Про него даже что-то упомянали. Например, в следующей статье от Лемпицкого он достаточно неплохо смотрится на фоне триплет лоссов. ## ["Learning Deep Embeddings with Histogram Loss"](https://arxiv.org/abs/1611.00822) В статье предлагается разделять гистограммы ![](https://i.imgur.com/k3yZcdX.png) ### Method Сначала строятся гистограммы позитивных и негативных симиларити $s_{ij}$. Предполагается, что бы выбрали замощение $t_1, \dots, t_R$ c шагом $\Delta$ ![](https://i.imgur.com/552bzxa.png) ![](https://i.imgur.com/XUlTIY0.png) Заметим, что одна $s_{ij}$ попадает в два бина через soft assignment (линейная интерполяция веса по расстоянию). ### Results ![](https://i.imgur.com/oSM82l3.png)