# Histogram losses
Когда я занимался видео, мне пригодилось расталкивать гистограммы позитивов и негативов (подробнее [здесь](https://ntechlab.atlassian.net/wiki/spaces/RE/pages/1708589067/Theoretical+maximum)). Делая например из таких гистограм

такие

Мне стало интересно, происходило ли что-то похожее в литературе. Итак, обзор.
## Binomial Deviance

Оказывается я использовал этот лосс, чтобы обучить веса усреднения. Про него даже что-то упомянали. Например, в следующей статье от Лемпицкого он достаточно неплохо смотрится на фоне триплет лоссов.
## ["Learning Deep Embeddings with Histogram Loss"](https://arxiv.org/abs/1611.00822)
В статье предлагается разделять гистограммы

### Method
Сначала строятся гистограммы позитивных и негативных симиларити $s_{ij}$. Предполагается, что бы выбрали замощение $t_1, \dots, t_R$ c шагом $\Delta$


Заметим, что одна $s_{ij}$ попадает в два бина через soft assignment (линейная интерполяция веса по расстоянию).
### Results
