# Попытки повторить статью [19] [^19] | Index | Description | Result | | ----- |:------------------------------------------------------------------------------------------------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | | 1 | 2 канала для свёрток 2, 4, 16 | тестовая точность 55%. как была, так и осталась, скорее даже падает, 200 crop size | | 2 | берём каналы из статьи (2,3,5,7) на 32 (128 не рискнула), 200 crop size | аналогично эксперименту 1 | | 3 | (2) with crop size 800(actually no crop size) | стартовая тестовая точнось 30%, но она растёт. К 30ой эпохе точность медленно доросла до 39%. Увеличила learning rate в 100 раз (с 0.0001 до 0.01). Итог: через 100 эпох точность достигла в максимуме 45% и то в самом начале. Группировка на изображениях слабая. | | 4 | C++, crop_size=800,<br> learning_rate = 0.001, <br>channels=[2, 3,5, 7]<br> 32 each, <br> usual triplet loss | training process is good, accuracy up to 75% (which is maximum, because the training accuracy at this moment is 100%) | ## Results for C++ Test accuracy (smooth): ![](https://i.imgur.com/foyFlAK.png) Test accuracy (no smooth): ![](https://i.imgur.com/TvyDTMX.png) Test accuracy on a small subset of authors (first 10): ![](https://i.imgur.com/wJuddfx.png) Loss: ![](https://i.imgur.com/Hmp6fG8.png) Training accuracy (on a subset of examples): ![](https://i.imgur.com/IWzo5Y3.png) Visualization of test subset (last epoch): ![](https://i.imgur.com/eYYYx2H.png) Visualization of the training subset (last epoch): ![](https://i.imgur.com/CSZoeiH.png) [^19]: Sarim Zafar et al. “Language and Obfuscation ObliviousSource Code Authorship Attribution”. In:IEEE Access8 (2020), pp. 197581–197596.