Idées de stage L3
=========
[toc]
# idées de Marco:
## class imbalance:
- concretement: pour des données synthétiques (random), avec K=2 classes, GD full batch, mesurer l'accuracy par classe, et le temps auquel elle atteint un seuil, genre 0.5 ou 0.75. Ce temps est noté $\tau_k$
Tracer la acccuracy par classe, selon les classes: donc une courbe par classe (acc vs epoch)
Chaque classe a par exemple n_1, n_2, n_3 points (N-tiotsal = n_1 + n_2...)
- Question 0: est ce qu'il y a un scaling de tau_k vs n_k ? (à $n_{total}$ fixé).
est ce que c'est en $n_k^{-\alpha}$ ?
- Question 1: est ce qu'il y a un data collapse de toute la courbe ?
- Question 2: est ce que ça generalise bien ?
- Question generale, intro preliminaire:
lire le papier de Marco et Emmanuelle Fancazi(?)
acc , recall vs epochs: (train acc)
cas imbalanced: ça retarde le moment ou le train acc est egal à 0.75 ("tot").
tau = temps auquel on atteint tot de balanced accuracy
quelle est la loi de tau=f(rho)
Après on peut mésurer les différences entre classes, définir une difficulté opérative de la classe, explorer des dynamiques différentes, ...
## Class imbalance vs data scarcity
- en gros meme expe mais la question c'est: quel est le pbnm, data scarcity ou imbalance vraiment ?
- par exemple, augementer les data de class majoritaire: est ce que ca degrade la perf ? (de quelle facon)
## pbm de correspondance entre loss et accuracy:
avec le early stoppping, on s'arrete tot avec la BCE, mais en fait la accuracy et le F1score continuent d'augmenter.
empiriquement:
regarder entre 1 modele avec Loss bonne mais accuracy moins bonne (early stopping) vs le modele final avec Loss moins bonne mais accuracy meilleure.
-> quelle est la difference qualitative entre ces 2 modèles ? Est-ce que cette différence varie avec le choix de la loss ?
# Idée Se(3)-GNN for glasses:
- faire du transfert learning, depuis ma représentation se3 apprise à une température, vers les targets, avec la boite a outils shallow ML.
- Et regression symbolique sur les poids en fonction des échelles de temps: en regardant les poids des décodeurs ainsi appris, peut on voir une relation d'échelle simple ?
- ou bien directement, apprendre un seul décodeur qui soit aware du temps t et de la température T
# Idée agro-écologie:
exploration biblio sur le theme agro écologie (mixed cropping, GWAS)
------------------
# Appendix
Détails/garbage notes sur le projet 1 de MArco:
hypothese:
tau_1 \sim n_1^{-alpha}
tau_2 \sim n_2^{-alpha}
tau_3 \sim n_3^{-alpha}
Si c'est le cas, alors, collapse de toute la courbe ?
setup : random data, binaire, au depart. GD full batch.
evolutions: multi class, SGD,
et a la fin: data reelle.
setup (pour plus tard): overparametrized, CNN, CIFAR10 imbalanced
rho_usuel-ds-la-litterature: rho_max/rho_min
la, c'est pas une bonne mesure car