Idées de stage L3 ========= [toc] # idées de Marco: ## class imbalance: - concretement: pour des données synthétiques (random), avec K=2 classes, GD full batch, mesurer l'accuracy par classe, et le temps auquel elle atteint un seuil, genre 0.5 ou 0.75. Ce temps est noté $\tau_k$ Tracer la acccuracy par classe, selon les classes: donc une courbe par classe (acc vs epoch) Chaque classe a par exemple n_1, n_2, n_3 points (N-tiotsal = n_1 + n_2...) - Question 0: est ce qu'il y a un scaling de tau_k vs n_k ? (à $n_{total}$ fixé). est ce que c'est en $n_k^{-\alpha}$ ? - Question 1: est ce qu'il y a un data collapse de toute la courbe ? - Question 2: est ce que ça generalise bien ? - Question generale, intro preliminaire: lire le papier de Marco et Emmanuelle Fancazi(?) acc , recall vs epochs: (train acc) cas imbalanced: ça retarde le moment ou le train acc est egal à 0.75 ("tot"). tau = temps auquel on atteint tot de balanced accuracy quelle est la loi de tau=f(rho) Après on peut mésurer les différences entre classes, définir une difficulté opérative de la classe, explorer des dynamiques différentes, ... ## Class imbalance vs data scarcity - en gros meme expe mais la question c'est: quel est le pbnm, data scarcity ou imbalance vraiment ? - par exemple, augementer les data de class majoritaire: est ce que ca degrade la perf ? (de quelle facon) ## pbm de correspondance entre loss et accuracy: avec le early stoppping, on s'arrete tot avec la BCE, mais en fait la accuracy et le F1score continuent d'augmenter. empiriquement: regarder entre 1 modele avec Loss bonne mais accuracy moins bonne (early stopping) vs le modele final avec Loss moins bonne mais accuracy meilleure. -> quelle est la difference qualitative entre ces 2 modèles ? Est-ce que cette différence varie avec le choix de la loss ? # Idée Se(3)-GNN for glasses: - faire du transfert learning, depuis ma représentation se3 apprise à une température, vers les targets, avec la boite a outils shallow ML. - Et regression symbolique sur les poids en fonction des échelles de temps: en regardant les poids des décodeurs ainsi appris, peut on voir une relation d'échelle simple ? - ou bien directement, apprendre un seul décodeur qui soit aware du temps t et de la température T # Idée agro-écologie: exploration biblio sur le theme agro écologie (mixed cropping, GWAS) ------------------ # Appendix Détails/garbage notes sur le projet 1 de MArco: hypothese: tau_1 \sim n_1^{-alpha} tau_2 \sim n_2^{-alpha} tau_3 \sim n_3^{-alpha} Si c'est le cas, alors, collapse de toute la courbe ? setup : random data, binaire, au depart. GD full batch. evolutions: multi class, SGD, et a la fin: data reelle. setup (pour plus tard): overparametrized, CNN, CIFAR10 imbalanced rho_usuel-ds-la-litterature: rho_max/rho_min la, c'est pas une bonne mesure car