--- title: Webinaire 0 AR HPC & Géomatique date: 2024-07-05 --- # Webinaire 0 AR HPC & Géomatique - 5 juillet 2024 13-14 ###### tags: `ar hpc`,`webinaire` :::info - Présent.e.s : - Excusé.e.s : - Lien site web : https://ar-magis-hpc.gitpages.huma-num.fr/ar-website/ - Lien visio BBB : https://webconf.univ-rouen.fr/greenlight/rey-gip-r1y-si2 - Lien mailling-list : https://groupes.renater.fr/sympa/info/ar-hpc-magis ::: ## Ordre du Jour - Présentation AR HPC (5 minutes) - Intervention de Yousra Hamrouni (20 minutes) - Intervention de Jocelyn Degoer (20 minutes) - Discussions (10 minutes) - Conclusion ## Interventions (résumé et discussions) ### Yousra Hamrouni / Retour d'expérience autour du Machine Learning et des ressources HPC à l'UMR DYNAFOR Nos recherches à l'UMR Dynafor se concentrent sur l'analyse de séries temporelles d'images satellitaires ou aéroportées à haute résolution spatiale et/ou temporelle, générant ainsi des volumes de données considérables, surtout à l'échelle nationale. Pour traiter ces données massives, nous utilisons des algorithmes avancés d'apprentissage automatique, y compris de l'apprentissage profond, pour créer des cartes de plantations forestières, identifier des essences forestières et détecter les changements dans les milieux agriforestiers. Ces processus nécessitent des capacités de calcul et de stockage importantes, bien au-delà de ce que peuvent offrir les infrastructures informatiques traditionnelles. Nous avons expérimenté diverses solutions de HPC, chacune présentant ses propres avantages et inconvénients. Lors de ce webinaire, nous discuterons les défis rencontrés ainsi que notre recherche d'une solution institutionnelle pérenne pour notre laboratoire. **Yousra Hamrouni est Maîtres de conférences en sciences des données, spécialiste en HPC pour l'UMR Dynafor** ### Jocelyn Degoer / CoLab.IA : Plateforme expérimentale d’ingénierie pour l’Intelligence Artificielle Depuis ces dernières années, les méthodes d'Intelligence Artificielle (IA) ont connu une évolution fulgurante, révolutionnant de nombreux domaines scientifiques et techniques, tels que la vision par ordinateur, l'analyse de séquences biologiques, la reconnaissance vocale, la classification de séries temporelles ou l'analyse et la génération de textes en langage naturel. Au cœur de cette révolution se trouvent les réseaux de neurones profonds, des modèles mathématiques inspirés du fonctionnement du cerveau humain, qui ont donné naissance à des architectures de plus en plus complexes, performantes et capables de s'adapter à un large éventail de tâches. Aujourd'hui, l'IA n'est plus un simple concept de science-fiction, mais une réalité qui est en train de bouleverser différents champs technologiques et scientifiques. Dans cette ère de changements rapides et d'innovations technologiques, il est primordial que les équipes INRAE puissent s'acculturer à ces technologies afin de pouvoir en faire bénéficier les activités techniques et scientifiques de l'Institut. Dans ce contexte, la plateforme expérimentale d'ingénierie CoLab.IA vise à mettre à disposition de la communauté INRAE une plateforme d'ingénierie permettant d'accompagner les équipes souhaitant s'initier aux méthodes de Deep Learning et commencer à les utiliser au sein de leurs projets. Cette plateforme propose des ressources de calcul permettant le développement de réseaux de neurones artificiels et vise à initier une communauté autour des méthodes de Deep Learning en général. Au cours de cette présentation, nous aborderons les points suivants : une introduction aux principes du Deep Learning, une description détaillée de la plateforme CoLab.IA et une présentation de projets ayant bénéficié de ses ressources. **Jocelyn Degoer est Ingénieur de Recherche en Calcul Scientifique & Intelligence Artificielle, Responsable des Systèmes d’Information de l’UMR EPIA** ## Prise de notes Focus sur les activités HPC Dynafor 3 sites, 70 membres Forte interdisciplinarité : - écologie - agronomie - géo-humaine - géomatique, info modélisation et statistique Activité de recherche : 2 axes scientifiques autour du paysage agroforestier : gouvernance/humain et sociale et axe représentation paysage Dans l'axe Funk, télédetection pour caractériser l'état et la structure du paysage => évaluer impact et comprendre organisation spatiale. Détecter évolution paysage dans le temps, comprendre l'impact des représentations paysagères (dimension spatial et temporelles) Approches méthodologiques : - apprentissage machine (IA) - fusion multimodale - traitement d'images et vision par ordinateur De plus en plus de données disponibles à l'échelle spatiale et temporelle: ex Sentinel 2 une image tous les 5 jours Démocratisation des méthodes d'apprentissages automatique, exigeante en terme de calcul Défis : - volume suscite des problèmes de stockage, - inadaptibilité des machines locales pour l'apprentissage machine Différentes solutions expérimentées : 1. Serveur de calcul local, datacenter de l'INRAe Auzeville, UMR IAT - 48 coeyrs 38 go ram, 10 To DD - Petite taches : - traitement série temporelle d'image - taches d'apprentissage automatique Avantages : - pratique car flexible, mais espace stockage limité MAIS ... - capacité restreinte - personne pour l'administration machine, fait par les utilisateurs volontaires - pas de GPU 2.. CLOUD GIS france grille - 8 coeurs - 28 go - stockage 125 go - Petites taches Avantages : - support utilisateur efficace MAIS - peu de stockage - capacité de calcul faible , pas de GPU => poster JCAD 2019 pour REXP fr ance grille 3. Serveur calcul CNES - 96 noeuds CPU, - 1024 Go mémoire, - 50 To - tache de classification supervisé à l'échelle nationale, ex carte des peupleraies 2017-2022 => moins d'une semaine pour une seule année Avantages : - accès DataLake, pas de rappatriement d'image, tout sur le cluster - grande capacité de calcul - accès à des noeuds GPU - contact aisé avec le personnel admin système MAIS - restrictions réseau - accès contractualisé - pas la main sur les tâches admin machine (e.g. installer des libs) 3 solutions testés, et là on est à la recherche de solution pérennes. Solution CLOUD on voulait ne pas à avoir à gérer le serveur Solution Colab.IA solution interne INRAE, voir présentation après. Phase test,accès ponctuel pour le test : - accès noeud CPU/GPU - environnement de travail clef en main -- 250 go stockage Avantages : - Inrae, solution institutionnelle clermond ferrand, faire communauté - affranchissement de la gestion administration serveur - capacité adaptées exprès au besoin MAIS - investissement permettant d'acquérir une machine qui sera ensuite administré par un accès permanent Autre solution, meso@LR à Montpellier en phase de test Test : 5000 heures Calcul CPU, 1000 heures GPU Avantages : - Administration et maintenance assurées - solution locales financées par la région MAIS - il faudra financer l'heure d'achat d'heure de calcul et de stockage, il faudra payer des heures de calculs et de stockages Autre solution encore ? Mesocentre de calcul CALMIP : - dépot de projet, avec comité d'attribution, demande aura lieu à la prochaine vague de demande Supercalculateur Jean Zay (CNRS) - puissance réputée :-) - sera testé pour voir ce que ça donne Conclusion : - augmentation exponentielle des besoins en calcul et en stockage => on a besoin d'infrastructures adaptées. - Solution institutionelles privilégiées pour s'affranchir de la partie serveur, et garde la main sur la flexibilité - Situation actuelle, pas de solution pérenne - problème partagée par la communauté - nombreuses pistes à suivre et à tester Point commun qui ressort : l'administration système et le personnel qui le fait : externalisée vs. interne [paul] Le paradoxe du HPC : usage et administration «On ne veut pas gérer le serveur mais on veut pouvoir installer des librairies » -> est-ce parce qu'on ne sait pas faire ? parce que c'est dangereux/coûteux si on se trompe ? [paul] Il semble impossible de rendre pérenne les solutions. -> Parce que ça bouge trop vite ? (e.g. l'état de l'art est sur GPU, et y a pas de GPU sur l'infra ) -> parce que les projets demandent des infras spécifiques et qu'un projet ça dure 3 ans ? (et après on passe à autre chose ? ) JOCELYN DE GOER UMR EPIA Inrae Clermond Ferrant Thématique de recherche IA, problématique de trouver de l'infra pour faire çà, c'est pour çà que j'ai déposé ce projet de plateforme Réseaux de neurones artificiels, utilisation dans de nombreux domaines Historique de l'IA : - 1943 McCulloch - 1950 VonNeumann, Turing - 1956 Dartmouth - 1957 Perceptron - 1966 Weizenbaum - 1971 Intel premier microprocesseur - 1980 Micro informatique - 1986 Méthode de retropropagation gradient - 1989 Yann Le Cun, premier réseau de neurones convolutifs - 1990 web - 1986 Algo Deep Blue - plein de choses - 2008 calcul à base GPU 2012 ère de l'apprentissage profond, il a fallu attendre : - bases théoriques - données - puissance de calcul Réseaux neurones artificiels : - inspiré du cerveau humain - dizaine de couches en layer - processus d'apprentissage pour ajuster poids entre couche de neurone artificiel Historique Deep Learning - popularisation 2012, réseau CNN AlexNet - 2014, réseau GAN pour générer des images - 2015, réseau RRN - 2016, Alpha Go - 2017, Architecture Transformer - 2018 OpenAI modèle de langage - 2019,2020 chat gpt - 2021, AlphaFold, Dall-E - 2022, whisper, stable diffusion, Chat Depuis 2024 on est dans la continuité de chatgpt, on va parler de modèle multimodale. On peut les interroger soit en leur donnant des instructions textuelles, soit à la voix, soit avec des images et du texte. Deux catégories de modèles, propriétaires ou openSource (Llama, Bloom, etc.) Huggingface qui fait la liste de ces modèles opensource Mistral AI interméaire entre privé et public Comment on entraine un réseau de neurone ? - annotation d'images classées - convolutions - passage dans le réseau de neurones => recherche à faire une prédiction avec une fonction de coût. - optimisation via descente de gradient et rétropropagation (qui à propagé l'erreur ?) - Ensuite on l'interroge, on fait de l'inférence avec une prédiction de classification avec un indice de confiance Ressources de calculs, démarrage en 2017 : - machine de type gaming pour démarrer, mais c'est difficile de mettre ces machines dans un bureau, avec un budget modeste -> [paul] je comprends pas pourquoi - prospection dans les centres de calcul, mésocentre, intéressant mais il y a des délais, accompagnement infra mais pas forcément sur le volet deep learning en particulier. Problématique aussi des données à caractère médical. => du coup proposition d'une offre intermédiaire. L'idée c'est pas de faire de la concurence aux mesocentre, mais de proposer une alternative maison. Colab.IA : - plateforme expérimentale dédiée au deep learning - permettre l'initiation au deep learning - construire une animation communautaire 2 modes de fonctionnement : - Accès communautaire - ouvert à toutes les équipes INRAE souhaitant débuter l'activité - accès aux ressources partagées avec une file d'attente et une limite de temps - Accès prioritaire: - ouvert à toutes les équipes ayant fait l'acquisition de serveur intégrés a colab.ia - utilisation des ressources acquises sans limitation de durée - mise a disposition lorsque pas utilisé - administration des machines par l'équipe technique [paul] il semble qu'acheter soi même les machines règle le problème de l'administration système : si on achète c'est qu'on peut administrer ? Publication / communication : - apparaitre dans la section remerciements - apparaitre en tant qu'auteur des articles si il y a eu un accompagnement - données et scripts d'analyses restent la propriétés des équipes Services : - Environnement Jupyter - Notebook pour l'execution Python / R - Container - Terminal bash - API mise en place de service en ligne: - prétraitement audio avec FFMPEG - retranscription textuelle via WHISPER - reconnaissance locuteurs - Exploitation de LLM Opensource - Interface ChatGPT - Développement de Chats Bots Plateforme expérimentale Colab.IA - Master K8s - 4 noeuds de calcul - Serveur Nas avec 10TO Hdd, 8to SSD - Acquisition d'un 5ème noeud pour du LLM Cluster Kubernetes, Keycloak, JupyterHub sur du K8s Utilisateurs: - 30 utilisateurs réguliers dans différentes unité - projets GenIALearn avec acquisition 2 exemples : - Projet Game-PLAII : GAMAE (analyse evaluation jeu sérieux filmés), analyse vidéo YoloV5 + retranscription textuelle des enregistrement audio des parties Utilisation de GradCm pour l'explicabilité du modèle - Projet Netcargland : IPS2 / UR GAFL : Améliorer les plates pour répondre aux besoins spécifiques des abeilles et pollenisateurs. Améliorer variété pour nourrir aussi les abeilles en plus d'être attractif pour les humains. Réseau de neurone pour détecter et chronométrer les temps de butinages. - Mise en place d'agents conversationnels, mais spécialisés avec la méthode RAG (Retrieval Augmented Generation) : Utiliser un corpus de texte pour répondre aux questions de l'utilisateur Colab IA issu de différents CATIs porteurs (IMOTEP, SICPA, CODEX) Equipe de 3 personnes Financements avec différentes entrées Formation permanente nationale : Deep Learning appliqué au traitement d'iamges et aux grand modèles de langage, 2 niveaux initiation et appronondissement et perfectionnement. 14 - 16 octobre 2024 Seminaire Réseau2Neurones : animation scientifique