# Processing with AI ## Partie 2: 👩‍⚖️ Ethics of AI Nom - Prénom : > Goulard-Souliez Inès > Sujet : > Détecter les maladies rares dans les résultats médicaux (analyses de sang, IRM, radiologie, etc.) grâce à l'apprentissage automatique. ## Cahier des charges ### Biais Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaître : >1. Des faux négatifs dû à la couleur de peau de la personne qui n'est pas prise en compte >2. Des résultats qui ne sont pas représentatifs de la réalité >3. Des anomalies chez un patient qui ne sont pas détectées de par leur rareté Nous allons donc nous assurer que notre modèle n'est pas biaisé en : >1. Se basant uniquement sur des sources scientifiques vérifiées pour alimenter notre modèle >2. Travaillant en permanence avec une veille scientifique pour être au courant des dernières découvertes et avancées >3. Testant le jeu de données sur toutes les couleurs de peau pour ne pas avoir d'erreurs sur ce point là >4. Renseignant dans le jeu tous les cas de figure possible pour qu'il ne soit pas en sous-apprentissage et passe à côté d'une maladie grave ### Overfitting Nous allons nous assurer que notre modèle ne sera pas dans une situation de sur-apprentissage (overfit) par : - Des tests réguliers sur des personnes de couleurs de peau différentes (si le modèle à tendance à rencontrer plus de personnes d'une telle ou telle couleur de peau) - Des tests réguliers sur des échantillons que le modèle n'est pas ammené à rencontrer tout les jours (maladies rares, graves...) - Des mises à jour sur le modèle qui lui permettra de prendre en compte de nouveaux éléments (avancées scientiques, technologiques...) ### Usages détournés >Nous devons nous rappeler que notre application pourrait être utilisée de façon malveillante par des utilisateurs mal intentionnés pour détourner des données médicales ou pire encore se servir de notre modèle pour agir avec de mauvaises intentions auprès de personnes malades. ### Fuite de données > Dans un scénario catastrophe, au cours duquel l'entièreté de notre jeu de données d'entrainement serait disponible au grand public, le risque serait que notre modèle soit repris puis copié par un concurrent ou par une personne malveillante soit dans un but de compétitivité ou dans un but de sabotage. Le système pourrait alors être copié à l'identique, et nous causer du tord. > >Si notre jeu de données possède une mémoire des cas traités, les données de nombreux patients pourraient être rendues publiques ou exploités à des fins malveillantes. Dans ce secteur d'activité, la notion de secret médical et de protection des données des patients est fondamentale, toutes les hypothèses de piratage doivent être attentivement étudiées pour que ce type d'attaque ne puissent arriver en aucun cas. Une telle attaque pourrait engendrer de très lourdes conséquences comme un recours judiciaire de la part des patients concernés. ### Piratage > Si une personne trouvait un moyen de "tromper" notre modèle et modifier son comportement à volonté, le risque serait que le modèle ne soit plus aussi efficace et ne détecte plus les maladies rares dans les différentes analyses. Notre modèle ne serait plus du tout légitime à être utilisé dans de telles problématiques, il serait complétement controversé par le pirate. Le modèle n'aspirera plus aucune fiabilité et confiance pour son utilisateur. > Si la personne responsable du piratage souhaite détourner notre modèle pour l'utiliser à des fins médicales, cela pourrait prendre une tournure très dangereuse, car n'importe qui ne peut pas identifier ou analyser des résultats médicaux et cela pourrait avoir de graves conséquences.