# Processing with AI ## Exploration : IA & Ethics Name: > Florian Luttmann > Subject: > Detect dermatological problems using Computer Vision >[TOC] ## Design brief ### Biais Si on ne source pas notre base de données avec suffisemment de rigueur, les biais suivants peuvent apparaître : >1. Si la base de données a été réalisée avec un focus sur un type de maladie alors elle sera entraînée à détecter surtout un seul type de problème (par exemple : les mélanomes). Occultant le reste des problèmes. >2. Si la base de données a été réalisée avec des personnes possèdant une seule couleur de peau (par exemple : blanche) alors les personnes de couleur noire n'auront pas accès à un diagnostic efficace. >3. Plus généralement : si la base de données n'a pas été construite en tenant compte de la réalité du monde, alors les conclusions seront faussées. Par exemple, en ne prenant pas en compte des personnes provenant du monde entier (la peau d'un asiatique est sans doute différente de la peau d'un européen). Ceci pour lutter contre les faux négatifs. On s'assurera que notre modèle n'est pas biaisée par: >1. Réaliser la base de données avec des personnes provenant du monde entier et représentant toutes les minorités. >2. S'assurer que la base de données prenne en compte les spécificités de la peau : dépigmentation, brûlure, cicatrice... >3. S'assurer que la base de données prennent en compte des personnes de tout âge. ### Overfitting On s'assurera que notre modèle n'est pas surentrainée par: > Pour lutter contre le phénomène du surapprentissage. Il faut diviser la base de données en deux parties : base de données d'entrainement et base de données de validation. > Ensuite, on entraine notre modèle avec la base de donnée "d'entrainement" puis on teste la précision du modèle avec la base de donnée de "validation". ### Misuse >Nous devons nous souvenir que notre application peut-être mal utilisée par des personnes qui ne sont pas des dermatologues pour réaliser des diagnostics. ### Data leakage >Dans un scénario catastrophe, où toute notre base de donnée d'entrainement serait volée ou récupérée de notre modèle, le risque serait que les données médicales (confidentielles) des participants seraient entre les mains d'une personne non soumise au secret médical. ### Hacking > Si quelqu’un a trouvé un moyen de "détourner" notre modèle afin de lui faire réaliser des prédictions qu'il souhaite au lieu de la réalité, le risque serait : de mal diagnostiquer le patient. Et donc de conduire à une mauvaise prise en charge.