# Processing with AI ## Partie 2: 👩‍⚖️ Ethics of AI Nom - Prénom : > Lavane Co > Sujet : > Est ce que ce vêtement me sied il? > Une app pour savoir si un vêtement est à la bonne taille pour toi et si les couleurs de l'ensemble sont esthétiques. On proposerait des alternatives comme vêtements ou des couleurs qui iraient bien pour compléter >[TOC] ## Cahier des charges ### Biais Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaître : >1. a "Lack of complete data" si le jeu de donné ne comprends aucune image de personnes ayant une charge pondérale elevé. Ce manque lié à certaines morphologies n'étant pas représenté peut amener ds problèmes. On pourrait avoir des résultats non voulus ou un biais donnant des résultats faussés >2. Overfitting: Si le set de donnés n'utilise que des femmes caucassiennes de plus d'1m70 avec des vêtements de marques de luxe faites systématiquement sur mesure. L'app ne pourra pas donner de résultat en dehors de ces cas de figures précis >3. "Sample Bias": si toutes les photos utilisées sont des photos professionelles ou avec un éclairage artificielle type spot. L'IA ne marchera pas bien pour un utilisateur lambda chez lui s'éclairant avec des lumières normales Nous allons donc nous assurer que notre modèle n'est pas biaisé en : >1. >2. Une diversité dans les types >3. Une diversité dans les types de lieu et décor. On fera des user-tests variés pour tester l'IA dans tous les types de conditions possibles ### Overfitting Nous allons nous assurer que notre modèle ne sera pas dans une situation de sur-apprentissage (overfit) en : > Ayant un set de morphologies variés, représentant tout type de peau. Utilisant aussi bien des shootings photos professionelles que des photos prises dans des conditions peu optimale ### Usages détournés >Nous devons nous rappeler que notre application pourrait être utilisée de façon malveillante par une marque pour mettre en avant leur produit en manipulant l'algorithme. Egalement il faudra rappelé que c'est une simple indication et que les goûts de chacun sont valables (afin de ne pas heurter certaines sensibilités) et qu'il ne faut pas changer complétement son style pour convenir à un algorithme ### Fuite de données ***Choisissez** la proposition qui s'applique le mieux selon vous concernant votre **jeu de données**:* > **🔐 Closed source:** Il serait peut être plus sage de garder l'algorithem privé. Pour éviter qu'une marque vienne chercher à être mise en avant en analysant & exploitant certaines faiblesses de l'algorithme. Cependant il sera important à mes yeux d'être transparents avec nos utilisateurs, indiquer comment notre IA fonctionne dans les grandes lignes, leurs indiquer quelles données nous gardons sur eux ### Piratage > Si une personne trouvait un moyen de "tromper" notre modèle et modifier son comportement à volonté, le risque serait que… Elle pourrait modifier les retours donnés par ntore IA par exemple en utilisant des mots cruels ou insultant lorsqu'est detecté certaines associations de vêtement ou bien certaines morphologie. Egalement si nous décidons d'utiliser les photos prises par nos utilisateurs/utilisatrices pour optimiser l'IA alors il y a un risque d'atteinte à la vie privée. ### Source https://research.aimultiple.com/ai-bias/ https://iarss.org/wp-content/uploads/2016/05/Popham_Bias_BK04.pdf https://www.sciencedirect.com/science/article/pii/S0268401221000803?casa_token=FnWy9JZn9H0AAAAA:NQvyubwFP37DoZRchaHQ9n1Z8-YMtLaqzds5fuw7nDpNjNSAZanWOe61g2u-vL1t_wzyxxMUUw https://muse.jhu.edu/article/645268/summary https://link.springer.com/article/10.1007/s00521-019-04144-6