## Partie 2: 👩‍⚖️ Ethics of AI Nom - Prénom : > ESPINOSA-BOURDONCLE Simon > Sujet : > Improve dating apps matching algorithms using NLP >[TOC] ## Cahier des charges ### Biais Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaître : >1. discriminations sociales >2. discriminations raciales >3. discriminations sexistes Nous allons donc nous assurer que notre modèle n'est pas biaisé en : >1. Sourçant nos données depuis un dataset impartial >2. S'assurant que nos données prennent en compte les minorités. >3. S'assurer que le modèle en lui même est impartial. ### Overfitting Nous allons nous assurer que notre modèle ne sera pas dans une situation de sur-apprentissage (overfit) en : > Vérifiant la précision de notre modèle sur un jeu de données de validation. Nous allons entraîner notre modèle sur un "training dataset", puis mesurer son efficience à l'aide d'un "validation dataset" ### Usages détournés >Nous devons nous rappeler que notre application pourrait être utilisée de façon malveillante par des hackers pour produire des deep fakes. ### Fuite de données > Dans un scénario catastrophe, au cours duquel l'entièreté de notre jeu de données d'entrainement serait disponible au grand public, le risque serait que des milliers de profils de site de rencontre pourraient être accessibles sans authentification, exposant donc les utilisateurs à un préjudice moral. ### Piratage > Si une personne trouvait un moyen de "tromper" notre modèle et modifier son comportement à volonté, le risque serait que les utilisateurs n'aient plus aucune confiance envers la confidentialité promise par le site de rencontre, mais aussi que les algorithmes soient révélés ce qui constituerait un vol de propriété intellectuelle.