# Processing with AI
## Partie 2: 👩⚖️ Ethics of AI
Nom - Prénom :
> JOUBERT Guillaume
>
Sujet :
> Improve dating apps matching algorithms using NLP
>[TOC]
## Cahier des charges
### Biais
Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaître :
>1. Les profils les plus "likés" seront les plus affichés sur notre application de rencontre, créant un cercle vertueux / vicieux pour les personnes avec beaucoup / peu de "likes"
>2. Certains profils risquent d'être dénigrés selon la couleur de peau, l'origine sociale...
Nous allons donc nous assurer que notre modèle n'est pas biaisé en :
>1. Exerçant le modèle sur tout type de personne, tout type de morphologie, tout type de couleur de peau etc.
### Overfitting
Nous allons nous assurer que notre modèle ne sera pas dans une situation de sur-apprentissage (overfit) en :
> Effectuant régulièrement des tests du modèle après des phases d'apprentissage
> En corrigeant manuellement le modèle s'il tend à favoriser une catégorie de personne plutôt qu'une autre
### Usages détournés
>Nous devons nous rappeler que notre application pourrait être utilisée de façon malveillante par des hackers pour voler des données personnelles, ou par des gens malintentionnés cherchant à rencontrer des nouvelles potentielles "victimes"
### Fuite de données
*Choisissez la proposition qui s'applique le mieux selon vous:*
> Dans un scénario catastrophe, au cours duquel l'entièreté de notre jeu de données d'entrainement serait disponible au grand public, le risque serait que les personnes ayant donné leur accord pour participer à l'entrainement du modèle se voient être victimes de vol d'identité.
### Piratage
> Si une personne trouvait un moyen de "tromper" notre modèle et modifier son comportement à volonté, le risque serait que notre modèle devienne totalement biaisé comme évoqué au début, et ne favorise un type / une catégorie de personnes.