# Processing with AI
## Partie 2: đ©ââïž Ethics of AI
Nom - Prénom :
> Simon Tsafack
>
Sujet :
> Improve dating apps matching algorithms using NLP
>[TOC]
## Cahier des charges
### Biais
Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaßtre :
>1. Des languages non communs et non repertorié ne seront pas reconnus
>2. Ces personnes se verront desavantagées en raison de leur facon de parler lors de la hierachisation
>3.
Nous allons donc nous assurer que notre modÚle n'est pas biaisé en :
>1. Sourçant nos données depuis une large variété de languages et conversation
>2. S'assurant que nos données prennent en compte l'aspect rapide des abbreviations, verlan pour ne pas penaliser
>3. En s'assurant d'une proportionalité dans tous les languages enregistrés.
### Overfitting
Nous allons nous assurer que notre modĂšle ne sera pas dans une situation de sur-apprentissage (overfit) en :
> Vérifiant la précision de notre modÚle en ayant une base de données d'entrainement assez large
> Mais aussi en se servant de la technique de âcross validationâ consistant Ă diviser les donnĂ©es dâentrainement en plusieurs groupes
### Usages détournés
>Nous devons nous mettre un point d'honneur sur le fait que notre application pourrait ĂȘtre utilisĂ©e de façon malveillante par certaines categories de personnes. La prevention sur ce type de comportement pourrait sensibliser les gens. Pour detecter notamment des personnes adaptant leur description et leur façon dâĂ©crire, qui pourraient tenter de contacter des personnes bien plus jeune. (Voir des mineurs, mĂȘme si lâapplication est sensĂ© ĂȘtre interdite aux moins de 18 ans)
### Fuite de données
> **đ Closed source:** Dans un scĂ©nario catastrophe, au cours duquel lâentiĂšretĂ© de notre jeu de donnĂ©es dâentrainement serait volĂ© ou rĂ©cupĂ©rĂ© Ă partir de notre modĂšle, le risque relĂšverait de la sĂ©curitĂ© de nos utilisateurs. En effet, si notre code, qui est normalement fermĂ© au public, se retrouve exposĂ©, de nombreuses failles pourraient ĂȘtre dĂ©couverte, entrainant un risque potentiel pour les utilisateurs, qui pourraient se voir subtiliser leurs donnĂ©es ou meme jusqu'a se faire pirater.
Nous avons fait le choix de ne pas avoir un code open source, car notre application contiendra des données personelles et sensibles sur les utilisateurs. Ces données au vue de leur caractÚres, ne doivent jamais fuiter, pour maintenir une certaine confiance.
Enfin, le code pourrait mĂȘme ĂȘtre par la mĂȘme occasion volĂ© et utilisĂ© par des concurrents et nous affectĂ© economiquement. Cela nous priverait d'un avantage quelconque sur les innovations que notre entreprise a pu trouver.
Dans l'ensemble câest un parti pris pour Ă©viter que les donnĂ©es sensibles fuitent.
### Piratage
> Si une personne trouvait un moyen de âtromperâ notre modĂšle et modifier son comportement Ă volontĂ©, le risque serait de mettre Ă mal toute lâapplication et risquer de la mettre dans une situation oĂč on se questionnerait sur sa survie Ă©conomique. Car si les recommendations ne correspondent plus aux attentes des utilisateurs, ils nâutiliseront plus lâapplication, conduisant Ă la faillite de lâentreprise qui la dĂ©veloppe.