Nom
Prénom
> Derbel
> Firas
>
Sujet :
> Improve dating apps matching algorithms using NLP
>[TOC]
## Cahier des charges
### Biais
Si notre jeu de données n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaître :
>1. Un biais de genre : En effet, un système biaisé de ce point de vue est un système de matching qui privilégie une situation où l'homme est toujours dominant face à la femme consacrant une différence d'évaluation entre les hommes et les femmes. Par exemple, dans un tel système,un homme qui a fait des hautes études et a de bons revenus se verrait attribuer des points bonus, une femme qui aurait le même profil se verrait, elle, attribuer des points malus.
>2. Un biais de race : En effet, un tel biais induirait par exemple à ce qu'un profil d'un homme blanc soit jugé plus attractif que celui d'un homme noir malgré la similarités de leurs caractéristiques.
Nous allons donc nous assurer que notre modèle n'est pas biaisé en :
>1. S'assurant que le traitement des données des femmes et des hommes soient fait d'une manière identique basée sur les memes critères ce qui permet d'éviter le biais du genre.
>2. S'assurant que l'attractivité des profils soient uniquement déterminée en fonction de critères objectifs faisant abstraction de la couleur de peau ou autres caractéristiques raciales.
### Overfitting
Nous allons nous assurer que notre modèle ne sera pas dans une situation de sur-apprentissage (overfit) en :
> Vérifiant la précision de notre modèle sur les caractéristiques collectés des abonnés en les séléctionnant et en distinguant les caractéristiques les plus utiles et les moins utiles (stratégie de régularisation)
> Une stratégie d'arret précoce pourrait etre déployée afin d'éviter l'overfitting en arretant l'entrainement du modèle sur l'apprentissage des données avant que la performance ne s'arrete de s'optimiser.
### Usages détournés
>Nous devons nous rappeler que notre application pourrait être utilisée de façon malveillante par des hackers ou meme par des responsables de l'application animés par une intention de nuire, pour détourner les données provenant de la géolocalisation,de la biométrie c'est à dire du modèle numérique du visage, ou de la psychométrie, c'est à dire du comportement,de l’attitude, et des traits de personnalité. Le risque est qu'une marchandisation des données personnelles et confidentelles, ait lieu mettant les abonnés à la merci des hackers.
### Fuite de données
> Dans un scénario catastrophe, au cours duquel l'entièreté de notre jeu de données d'entrainement serait disponible au grand public, le risque serait que le droit à l’intimité des utilisaterus soit violé, car ces derniers révélent des informations qu’ils ne dévoilerait pas ailleurs, en croyant qu’ils sont dans un espace intime et protégé? Or quand tout cela est dévoilé, outre les problèmes causés aux abonnés c'est la confiance dans la sécurité du système qui s'écroule.
Nous avons ainsi pris des précautions en vue de protéger l'ensemble des donnés des abonnés en sécurisant l'accès de ceux-ci à leurs comptes.
### Piratage
> Si une personne trouvait un moyen de "tromper" notre modèle et modifier son comportement à volonté, le risque serait que des informations que les utilisateurs ont fournie lors de la configuration de leurs profils sur l'application soient en divulguées. Parmi les données les plus sensibles, il y a les vrais noms, les adresses mails et postales, les mensurations de la personne, les préférences de rencontre, l’état civil et la date de naissance.
Cette divulgation pourraient donner lieu à des incidents incidents de harcelement, de chantage ou d'extorsion.
Afin d'éviter ces incidents, l'application veillera à verouiller le système et à protéger les données de ses utilisateurs.