# Processing with AI ## Exploration : IA & Ethics Name: > Laurene > Raguet Subject: > Detect student presence in class using Face Recognition >[TOC] ## Design brief ### Biais If we don't source our dataset with enough rigor, the following biais might appear: >1. a Le genre est un biais : l’IA reconnait plus souvent les hommes. >2. b L’ethnie est un biais : les IA reconnaissance plus souvent les blancs caucasiens >3. c L’impression de photo en HQ est un biais, car l’IA peut reconnaitre un personne alors que c’est une image (attaque photo) We will ensure that our model is not biaised by: >1. Sourcing our data from.. un large échantillon représentatif de la population. >2. Prendre plusieurs photos de la meme personne >3. Reponse à l’attaque photo par la reconnaissance du clignement des yeux. ### Overfitting We will make sure our model does not overfit by > Checking the accuracy of our model sur une base de données et sur une classe pilote. ### Misuse >We have to remind ourselves that our application could be misused by l’administration de l’école, en affichant les élèves retardataires ou absents (et en se trompant potentiellement, comme le fait le gouvernement chinois), ou en donnant une probabilité de réussite aux élèves se basant sur la reconnaissance faciale. ### Data leakage >We have decided that our training dataset will be fully open-sourced, but before we made sure that les personnes inscrites dans l’école ont pris connaissance des termes et conditions d’utilisation, et ont donné leur accord (via une décharge par exemple). ### Hacking > If someone found a way to "cheat" our model and make it make any prediction that it want instead of the real one, the risk would be that ... les élèves font croire qu’ils sont en cours alors qu’ils sont chez eux en train de matter Netflix.