# Processing with AI ## Partie 2: đŸ‘©â€âš–ïž Ethics of AI Nom - PrĂ©nom : > Caro > SolĂšne Sujet : > Surveiller l'attention des Ă©lĂšves en classe Ă  l'aide de la vision par ordinateur >[TOC] ## Cahier des charges ### Biais Si notre jeu de donnĂ©es n'est pas conçu avec suffisamment de rigueur, les biais suivant risquent d'apparaĂźtre : >1. Exclusion de certains visages / images stĂ©rĂ©otypĂ©es : Par exemple l'agorithme peut avoir une vision racisĂ©e oĂč il va confondre deux Ă©tudiants noirs. Si l'un triche, il confondra les deux Ă©tudiants noirs et accusera de tricherie l'un alors que c'est l'autre. >2. Mauvaise perception des mouvements : Par exemple si un Ă©tudiant regarde de gauche Ă  droite, l'algorithme peut considĂ©rer cela comme de la triche car il ne regarde pas la camĂ©ra. >3. Une disparitĂ© sexiste ou transphobe oĂč l'algorithme reconnait principalement la catĂ©gorie Homme Blanc HĂ©tĂ©rosexuel. Si par exemple un Ă©tudiant Ă  une crete colorĂ©e, l'algorithme doit le reconnaitre et le marquer comme prĂ©sent. Nous allons donc nous assurer que notre modĂšle n'est pas biaisĂ© en : >1. Sourçant nos donnĂ©es depuis un closed source afin de garder la confidentialitĂ© et le droit Ă  l’image des Ă©tudiants. (Ă©viter des failles de sĂ©curitĂ©) >2. S’assurant que nos donnĂ©es prennent en compte la diversitĂ© des visages (personnes noires, asiatiques, transgenres par exemple). Le but est vraiment de diversifier la base de donnĂ©e afin qu’elle ne soit pas exclusive et qu’elle puisse reconnaĂźtre tout le monde (Ă©galitĂ© d’équitĂ©) >3. Detectant tout type de mouvements (regard de l'Ă©cran, de la camĂ©ra, de gauche Ă  droite) mais Ă©galement diffĂ©rencier l'Ă©tudiant d'une autre personne, d'un objet, d'animaux. Le but est d’aider l’ordinateur Ă  apprendre ce qu’il doit privilĂ©gier quand il regarde certaines scĂšnes (ici l’étudiant) ### Overfitting Nous allons nous assurer que notre modĂšle ne sera pas dans une situation de sur-apprentissage (overfit) en : > VĂ©rifiant la prĂ©cision de notre modĂšle sur son modĂšle d’apprentissage. Un modĂšle d’apprentissage approfondi qui est capable de dĂ©tecter diffĂ©rentes Ă©motions, de suivre le regard de l’étudiant, de faire la diffĂ©rence entre un objet, animal et un ĂȘtre humain, de reconnaĂźtre les visages (de diffĂ©rencier l’étudiant Ă  un autre ĂȘtre humain) est indispensable. Ce modĂšle d’apprentissage approfondi aide les machines Ă  dĂ©tecter les informations importantes dans leur champs de vision tels que les expressions de visage, le dĂ©tournement du regard voire l'identitĂ© de l'Ă©tudiant. ### Usages dĂ©tournĂ©s >Nous devons nous rappeler que notre application pourrait ĂȘtre utilisĂ©e de façon malveillante par des personnes anonymes qui peuvent crĂ©er des Deep Fake pour bizuter ou ridiculiser un Ă©tudiant. En effet, puisque la camĂ©ra est allumĂ©e, la personne peut crĂ©er une fausse vidĂ©o d’un Ă©tudiant disant quelque chose qu’il n’a jamais dit Ă  tendance raciste ou homophobe par exemple. ### Fuite de donnĂ©es ***Choisissez** la proposition qui s'applique le mieux selon vous concernant votre **jeu de donnĂ©es**:* > **🔐 Closed source:** J’ai choisi “Closed source” car c’est un logiciel fermĂ© au public, conçu pour ĂȘtre utilisĂ© dans une entreprise comme une Ă©cole de commerce afin de protĂ©ger les dĂ©tails des Ă©tudiants et contrĂŽler son image de marque. De plus, la gestion informatique est plus facile, il y a une vĂ©ritable assistance technique et convivialitĂ© derriĂšre en cas de problĂšme. Dans un scĂ©nario catastrophe, au cours duquel l’entiĂšretĂ© de notre jeu de donnĂ©es d’entrainement serait volĂ© ou rĂ©cupĂ©rĂ© Ă  partir de notre modĂšle, le risque serait que la rĂ©solution du problĂšme peut prendre beaucoup plus de temps car seul le pĂŽle technique et/ou informatique de l’école de commerce peut intervenir. De plus les Ă©tudiants peuvent porter plainte directement Ă  l'Ă©cole qui devait assurer la sĂ©curitĂ© des donnĂ©es. Seule l'Ă©cole de commerce en est responsable et peut intervenir. ### Piratage > Si une personne trouvait un moyen de "tromper" notre modĂšle et modifier son comportement Ă  volontĂ©, le risque serait que toutes les donnĂ©es privĂ©es soient volĂ©es et que seule l'entreprise propriĂ©taire puisse trouver une solution. La correction sera sans doute plus longue car tout le monde ne peut pas pointer les erreurs. Le risque de piratage en closed source est moins rĂ©currente mais si cela arrive, l'entreprise aura beaucoup plus de mal Ă  gĂ©rer cette situation qu'en open source.