---
title: 5 - Apprentissage non supervisé
tags: ia, data
robots: noindex, nofollow
author: Julien Noyer
---
# Apprentissage non supervisé : laisser la machine se débrouiller

L'époque actuelle est pleine d'enthousiasmes autour des avancés en robotique et en intelligence artificielle, les médias, le cinéma ou l'éducation nationale, tout le monde semble prendre le sujet pour lui et y va de son analyse, de son appréciation sur la sur-puissance supposée des machines.
Dans la mesure où les recherches scientifiques sont théorisées depuis bien longtemps les possibilités de la machine, le monde des chercheurs y voit des nouvelles opportunités dans leur recherche mais n'ont toujours pas pour ambition de dépasser le cerveau humain. Pour [Yann Lecun](https://www.di.ens.fr/~ponce/) par exemple qui est l'un des inventeurs du principe d'apprentissage profond, l'intelligence ne peut-être artificielle.
---
<br><br><br>
# Ne plus s'occuper des hyperplans
Le **point de départ de l'apprentissage non supervisé** est de considérer que compte tenu de l'énorme quantité d'informations à traiter, **c'est la machine** qui doit être capable de **réaliser d'elle-même la classification et le regroupement** des données.

[Yann Lecun](https://www.di.ens.fr/~ponce/) qui a co-inventer les principes d'apprentissage profond - ou non supervisé - continu aujourd'hui sur l'amélioration de ces méthodes en tant que directeur de [Facebook Artificial Intelligence Research](https://fr.wikipedia.org/wiki/Facebook_Artificial_Intelligence_Research). Ses recherches sont aujourd'hui considérées comme les plus abouties dans ce domaine, avec trois réseaux de neurones qui analysent chaque image diffusées sur Facebook il est en même temps celui qui dispose de **la plus grande base de données classifier au monde**.
---
<br><br><br>
# Une infinité de données dans un monde fini
Une machine capable de générer des données à partir de données sources est assez facile à imaginer, mais pour que cette machine puisse déterminer les caractéristiques des données sources il faut **un travail de classification préalable**.

Pour [Yann Lecun](https://www.di.ens.fr/~ponce/) cette classification et tout simplement faite par **les utilisateurs de Facebook** qui diffuse jusqu'à **un milliard de photos par jour avec des tags**, des identifications de lieu et de personnes. De cette quantité astronomique d'images, les **algorithmes sont alors livrés à eux-mêmes** dans la recherche des caractéristiques des images. Il est à noter néanmoins que Facebook pré-mache le travail des algorithmes avec les tags que les utilisateurs associent ou non à leurs images.
---
<br><br><br>
# Inverser le réseau de neurones
Nous présentions dans l'introduction le principe des [modèles génératifs](https://en.wikipedia.org/wiki/Generative_model) qui permet à une machine de générer des données à partir de caractéristiques spécifiques.

Dans le visuel ci-dessus présente de photo de personnalités qui n'existent pas : l'algorithme qui les a créés c'est inspiré de milliards d'images qui lui ont permis de définir des critères de lui-même.
Pour atteindre ce résultat il a "simplement" fallut inverser le principe d'utilisation des neurones de notre réseau.

Partant de ce principe nous pouvons donc **imaginer inverser totalement notre réseaux de neurones** pour lui demander de générer des images qui rentrent dans les caractéristiques qui correspondent à ses hyperplans et ainsi générer des images.
---
<br><br><br>
# Ressources

Index des liens vers les sujets traités dans ce document :
- **Yann Lecun** https://www.di.ens.fr/~ponce/
- **Facebook Artificial Intelligence Research** https://fr.wikipedia.org/wiki/Facebook_Artificial_Intelligence_Research
- **Modèles génératifs** https://en.wikipedia.org/wiki/Generative_model