Blog

Part 3 : Comment les réseaux de neurones prennent des décisions

Cet article fait partie d’une série d’article qui vous permettra de comprendre étape par étape comment fonctionne l’intelligence artificielle et notamment les réseaux de neurones.

Je vous invite à lire, si vous ne l’avez pas déjà fait, les articles précédents :

 

Part 1 : Les réseaux de neurones artificielles

Part 2 : Comment fonctionne le Perceptron

 


Comme nous l’avons découvert dans l’article précédent, le perceptron ne permet pas une prise de décision similaire à la prise de décision humaine.

Mais l’exemple utilisé précédemment illustre comment un perceptron seule peut peser le pour et le contre afin de prendre des décisions.

 

La prise de décisions avec les réseaux de neurones

Désormais, nous allons voir comment un réseau de perceptrons plus complexe peut prendre des décisions plus subtiles.

réseau neurone

réseau neurone

Dans un réseau de neurones, la première colonne de neurones, est appelée la première couche (layer) de neurones, nous l’appellerons la couche d’entrée (input layer). La dernière colonne de neurones s’appelle quant à elle, la couche (layer) de sortie (output layer). Toutes les couches intermédiaires n’étant pas en contact direct avec les valeurs d’entrée ou de sortie sont appelées les couches cachées (hidden layers). Sur le schéma représentant un réseau de neurones ci-dessus, le réseau ne dispose que d’une seule “hidden layer” (couche cachée).

reseau-neurone-detail

Dans ce réseau, la couche d’entrée (input layer) réalise 3 très simples décisions, en pesant les évidences grâce aux variables d’entrées (input variables)

Que se passe t-il dans les neurones de la seconde couche (la couche cachée)?

Chacun de ces neurones prend une décision en mesurant les résultats des neurones provenant de la première couche de neurone. De cette façon, un perceptron dans la seconde couche peut prendre une décision d’un niveau plus complexe et plus abstrait que la couche précédente. Et des décisions encore plus complexes peuvent être prises par les neurones de la troisième couche. Ainsi, un réseau composé de plusieurs couches de neurones peut prendre des décisions plus sophistiquées.

 

Essayons de simplifier la façon de décrire le principe d’un neurone perceptron

La condition vue dans l’article précédent ∑jwjxj>threshold est lourde.

La revoici (petit cour de rattrapage) :

x1.w1+x2.w2 + x3.w3 = ∑jxjwj

La valeur de sortie (output) est calculée de la façon suivante :

output=0 si ∑jwjxj ≤ threshold

ou alors output=1 si ∑jwjxj > threshold

Le premier changement que nous allons écrire maintenant est un produit vectoriel :

w⋅x≡∑jwjxjw⋅x≡∑jwjxj

Dans ce produit vectoriel “w⋅x”, w et x sont des vecteurs (vectors) dont les composantes sont les poids et les variables d’entrées, respectivement.

Le second changement consiste à déplacer le seuil (threshold) de l’autre côté de l’inégalité, et de le remplacer par le seuil du perceptron par ce que nous appellerons le biais (bias en anglais) :

bias = b = -threshold

En utilisant le biais “bias” à la place du “threshold”, la règle du perceptron peut être désormais réécrite de la façon suivante :

output=1 si w⋅x+b>0

Ou alors

output=0 si w⋅x+b≤0

Le biais permet au neurone de mesurer avec quelle facilité le résultat (la valeur de sortie) sera un 1. D’un point de vue biologique, le biais est en réalité le seuil de déclenchement du neurone.

 

Conclusion

Comme vous avez pu le constater, cette partie commence à être plus technique que les précédentes. N’hésitez pas à commenter et donner vos impressions ou vos idées qui permettraient d’améliorer la vulgarisation de sujet aussi complexe que l’Intelligence Artificielle.

Rendez-vous la semaine prochaine pour la partie 4.

 

Comments are closed, but <a href="https://rocketbootstrapper.com/fr/fonctionnement-reseau-de-neurones-perceptrons/trackback/" title="Trackback URL for this post">trackbacks</a> and pingbacks are open.