Reprenons les bases : Neurone artificiel, Neurone biologique

Public ciblé : Tout public, lycéen·ne·s 

Afin de reconstruire les concepts liés au cerveau, de les étudier et d’en simuler le fonctionnement, les chercheurs utilisent des réseaux de neurones artificiels. De nombreux types de réseaux existent aujourd’hui pour représenter les différents types de mémoires, on parle alors de modèle.

Pour cette nouvelle série d'articles sur les réseaux de neurones, les fonctions cognitives et notre intelligence mécanique, il est bon de reprendre les bases et de se remémorer certains fondamentaux !

Neurone biologique/ Neurone artificiel

Figure A - Représentation d'un neurone biologique par Nicolas Rougier

Vous l'avez souvent entendu et lu : l’unité minimale d’un modèle artificiel (d'un réseau de neurones artificiels) repose sur un neurone formel appelé aussi neurone artificiel et cette dernière est une représentation artificielle mathématique et informatique d’un neurone biologique

Un neurone biologique  reçoit des entrées ou signaux transmis par d’autres neurones (interaction dendrites- synapse). Au niveau du corps (soma), le neurone analyse et traite ces signaux en les sommant. Si le résultat obtenu est supérieur au seuil d’activation (ou d'excitabilité), il envoie une décharge alors nommé potentiel d'action le long de son axone vers d'autres neurones biologiques.

Un neurone formel est une représentation artificielle et schématique d'un neurone biologique :

  • Les synapses sont modélisées par des poids,
  • Le soma ou corps cellulaire est modélisé par la fonction de transfert, appelé aussi fonction d'activation
  • L'axone par l'élement de sortie

Figure B - Mise en correspondance neurone biologique / neurone artificiel par Claude Touzet (p.24)

Fonctionnement mathématique du neurone formel

Un neurone formel, au même titre qu'un neurone biologique, recoit plusieurs stimuli via les poids. Il analyse ces informations et fournit un résultat en suivant.

Figure C - Structure d'un neurone artificiel j (src : wikipedia)

Regardons plus en détail :

  • Chaque poids possède une valeur notée W_{ij}. Cette notation, la plus répandu dans la littérature scientifique, désigne le poids allant d'un neurone formel i au neurone formel j.
  • Chaque poids transmet une information/un stimulus provenant du neurone source i noté x_{i}.
  • Ce stimulus (sa valeur) correspondant à l'information envoyé par le neurone source i est modulé par le poids liant les neurones i et j.  Mathématiquement cela se traduit par :

W_{ij} * x_{i}

  • Ainsi neurone j reçoit autant de stimuli que de poids, dont il fait la somme

\sum{(W_{ij} * x_{i})}

Si l'on note n le nombre de neurones sources liées au neurones j, une notation mathématique plus complète serait :

\sum \limits_{i=0}^n (W_{ij} * x_{i})

Cette expression se lit alors comme ce qui suit : "la somme de toutes les multiplications des valeurs des n neurones sources par les poids associant ces neurones sources au neurone j considéré " (i prenant les valeurs : 0, 1, 2, ..., n)

C'est cette somme que le neurone formel j doit alors traiter! Il utilise pour cela la fonction de transfert.

Fonction de transfert dans un neurone formel et information sortante

Dans le domaine du traitement du signal, une fonction de transfert est "un modèle mathématique de la relation entre l'entrée x et la sortie y d'un système linéaire, le plus souvent invariant "

Dans le domaine des réseaux de neurones, cette fonction peut aussi porter le nom de fonction de combinaison, ou fonction de seuillage ou encore fonction d'activation. Biologiquement, l'idée d'une fonction d'activation vient de l'idée de mimer le fonctionnement d'un potentiel d'action d'un neurone biologique : si l'ensemble des stimuli en entrée d'un neurone atteignent son seuil d'excitabilité,  alors ce neurone fournit une sortie (il décharge).

Plusieurs fonctions mathématiques peuvent être utilisées  :

Figure D - Type de fonction de transfert extrait par Cours gratuits d'Informatique avec n correspondant à l'activité du neurone j

Figure E - De gauche au droite, la fonction Sigmoïde, la fonction Tangente hyperbolique et la fonction Heaviside

Nous aborderons brièvement ici la fonction Sigmoïde, la Tangente hyperbolique et la fonction Heaviside.

  • la fonction Sigmoïde est souvent plébiscité car sa dérivée étant simple à calculer, elle permet des calculs simplifiés lors l'apprentissage du réseau de neurone
  • la fonction Tangente hyperbolique est la version symétrique de la fonction sigmoïde
  • la fonction Heaviside permet l'obtention de sorties binaires, 1 si le seuil a été atteint, sinon 0.

D'autres variantes existent selon les architectures et les taches que l'on souhaite modéliser. Le choix d'une fonction de transfert plutôt qu'une autre est empirique : il se fait soit de manière arbitraire selon la tâche et l'architecture (la structure) du réseau de neurone, soit en s'inspirant de travaux précédents issus de la littérature scientifique.

Pour plus d'informations  :

Les neurosciences computationnelles

Mettons en lumière un domaine scientifique bien particulier qui permet d'étudier différentes modélisations de neurones biologiques : ce sont les neurosciences computationnelles.

Ce domaine est entièrement dédié à la compréhension des interactions neuronales et leur implication dans les fonctions cérébrales !

C'est notamment un domaine incontournable lorsqu'il s'agit d'étudier les fonctions cognitives chez l'homme (raisonnement ou prise de décision) ou encore certaines pathologies tel que les maladies neurodégénératives comme Alzheimer et Parkinson.

Et maintenant ??

La compréhension de la structure d'un neurone formel, aussi appelé neurone artificiel, est la base de la compréhension d'un réseau de neurone artificiel.

C'est en agençant deux à plusieurs neurones formels ensemble que l'on forme un réseau de neurones ou réseau neuronal. On parle alors d'architecture du réseau.

Plusieurs architectures existent et chacune est efficace pour traiter un problème donné (une tache donnée) : reconnaissance d'image, classification, traduction, etc.

Retrouvez bientôt sur "Intelligence mécanique" plus d'informations sur ces architectures et les règles d'apprentissage régissant ces architectures !!

Des remarques ? des corrections? des questions ? Laissez-nous un commentaire!

Pour citer cet article : 

Ikram Chraibi Kaadoud & Thierry Vieville. Reprenons les bases : Neurone artificiel, Neurone biologique. Publication sur le blog de https://scilogs.fr/intelligence-mecanique, 2018

Références 

Touzet, Claude. les réseaux de neurones artificiels, introduction au connexionnisme. EC2, 1992.


3 commentaires pour “Reprenons les bases : Neurone artificiel, Neurone biologique”

  1. mag Répondre | Permalink

    bjr, savez vous comment l'on peut regenerer des neurones endmmagesmeci cdt HM

Publier un commentaire