Root NationDes articlesLes technologiesQue sont les réseaux de neurones et comment fonctionnent-ils ?

Que sont les réseaux de neurones et comment fonctionnent-ils ?

-

Aujourd'hui, nous allons essayer de comprendre ce que sont les réseaux de neurones, comment ils fonctionnent et quel est leur rôle dans la création de l'intelligence artificielle.

Les réseaux de neurones. On entend cette phrase presque partout. Au point que vous trouverez des réseaux de neurones même dans les réfrigérateurs (ce n'est pas une blague). Les réseaux de neurones sont largement utilisés par les algorithmes d'apprentissage automatique, que l'on retrouve aujourd'hui non seulement dans les ordinateurs et les smartphones, mais également dans de nombreux autres appareils électroniques, par exemple dans les appareils électroménagers. Et vous êtes-vous déjà demandé ce que sont ces réseaux de neurones ?

Ne vous inquiétez pas, il ne s'agira pas d'un cours académique. Il existe de nombreuses publications, y compris en langue ukrainienne, qui expliquent cette question de manière très professionnelle et fiable dans le domaine des sciences exactes. Ces publications datent de plus d’une douzaine d’années. Comment est-il possible que ces anciennes publications soient toujours d’actualité ? Le fait est que les principes fondamentaux des réseaux de neurones n’ont pas changé et que le concept lui-même – un modèle mathématique d’un neurone artificiel – a été créé pendant la Seconde Guerre mondiale.

Que sont les réseaux de neurones et comment fonctionnent-ils ?

De même avec Internet, l'Internet d'aujourd'hui est incomparablement plus avancé que lorsque le premier e-mail a été envoyé. Les fondements d’Internet, les protocoles fondamentaux, existaient dès le début de sa création. Chaque concept complexe repose sur des structures anciennes. Il en va de même pour notre cerveau, le cortex cérébral le plus jeune est incapable de fonctionner sans l'élément évolutif le plus ancien : le tronc cérébral, qui est présent dans nos têtes depuis des temps bien plus anciens que l'existence de notre espèce sur cette planète.

Est-ce que je vous ai un peu confondu ? Alors comprenons plus en détail.

Intéressant aussi : ChatGPT : mode d'emploi simple

Que sont les réseaux de neurones ?

Un réseau est un ensemble de certains éléments. C’est l’approche la plus simple en mathématiques, en physique ou en technologie. Si un réseau informatique est un ensemble d’ordinateurs interconnectés, alors un réseau de neurones est évidemment un ensemble de neurones.

Réseau neuronal

Cependant, ces éléments ne sont même pas comparables en complexité aux cellules nerveuses de notre cerveau et de notre système nerveux, mais à un certain niveau d'abstraction, certaines caractéristiques d'un neurone artificiel et d'un neurone biologique sont communes. Mais il faut rappeler qu’un neurone artificiel est un concept bien plus simple que son homologue biologique, dont on ne sait pas encore tout.

- Publicité -

Lisez aussi: 7 utilisations les plus cool de ChatGPT

Il y avait d'abord un neurone artificiel

Le premier modèle mathématique d'un neurone artificiel a été développé en 1943 (oui, ce n'est pas une erreur, pendant la Seconde Guerre mondiale) par deux scientifiques américains, Warren McCulloch et Walter Pitts. Ils y sont parvenus sur la base d'une approche interdisciplinaire, combinant des connaissances de base en physiologie cérébrale (rappelez-vous l'époque de la création de ce modèle), des mathématiques et de la jeune approche informatique de l'époque (ils utilisaient, entre autres, la théorie de la calculabilité d'Alan Turing). ). Le modèle de neurone artificiel McCulloch-Pitts est un modèle très simple, il comporte de nombreuses entrées, où les informations d'entrée passent par des poids (paramètres) dont les valeurs déterminent le comportement du neurone. Le résultat obtenu est envoyé sur une seule sortie (voir schéma du neurone McCulloch-Pitts).

Réseau neuronal
Schéma d'un neurone artificiel 1. Neurones dont les signaux de sortie sont entrés à l'entrée d'un neurone donné 2. Additionneur de signaux d'entrée 3. Calculateur de fonction de transfert 4. Neurones aux entrées desquels le signal d'un neurone donné est appliqué 5. ωi — poids des signaux d'entrée

Une telle structure arborescente est associée à un neurone biologique, car lorsque nous pensons à des dessins représentant des cellules nerveuses biologiques, c'est la structure arborescente caractéristique des dendrites qui nous vient à l'esprit. Cependant, il ne faut pas succomber à l’illusion selon laquelle un neurone artificiel est au moins quelque peu proche d’une véritable cellule nerveuse. Ces deux chercheurs, auteurs du premier neurone artificiel, ont réussi à démontrer que toute fonction calculable peut être calculée à l'aide d'un réseau de neurones interconnectés. Rappelons cependant que ces premiers concepts ont été créés uniquement comme des idées qui n'existaient que « sur papier » et n'avaient pas de réelle interprétation sous forme d'équipement opérationnel.

Lisez aussi: À propos des ordinateurs quantiques en termes simples

Du modèle aux mises en œuvre innovantes

McCulloch et Pitts ont développé un modèle théorique, mais la création du premier véritable réseau neuronal a dû attendre plus de dix ans. Son créateur est considéré comme un autre pionnier de la recherche sur l'intelligence artificielle, Frank Rosenblatt, qui a créé en 1957 le réseau Mark I Perceptron, et vous avez vous-même montré que grâce à cette structure, la machine a acquis une capacité auparavant inhérente uniquement aux animaux et aux humains : elle peut apprendre. Cependant, nous savons maintenant que d’autres scientifiques ont eu l’idée qu’une machine pouvait apprendre, y compris avant Rosenblatt.

Mark I Perceptron

De nombreux chercheurs et pionniers de l'informatique dans les années 1950 ont eu l'idée de faire en sorte qu'une machine fasse ce qu'elle ne pouvait pas faire seule. Par exemple, Arthur Samuel a développé un programme permettant de jouer aux dames avec un humain, Allen Newell et Herbert Simon ont créé un programme capable de prouver de manière indépendante des théorèmes mathématiques. Avant même la création du premier réseau neuronal de Rosenblatt, deux autres pionniers de la recherche dans le domaine de l'intelligence artificielle, Marvin Minsky et Dean Edmonds, construisirent en 1952, c'est-à-dire avant même l'apparition du perceptron de Rosenblatt, une machine appelée SNARC (Stochastic Neural Calculateur de renforcement analogique) - renforcement du calculateur analogique neuronal stochastique, considéré par beaucoup comme le premier ordinateur à réseau neuronal stochastique. Il convient de noter que le SNARC n’a rien à voir avec les ordinateurs modernes.

SNARC

La puissante machine, utilisant plus de 3000 24 tubes électroniques et un mécanisme de pilote automatique de rechange provenant d'un bombardier B-40, a pu simuler le fonctionnement de XNUMX neurones, ce qui s'est avéré suffisant pour simuler mathématiquement la recherche d'un rat pour sortir d'un labyrinthe. . Bien sûr, il n’y avait pas de rat, c’était juste un processus de déduction et de recherche de la solution optimale. Cette voiture faisait partie du doctorat de Marvin Minsky.

réseau Adaline

Un autre projet intéressant dans le domaine des réseaux de neurones était le réseau ADALINE, développé en 1960 par Bernard Withrow. Ainsi, on peut se poser la question : puisqu'il y a plus d'un demi-siècle, les chercheurs connaissaient les fondements théoriques des réseaux de neurones et ont même créé les premières implémentations fonctionnelles de tels cadres informatiques, pourquoi a-t-il fallu si longtemps, jusqu'au 21e siècle, pour créer de vraies solutions basées sur les réseaux de neurones ? La réponse est une : une puissance de calcul insuffisante, mais ce n’était pas le seul obstacle.

Réseau neuronal

Cependant, dans les années 1950 et 1960, de nombreux pionniers de l’IA étaient fascinés par les possibilités des réseaux de neurones, et certains d’entre eux prédisaient qu’une machine équivalente au cerveau humain n’était que dans dix ans. C'est même amusant à lire aujourd'hui, car nous n'avons pas encore réussi à créer une machine équivalente au cerveau humain, et nous sommes encore loin d'avoir résolu ce problème. Il est rapidement devenu évident que la logique des premiers réseaux de neurones était à la fois fascinante et limitée. Les premières implémentations de l’IA utilisant des neurones artificiels et des algorithmes d’apprentissage automatique ont permis de résoudre un certain nombre de tâches.

Cependant, lorsqu'il s'agissait d'espaces plus larges et de résoudre quelque chose de vraiment sérieux, comme la reconnaissance de formes et d'images, la traduction simultanée, la reconnaissance de la parole et de l'écriture manuscrite, etc., c'est-à-dire des choses que les ordinateurs et l'IA peuvent déjà faire aujourd'hui, il s'est avéré que le les premières implémentations de réseaux de neurones étaient tout simplement incapables de le faire. Pourquoi cela est-il ainsi? La réponse a été donnée par les recherches de Marvin Minsky (oui, le même du SNARC) et de Seymour Papert, qui en 1969 ont prouvé les limites de la logique perceptron et ont montré qu'augmenter les capacités des réseaux neuronaux simples uniquement grâce à la mise à l'échelle ne fonctionne pas. Il y avait un autre obstacle, mais très important : la puissance de calcul disponible à cette époque était trop faible pour que les réseaux neuronaux puissent être utilisés comme prévu.

Intéressant aussi :

- Publicité -

Renaissance des réseaux de neurones

Dans les années 1970 et 1980, les réseaux de neurones étaient pratiquement oubliés. Ce n'est qu'à la fin du siècle dernier que la puissance de calcul disponible est devenue si grande que les gens ont commencé à y revenir et à développer leurs capacités dans ce domaine. C’est alors qu’apparaissent de nouvelles fonctions et algorithmes, capables de surmonter les limites des premiers réseaux de neurones les plus simples. C’est alors qu’est née l’idée d’un apprentissage automatique profond des réseaux de neurones multicouches. Qu’arrive-t-il réellement à ces couches ? Aujourd'hui, presque tous les réseaux de neurones utiles opérant dans notre environnement sont multicouches. Nous avons une couche d'entrée dont la tâche est de recevoir les données d'entrée et les paramètres (poids). Le nombre de ces paramètres varie en fonction de la complexité du problème de calcul à résoudre par le réseau.

Réseau neuronal

De plus, nous avons ce qu'on appelle des « couches cachées » - c'est là que se produit toute la « magie » associée à l'apprentissage automatique profond. Ce sont les couches cachées qui sont responsables de la capacité de ce réseau neuronal à apprendre et à effectuer les calculs nécessaires. Enfin, le dernier élément est la couche de sortie, c'est-à-dire la couche du réseau neuronal qui donne le résultat souhaité, en l'occurrence : écriture manuscrite reconnue, visage, voix, image formée à partir de la description textuelle, résultat de l'analyse tomographique de l'image diagnostique et bien plus encore.

Lisez aussi: J'ai testé et interviewé le chatbot de Bing

Comment les réseaux de neurones apprennent-ils ?

Comme nous le savons déjà, les neurones individuels des réseaux de neurones traitent les informations à l'aide de paramètres (poids) auxquels sont attribuées des valeurs et des connexions individuelles. Ces poids changent au cours du processus d'apprentissage, ce qui permet d'ajuster la structure de ce réseau de manière à générer le résultat souhaité. Comment le réseau apprend-il exactement ? C’est une évidence, il faut l’entraîner en permanence. Ne soyez pas surpris par ce dicton. Nous apprenons également, et ce processus n’est pas chaotique, mais ordonné, disons. Nous appelons cela l'éducation. Dans tous les cas, les réseaux de neurones peuvent également être entraînés, et cela se fait généralement à l'aide d'un ensemble d'entrées correctement sélectionnées, qui préparent d'une manière ou d'une autre le réseau aux tâches qu'il effectuera à l'avenir. Et tout cela se répète étape par étape, parfois le processus d'apprentissage ressemble dans une certaine mesure au processus de formation lui-même.

Par exemple, si la tâche de ce réseau de neurones est de reconnaître des visages, il est pré-entraîné sur un grand nombre d'images contenant des visages. Au cours du processus d'apprentissage, les poids et les paramètres des couches cachées changent. Les experts utilisent ici l'expression « minimisation de la fonction de coût ». Une fonction de coût est une quantité qui nous indique dans quelle mesure un réseau neuronal donné commet des erreurs. Plus nous pouvons minimiser la fonction de coût grâce à la formation, plus ce réseau neuronal fonctionnera dans le monde réel. La caractéristique la plus importante qui distingue tout réseau neuronal d'une tâche programmée à l'aide d'un algorithme classique est que, dans le cas des algorithmes classiques, le programmeur doit concevoir étape par étape les actions que le programme effectuera. Dans le cas des réseaux de neurones, le réseau lui-même est capable d’apprendre par lui-même à effectuer correctement des tâches. Et personne ne sait exactement comment un réseau neuronal complexe effectue ses calculs.

Réseau neuronal

Aujourd’hui, les réseaux de neurones sont largement utilisés et, étonnamment, très souvent sans comprendre comment fonctionne réellement le processus informatique dans un réseau donné. Ce n’est pas nécessaire. Les programmeurs utilisent des réseaux neuronaux prêts à l'emploi, préparés pour les données d'entrée d'un certain type, les traitent d'une manière connue d'eux seuls et produisent le résultat souhaité. Un programmeur n’a pas besoin de savoir comment fonctionne le processus d’inférence au sein d’un réseau neuronal. C'est-à-dire qu'une personne reste à l'écart d'un grand volume de calculs, d'une méthode d'obtention d'informations et de leur traitement par les réseaux de neurones. D’où certaines craintes de l’humanité face aux modèles d’intelligence artificielle. Nous avons simplement peur qu'un jour le réseau de neurones se fixe une certaine tâche et trouve indépendamment, sans l'aide d'une personne, des moyens de la résoudre. Cela inquiète l’humanité, suscite peur et méfiance à l’égard de l’utilisation des algorithmes d’apprentissage automatique.

chat gpt

Cette approche utilitaire est courante aujourd’hui. Chez nous, c'est pareil : nous savons former quelqu'un à une activité précise, et nous savons que le processus de formation sera efficace s'il est effectué correctement. Une personne acquerra les compétences souhaitées. Mais comprenons-nous exactement comment se déroule dans son cerveau le processus de déduction qui a provoqué cet effet ? Nous n’en avons aucune idée.

La tâche des scientifiques est d'étudier ces problèmes autant que possible, afin qu'ils nous servent et nous aident là où cela est nécessaire et, surtout, ne deviennent pas une menace. En tant qu’humains, nous avons peur de ce que nous ne connaissons pas.

Intéressant aussi : 

Yuri Svitlyk
Yuri Svitlyk
Fils des Carpates, génie mathématique méconnu, « avocat »Microsoft, altruiste pratique, gauche-droite
- Publicité -
S'inscrire
Avertir de
invité

0 Commentaires
Avis intégrés
Voir tous les commentaires