Neuronal network

ï»ż
Neuronal network

RĂ©seau de neurones

Page d'aide sur l'homonymie Pour les articles homonymes, voir RĂ©seau.
Neurosciences
Brain Surface Gyri.SVG
Niveaux d'analyse

MolĂ©culaire ‱ Synaptique ‱ Neuronal ‱ RĂ©seau neuronal ‱ Organique ‱ SystĂ©mique

MĂ©thodes

Imagerie cĂ©rĂ©brale ‱ Électrophysiologie ‱ LĂ©sion cĂ©rĂ©brale ‱ Intelligence artificielle

Branches d'Ă©tudes

Neuroanatomie ‱ Neurophysiologie ‱ Neuroendocrinologie ‱ Psychophysiologie ‱ Neurosciences cognitives ‱

Concepts majeurs

Neurone ‱ Potentiel d'action ‱ Synapse et transmission synaptique ‱ RĂ©seau neuronal ‱ NeuromĂ©diateur ‱ PlasticitĂ© neuronale ‱ PlasticitĂ© synaptique ‱ PrĂ©cablage ‱ RĂ©flexe ‱ RĂ©compense ‱ Cognition ‱ ModularitĂ© de l'esprit

Chercheurs

Ramón y Cajal ‱ C.S. Sherrington ‱ P. Broca ‱ J. Olds ‱ J. LeDoux ‱ D.H. Hubel ‱ T. Wiesel ‱ E. Candel ‱ J.P. Changeux

Champs d'application

Neurologie ‱ Neurochirurgie ‱ Neuropsychologie ‱ Psychiatrie ‱ Neuropharmacologie ‱ Chronobiologie ‱

Voir aussi

Catégorie Neurosciences


Un rĂ©seau de neurones artificiel est un modĂšle de calcul dont la conception est trĂšs schĂ©matiquement inspirĂ©e du fonctionnement de vrais neurones (humains ou non). Les rĂ©seaux de neurones sont gĂ©nĂ©ralement optimisĂ©s par des mĂ©thodes d’apprentissage de type statistique, si bien qu’ils sont placĂ©s d’une part dans la famille des applications statistiques, qu’ils enrichissent avec un ensemble de paradigmes permettant de gĂ©nĂ©rer de vastes espaces fonctionnels, souples et partiellement structurĂ©s, et d’autre part dans la famille des mĂ©thodes de l’intelligence artificielle qu’ils enrichissent en permettant de prendre des dĂ©cisions s’appuyant davantage sur la perception que sur le raisonnement logique formel.

Sommaire

Historique

Vue simplifiée d'un réseau artificiel de neurones

Les rĂ©seaux de neurones sont construits sur un paradigme biologique, celui du neurone formel (au mĂȘme titre que les algorithmes gĂ©nĂ©tiques le sont sur la sĂ©lection naturelle). Ces types de mĂ©taphores biologiques sont devenues courantes avec les idĂ©es de la cybernĂ©tique.

Les neurologues Warren McCulloch et Walter Pitts menĂšrent les premiers travaux sur les rĂ©seaux de neurones Ă  la suite de leur article fondateur : What the frog’s eye tells to the frog’s brain. Ils constituĂšrent un modĂšle simplifiĂ© de neurone biologique communĂ©ment appelĂ© neurone formel. Ils montrĂšrent Ă©galement thĂ©oriquement que des rĂ©seaux de neurones formels simples peuvent rĂ©aliser des fonctions logiques, arithmĂ©tiques et symboliques complexes.

La fonction des rĂ©seaux de neurones formels Ă  l’instar du modĂšle vivant est de rĂ©soudre des problĂšmes. À l’opposĂ© des mĂ©thodes traditionnelles de rĂ©solution informatique, on ne doit pas construire un programme pas Ă  pas en fonction de la comprĂ©hension de celui-ci. Les paramĂštres les plus importants de ce modĂšle sont les coefficients synaptiques. Ce sont eux qui construisent le modĂšle de rĂ©solution en fonction des informations donnĂ©es au rĂ©seau. Il faut donc trouver un mĂ©canisme qui permette de les calculer Ă  partir des grandeurs que l’on peut acquĂ©rir du problĂšme. C’est le principe fondamental de l’apprentissage. Dans un modĂšle de rĂ©seaux de neurones formels, apprendre, c’est d’abord calculer les valeurs des coefficients synaptiques en fonction des exemples disponibles.

Les travaux de McCulloch et Pitts n’ont pas donnĂ© d’indication sur une mĂ©thode pour adapter les coefficients synaptiques. Cette question au cƓur des rĂ©flexions sur l’apprentissage a connu un dĂ©but de rĂ©ponse grĂące aux travaux du physiologiste canadien Donald Hebb sur l’apprentissage en 1949 dĂ©crits dans son ouvrage The Organization of Behaviour. Hebb a proposĂ© une rĂšgle simple qui permet de modifier la valeur des coefficients synaptiques en fonction de l’activitĂ© des unitĂ©s qu’ils relient. Cette rĂšgle aujourd’hui connue sous le nom de « rĂšgle de Hebb Â» est presque partout prĂ©sente dans les modĂšles actuels, mĂȘme les plus sophistiquĂ©s.

Réseau de neurones avec rétroaction

À partir de cet article, l’idĂ©e se sema au fil du temps dans les esprits, et elle germa dans l’esprit de Franck Rosenblatt en 1957 avec le modĂšle du perceptron. C’est le premier systĂšme artificiel capable d’apprendre par expĂ©rience, y compris lorsque son instructeur commet quelques erreurs (ce en quoi il diffĂšre nettement d’un systĂšme d’apprentissage logique formel). D’autres travaux marquĂšrent Ă©galement le domaine, comme ceux de Donald Hebb en 1949.

En 1969, un coup grave fut portĂ© Ă  la communautĂ© scientifique gravitant autour des rĂ©seaux de neurones : Marvin Lee Minsky et Seymour Papert publiĂšrent un ouvrage mettant en exergue quelques limitations thĂ©oriques du Perceptron, notamment l’impossibilitĂ© de traiter des problĂšmes non linĂ©aires ou de connexitĂ©. Ils Ă©tendirent implicitement ces limitations Ă  tous modĂšles de rĂ©seaux de neurones artificiels. Paraissant alors dans une impasse, la recherche sur les rĂ©seaux de neurones perdit une grande partie de ses financements publics, et le secteur industriel s’en dĂ©tourna aussi. Les fonds destinĂ©s Ă  l’intelligence artificielle furent redirigĂ©s plutĂŽt vers la logique formelle et la recherche piĂ©tina pendant dix ans. Cependant, les solides qualitĂ©s de certains rĂ©seaux de neurones en matiĂšre adaptative, (e.g. Adaline), leur permettant de modĂ©liser de façon Ă©volutive des phĂ©nomĂšnes eux-mĂȘmes Ă©volutifs les amĂšneront Ă  ĂȘtre intĂ©grĂ©s sous des formes plus ou moins explicites dans le corpus des systĂšmes adaptatifs, utilisĂ©s dans le domaine des tĂ©lĂ©communications ou celui du contrĂŽle de processus industriels.

[réf. nécessaire]

En 1982, John Joseph Hopfield, physicien reconnu, donna un nouveau souffle au neuronal en publiant un article introduisant un nouveau modĂšle de rĂ©seau de neurones (complĂštement rĂ©current). Cet article eut du succĂšs pour plusieurs raisons, dont la principale Ă©tait de teinter la thĂ©orie des rĂ©seaux de neurones de la rigueur propre aux physiciens. Le neuronal redevint un sujet d’étude acceptable, bien que le modĂšle de Hopfield souffrait des principales limitations des modĂšles des annĂ©es 1960, notamment l’impossibilitĂ© de traiter les problĂšmes non-linĂ©aires.

À la mĂȘme date, les approches algorithmiques de l’intelligence artificielle furent l’objet de dĂ©sillusion, leurs applications ne rĂ©pondant pas aux attentes. Cette dĂ©sillusion motiva une rĂ©orientation des recherches en intelligence artificielle vers les rĂ©seaux de neurones (bien que ces rĂ©seaux concernent la perception artificielle plus que l’intelligence artificielle Ă  proprement parler). La recherche fut relancĂ©e et l’industrie reprit quelque intĂ©rĂȘt au neuronal (en particulier pour des applications comme le guidage de missiles de croisiĂšre). En 1984 (?), c’est le systĂšme de rĂ©tropropagation du gradient de l’erreur qui est le sujet le plus dĂ©battu dans le domaine.

Une rĂ©volution survient alors dans le domaine des rĂ©seaux de neurones artificiels : une nouvelle gĂ©nĂ©ration de rĂ©seaux de neurones, capables de traiter avec succĂšs des phĂ©nomĂšnes non-linĂ©aires : le perceptron multicouche ne possĂšde pas les dĂ©fauts mis en Ă©vidence par Marvin Minsky. ProposĂ© pour la premiĂšre fois par Werbos, le Perceptron Multi-Couche apparait en 1986 introduit par Rumelhart, et, simultanĂ©ment, sous une appellation voisine, chez Yann le Cun. Ces systĂšmes reposent sur la rĂ©tropropagation du gradient de l’erreur dans des systĂšmes Ă  plusieurs couches, chacune de type Adaline de Bernard Widrow, proche du Perceptron de Rumelhart.

Les rĂ©seaux de neurones ont par la suite connu un essor considĂ©rable, et ont fait partie des premiers systĂšmes Ă  bĂ©nĂ©ficier de l’éclairage de la thĂ©orie de la rĂ©gularisation statistique introduite par Vladimir Vapnik en Union soviĂ©tique et popularisĂ©e en occident depuis la chute du mur. Cette thĂ©orie, l’une des plus importantes du domaine des statistiques, permet d’anticiper, d’étudier et de rĂ©guler les phĂ©nomĂšnes liĂ©s au sur-apprentissage. On peut ainsi rĂ©guler un systĂšme d’apprentissage pour qu’il arbitre au mieux entre une modĂ©lisation pauvre (exemple : la moyenne) et une modĂ©lisation trop riche qui serait optimisĂ©e de façon illusoire sur un nombre d’exemples trop petit, et serait inopĂ©rant sur des exemples non encore appris, mĂȘme proches des exemples appris. Le sur-apprentissage est une difficultĂ© Ă  laquelle doivent faire face tous les systĂšmes d’apprentissage par l’exemple, que ceux-ci utilisent des mĂ©thodes d’optimisation directe (e.g. rĂ©gression linĂ©aire), itĂ©ratives (e.g. descente de gradient), ou itĂ©ratives semi-directes (gradient conjuguĂ©, espĂ©rance-maximisation...) et que ceux-ci soient appliquĂ©s aux modĂšles statistiques classiques, aux modĂšles de Markov cachĂ©s ou aux rĂ©seaux de neurones formels.

Utilité

Les rĂ©seaux de neurones, en tant que systĂšme capable d'apprendre, mettent en Ɠuvre le principe de l'induction, c’est-Ă -dire l'apprentissage par l'expĂ©rience. Par confrontation avec des situations ponctuelles, ils infĂšrent un systĂšme de dĂ©cision intĂ©grĂ© dont le caractĂšre gĂ©nĂ©rique est fonction du nombre de cas d'apprentissages rencontrĂ©s et de leur complexitĂ© par rapport Ă  la complexitĂ© du problĂšme Ă  rĂ©soudre. Par opposition, les systĂšmes symboliques capables d'apprentissage, s'ils implĂ©mentent Ă©galement l'induction, le font sur base de la logique algorithmique, par complexification d'un ensemble de rĂšgles dĂ©ductives (ex : prolog).

GrĂące Ă  leur capacitĂ© de classification et de gĂ©nĂ©ralisation, les rĂ©seaux de neurones sont gĂ©nĂ©ralement utilisĂ©s dans des problĂšmes de nature statistique, tels que la classification automatique de codes postaux ou la prise de dĂ©cision concernant un achat boursier en fonction de l'Ă©volution des cours. Autre exemple, une banque peut gĂ©nĂ©rer un jeu de donnĂ©es sur les clients qui ont effectuĂ© un emprunt constituĂ©es : de leur revenu, de leur Ăąge, du nombre d’enfants Ă  charge
 et s’il s’agit d’un bon client. Si ce jeu de donnĂ©es est suffisamment grand, il peut ĂȘtre utilisĂ© pour l’entraĂźnement d’un rĂ©seau de neurones. La banque pourra alors prĂ©senter les caractĂ©ristiques d’un potentiel nouveau client, et le rĂ©seau rĂ©pondra s’il sera bon client ou non, en gĂ©nĂ©ralisant Ă  partir des cas qu’il connaĂźt.

Si le rĂ©seau de neurones fonctionne avec des nombres rĂ©els, la rĂ©ponse traduit une probabilitĂ© de certitude (par exemple: 1 pour « sĂ»r qu’il sera un bon client Â», -1 pour « sĂ»r qu’il sera mauvais client Â», 0 pour « aucune idĂ©e Â», 0,9 pour « presque sĂ»r qu’il sera bon client Â»).

Le réseau de neurones ne fournit pas toujours de rÚgle exploitable par un humain. Le réseau reste souvent une boßte noire qui fournit une réponse quand on lui présente une donnée, mais le réseau ne fournit pas de justification facile à interpréter.

Les réseaux de neurones sont réellement utilisés, par exemple:

  • pour la classification ; par exemple pour la classification d’espĂšces animales par espĂšce Ă©tant donnĂ©e une analyse ADN.
  • reconnaissance de motif ; par exemple pour la Reconnaissance optique de caractĂšres (OCR), et notamment par les banques pour vĂ©rifier le montant des chĂšques, par La Poste pour trier le courrier en fonction du code postal, etc. ; ou bien encore pour le dĂ©placement automatisĂ© de robots mobiles autonomes.
  • approximation d’une fonction inconnue.
  • modĂ©lisation accĂ©lĂ©rĂ©e d’une fonction connue mais trĂšs complexe Ă  calculer avec exactitude ; par exemple certaines fonctions d’inversions utilisĂ©es pour dĂ©coder les signaux de tĂ©lĂ©dĂ©tection Ă©mis par les satellites et les transformer en donnĂ©es sur la surface de la mer.
  • estimations boursiĂšres :
    • apprentissage de la valeur d’une entreprise en fonction des indices disponibles : bĂ©nĂ©fices, endettements Ă  long et court terme, chiffre d’affaires, carnet de commandes, indications techniques de conjoncture. Ce type d’application ne pose pas en gĂ©nĂ©ral de problĂšme
    • tentatives de prĂ©diction sur la pĂ©riodicitĂ© des cours boursiers. Ce type de prĂ©diction est trĂšs contestĂ© pour deux raisons, l’une Ă©tant qu'il n'est pas Ă©vident que le cours d’une action ait de façon tout Ă  fait convaincante un caractĂšre pĂ©riodique (le marchĂ© anticipe en effet largement les hausses comme les baisses prĂ©visibles, ce qui applique Ă  toute pĂ©riodicitĂ© Ă©ventuelle une variation de pĂ©riode tendant Ă  la rendre difficilement fiable), et l’autre que l’avenir prĂ©visible d’une entreprise dĂ©termine au moins aussi fortement le cours de son action, si ce n'est plus encore que peut le faire son passĂ©; les cas de Pan Am, Manufrance ou IBM permettent de s’en convaincre.
  • modĂ©lisation de l'apprentissage et amĂ©lioration des techniques de l'enseignement.

Limites

  • Les rĂ©seaux de neurones artificiels ont besoin de cas rĂ©els servant d’exemples pour leur apprentissage (on appelle cela la base d'apprentissage). Ces cas doivent ĂȘtre d’autant plus nombreux que le problĂšme est complexe et que sa topologie est peu structurĂ©e. Par exemple, on peut optimiser un systĂšme neuronal de lecture de caractĂšres en utilisant le dĂ©coupage manuel d’un grand nombre de mots Ă©crits Ă  la main par de nombreuses personnes. Chaque caractĂšre peut alors ĂȘtre prĂ©sentĂ© sous la forme d’une image brute, disposant d’une topologie spatiale Ă  deux dimensions, ou d’une suite de segments presque tous liĂ©s. La topologie retenue, la complexitĂ© du phĂ©nomĂšne modĂ©lisĂ©, et le nombre d’exemples doivent ĂȘtre en rapport. Sur un plan pratique, cela n’est pas toujours facile car les exemples peuvent ĂȘtre soit en quantitĂ© absolument limitĂ©e ou trop onĂ©reux Ă  collecter en nombre suffisant.
  • Il y a des problĂšmes qui se traitent bien avec les rĂ©seaux de neurones, en particulier ceux de classification en domaines convexes (c’est-Ă -dire tels que si des points A et B font partie du domaine, alors tout le segment AB en fait partie aussi). Des problĂšmes comme "Le nombre d’entrĂ©es Ă  1 (ou Ă  zĂ©ro) est-il pair ou impair ?" se rĂ©solvent en revanche trĂšs mal : pour affirmer de telles choses sur 2 puissance N points, si on se contente d’une approche naĂŻve mais homogĂšne, il faut prĂ©cisĂ©ment N-1 couches de neurones intermĂ©diaires, ce qui nuit Ă  la gĂ©nĂ©ralitĂ© du procĂ©dĂ©.

ModĂšle

Structure du réseau

Structure d'un neurone artificiel. Le neurone calcule la somme de ses entrées puis cette valeur passe à travers la fonction d'activation pour produire sa sortie.

Un rĂ©seau de neurone est en gĂ©nĂ©ral composĂ© d'une succession de couches dont chacune prend ses entrĂ©es sur les sorties de la prĂ©cĂ©dente. Chaque couche (i) est composĂ©e de Ni neurones, prenant leurs entrĂ©es sur les Ni-1 neurones de la couche prĂ©cĂ©dente. À chaque synapse est associĂ©e un poids synaptique, de sorte que les Ni-1 sont multipliĂ©s par ce poids, puis additionnĂ©s par les neurones de niveau i, ce qui est Ă©quivalent Ă  multiplier le vecteur d'entrĂ©e par une matrice de transformation. Mettre l'une derriĂšre l'autre les diffĂ©rentes couches d'un rĂ©seau de neurones reviendrait Ă  mettre en cascade plusieurs matrices de transformation et pourrait se ramener Ă  une seule matrice, produit des autres, s'il n'y avait Ă  chaque couche, la fonction de sortie qui introduit une non linĂ©aritĂ© Ă  chaque Ă©tape. Ceci montre l'importance du choix judicieux d'une bonne fonction de sortie : un rĂ©seau de neurones dont les sorties seraient linĂ©aires n'aurait aucun intĂ©rĂȘt.

Au-delĂ  de cette structure simple, le rĂ©seau de neurones peut Ă©galement contenir des boucles qui en changent radicalement les possibilitĂ©s mais aussi la complexitĂ©. De la mĂȘme façon que des boucles peuvent transformer une logique combinatoire en logique sĂ©quentielle, les boucles dans un rĂ©seau de neurones transforment un simple dispositif de reconnaissance d'inputs en une machine complexe capable de toute sortes de comportements.

Comparaison avec le cerveau humain

Il y a des milliards de neurones dans un cerveau humain (plusieurs sources citent le chiffre de 100 milliards[rĂ©f. souhaitĂ©e]). Bien que ceux-ci travaillent en rĂ©gime impulsionnel (ils produisent des trains plus ou moins denses d'impulsions d'Ă©nergie fixe), on peut les assimiler grossiĂšrement Ă  des sommateurs, chaque neurone pouvant recevoir les informations de dizaines ou parfois de centaines de milliers d'autres neurones. On estime gĂ©nĂ©ralement que l'ensemble du cerveau humain contiendrait de l'ordre du million de milliard de synapses (2 * 1015), ce qui nous amĂšne Ă  un chiffre moyen de 10 000 synapses par neurones. Chaque neurone est limitĂ© par le besoin de recharger ses batteries aprĂšs avoir Ă©mis un potentiel d'action, ce qui le rend inactif pendant Ă  peu prĂšs 10ms, ce qui dĂ©termine une vitesse de fonctionnement maximale de 100 Hz. ce qui nous donne une cadence maximale de ~1017 opĂ©rations par seconde. Cependant, comme en dehors de la limite infĂ©rieure de 10ms, les Ă©carts entre impulsions sont des valeurs analogiques, et comme d'un autre cĂŽtĂ© les informations vĂ©hiculĂ©es le sont dans des trains de plusieurs impulsions, il est quasiment impossible de comparer les opĂ©rations de base du cerveau avec celles d'un ordinateur. Comme, de plus, les chiffres citĂ©s sont probablement extrĂȘmement variables en fonction des personnes, il faut compter un niveau d'incertitude important autour de cette valeur. La puissance d’un cerveau humain serait donc « au banc Â», si l’on peut dire, de l'ordre de 2 * 1015 Ă  2 * 1019 opĂ©rations logiques par seconde.

Un processeur de type Pentium IV, AMD64 ou PowerPC 970, en 2004, travaille à une fréquence de 3 GHz sur des mots de 32 (Pentium) ou 64 (AMD64 ou PowerPC) bits, ce qui - pour donner un ordre de grandeur - correspond à une puissance brute de 2 * 1011 opérations logiques par seconde dans le cas du PowerPC.

En dĂ©pit de ce diffĂ©rentiel de puissance, il est tentant de simuler le fonctionnement de neurones pour rĂ©soudre quelques problĂšmes simples. Une raison de se rĂ©jouir de cette simplicitĂ© est que pour Ă©duquer correctement un cerveau de 1011 neurones, il ne faut tout de mĂȘme pas moins de 25 ans, temps dont il est difficile de disposer en laboratoire.

Un rĂ©seau de neurones (on parle parfois aussi de rĂ©seau neuromimĂ©tique) est constituĂ© d’un trĂšs grand nombre de petites unitĂ©s de traitement identiques appelĂ©es neurones artificiels. Elles Ă©taient Ă©lectroniques dans les premiĂšres implĂ©mentations (perceptrons de Rosenblatt); on les simule le plus souvent sur ordinateur aujourd’hui pour des questions de coĂ»t et de commoditĂ©.

Les neurobiologistes savent que chaque neurone naturel est connectĂ© parfois Ă  quelques milliers d’autres, et qu’il leur transmet une information en envoyant des ondes de dĂ©polarisation (grosso modo, des pics Ă©lectriques). Plus prĂ©cisĂ©ment, le neurone reçoit en entrĂ©e les signaux provenant des autres par des synapses, et Ă©met en sortie une information par son axone. De façon grossiĂšrement similaire, les neurones artificiels sont connectĂ©s entre eux par des liaisons pondĂ©rĂ©es et unidirectionnelles; un rĂ©seau de neurones peut donc se reprĂ©senter par un rĂ©seau ou graphe orientĂ© dont les nƓuds sont les neurones artificiels.

La taille et la vitesse des rĂ©seaux leur permettent de traiter trĂšs correctement des questions de perception ou de classification automatique (et approximative) : ce sont souvent par exemple des applications Ă  base de rĂ©seaux de neurones formels qui conduisent votre banque Ă  vous accorder un prĂȘt en moins de dix minutes.

Il ne faut pas en espĂ©rer beaucoup plus avec la gĂ©nĂ©ration de machines actuelle, mais les applications en sont dĂ©jĂ  trĂšs utiles dans les applications de filtrage et de reconnaissance des formes. Bref, il s’agit plus de perception assistĂ©e que d’intelligence artificielle Ă  proprement parler. Il faut remarquer que dans nos organismes aussi le traitement du signal visuel par la rĂ©tine et son exploitation par le cerveau se fait par des organes et des processus sĂ©parĂ©s.

Fonction de combinaison

Considérons un neurone quelconque.

Il reçoit des neurones en amont un certain nombre de valeurs via ses connexions synaptiques, et il produit une certaine valeur en utilisant une fonction de combinaison. Cette fonction peut donc ĂȘtre formalisĂ©e comme Ă©tant une fonction vecteur-Ă -scalaire, notamment :

  • Les rĂ©seaux de type MLP (Multi-Layer Perceptron) calculent une combinaison linĂ©aire des entrĂ©es, c’est-Ă -dire que la fonction de combinaison renvoie le produit scalaire entre le vecteur des entrĂ©es et le vecteur des poids synaptiques.
  • Les rĂ©seaux de type RBF (Radial Basis Function) calculent la distance entre les entrĂ©es, c’est-Ă -dire que la fonction de combinaison renvoie la norme euclidienne du vecteur issu de la diffĂ©rence vectorielle entre les vecteurs d’entrĂ©es.

Fonction d’activation

La fonction d’activation (ou fonction de seuillage, ou encore fonction de transfert) sert Ă  introduire une non-linĂ©aritĂ© dans le fonctionnement du neurone.

Les fonctions de seuillage prĂ©sentent gĂ©nĂ©ralement trois intervalles :

  1. en dessous du seuil, le neurone est non-actif (souvent dans ce cas, sa sortie vaut 0 ou -1) ;
  2. aux alentours du seuil, une phase de transition ;
  3. au-dessus du seuil, le neurone est actif (souvent dans ce cas, sa sortie vaut 1).

Des exemples classiques de fonctions d’activation sont :

  1. La fonction sigmoĂŻde.
  2. La fonction tangente hyperbolique.
  3. La fonction de Heaviside.

La logique bayĂ©sienne, dont le thĂ©orĂšme de Cox-Jaynes formalise les questions d’apprentissage, fait intervenir aussi une fonction en S qui revient de façon rĂ©currente : ev(p) = 10 \log (\frac{p}{1-p})

Propagation de l’information

Ce calcul effectuĂ©, le neurone propage son nouvel Ă©tat interne sur son axone. Dans un modĂšle simple, la fonction neuronale est simplement une fonction de seuillage : elle vaut 1 si la somme pondĂ©rĂ©e dĂ©passe un certain seuil ; 0 sinon. Dans un modĂšle plus riche, le neurone fonctionne avec des nombres rĂ©els (souvent compris dans l’intervalle [0,1] ou [-1,1]). On dit que le rĂ©seau de neurones passe d'un Ă©tat Ă  un autre lorsque tous ses neurones recalculent en parallĂšle leur Ă©tat interne, en fonction de leurs entrĂ©es.

Apprentissage

Base théorique

La notion d’apprentissage, bien que connue dĂ©jĂ  depuis Sumer, n’est pas modĂ©lisable dans le cadre de la logique dĂ©ductive : celle-ci en effet procĂšde Ă  partir de connaissances dĂ©jĂ  Ă©tablies dont on tire des connaissances dĂ©rivĂ©es. Or il s’agit ici de la dĂ©marche inverse : par observations limitĂ©es, tirer des gĂ©nĂ©ralisations plausibles : c'est un procĂ©dĂ© par induction.

La notion d’apprentissage recouvre deux rĂ©alitĂ©s souvent traitĂ©es de façon successive :

  • mĂ©morisation : le fait d’assimiler sous une forme dense des exemples Ă©ventuellement nombreux,
  • gĂ©nĂ©ralisation : le fait d’ĂȘtre capable, grĂące aux exemples appris, de traiter des exemples distincts, encore non rencontrĂ©s, mais similaires.

Ces deux points sont partiellement en opposition. Si on privilĂ©gie l’un, on Ă©laborera un systĂšme qui ne traitera pas forcĂ©ment de façon trĂšs efficace l’autre.

Dans le cas des systĂšmes d’apprentissage statistique, utilisĂ©s pour optimiser les modĂšles statistiques classiques, rĂ©seaux de neurones et automates markoviens, c’est la gĂ©nĂ©ralisation qui est l’objet de toute l’attention.

Cette notion de généralisation est traitée de façon plus ou moins complÚte par plusieurs approches théoriques.

  • La gĂ©nĂ©ralisation est traitĂ©e de façon globale et gĂ©nĂ©rique par la thĂ©orie de la rĂ©gularisation statistique introduite par Vladimir Vapnik. Cette thĂ©orie, dĂ©veloppĂ©e Ă  l’origine en Union SoviĂ©tique, s’est diffusĂ©e en Occident depuis la Chute du Mur. La thĂ©orie de la rĂ©gularisation statistique s’est diffusĂ©e trĂšs largement parmi ceux qui Ă©tudient les rĂ©seaux de neurones en raison de la forme gĂ©nĂ©rique des courbes d’erreurs rĂ©siduelles d’apprentissage et de gĂ©nĂ©ralisation issues des procĂ©dures d’apprentissage itĂ©ratives telles que les descentes de gradient utilisĂ©es pour l’optimisation des perceptrons multi-couches. Ces formes gĂ©nĂ©riques correspondent aux formes prĂ©vues par la thĂ©orie de la rĂ©gularisation statistiques ; cela vient du fait que les procĂ©dures d’apprentissage par descentes de gradient, partant d’une configuration initiale des poids synaptiques explorent progressivement l’espace des poids synaptiques possibles ; on retrouve alors la problĂ©matique de l’augmentation progressive de la capacitĂ© d’apprentissage, concept fondamental au cƓur de la thĂ©orie de la rĂ©gularisation statistique.
  • La gĂ©nĂ©ralisation est aussi au cƓur de l’approche de l'infĂ©rence bayĂ©sienne, enseignĂ©e depuis plus longtemps. Le thĂ©orĂšme de Cox-Jaynes fournit ainsi une base importante Ă  un tel apprentissage, en nous apprenant que toute mĂ©thode d’apprentissage est soit isomorphe aux probabilitĂ©s munies de la relation de Bayes, soit incohĂ©rente. C’est lĂ  un rĂ©sultat extrĂȘmement fort, et c’est pourquoi les mĂ©thodes bayĂ©siennes sont largement utilisĂ©es dans le domaine.

Classe de problĂšmes solubles

En fonction de la structure du rĂ©seau, diffĂ©rents types de fonction sont approchables grĂące aux rĂ©seaux de neurones :

Fonctions représentables par un perceptron

Un perceptron (un rĂ©seau Ă  une unitĂ©) peut reprĂ©senter les fonctions boolĂ©ennes suivantes : AND, OR, NAND, NOR mais pas le XOR. Comme toute fonction boolĂ©enne est reprĂ©sentable Ă  l'aide de AND, OR, NAND et NOR, un rĂ©seau de perceptrons est capable de reprĂ©senter toutes les fonctions boolĂ©ennes.

Fonctions représentables par des réseaux de neurones multicouches acycliques

  • Fonctions boolĂ©ennes : Toutes les fonctions boolĂ©ennes sont reprĂ©sentables par un rĂ©seau Ă  deux couches. Au pire des cas, le nombre de neurones de la couche cachĂ©e augmente de maniĂšre exponentielle en fonction du nombre d'entrĂ©es.
  • Fonctions continues : Toutes les fonctions continues bornĂ©es sont reprĂ©sentables, avec une prĂ©cision arbitraire, par un rĂ©seau Ă  deux couches (Cybenko, 1989). Ce thĂ©orĂšme s'applique au rĂ©seau dont les neurones utilisent la sigmoĂŻde dans la couche cachĂ©e et des neurones linĂ©aires (sans seuil) dans la couche de sortie. Le nombre de neurones dans la couche cachĂ©e dĂ©pend de la fonction Ă  approximer.
  • Fonctions arbitraires: N'importe quelle fonction peut ĂȘtre approximĂ©e avec une prĂ©cision arbitraire grĂące Ă  un rĂ©seau Ă  3 couches (ThĂ©orĂšme de Cybenko, 1988).

Algorithme

La large majoritĂ© des rĂ©seaux de neurones possĂšde un algorithme « d’entraĂźnement Â» qui consiste Ă  modifier les poids synaptiques en fonction d’un jeu de donnĂ©es prĂ©sentĂ©es en entrĂ©e du rĂ©seau. Le but de cet entraĂźnement est de permettre au rĂ©seau de neurones « d’apprendre Â» Ă  partir des exemples. Si l’entraĂźnement est correctement rĂ©alisĂ©, le rĂ©seau est capable de fournir des rĂ©ponses en sortie trĂšs proches des valeurs d’origines du jeu de donnĂ©es d’entraĂźnement.

Mais tout l’intĂ©rĂȘt des rĂ©seaux de neurones rĂ©side dans leur capacitĂ© Ă  gĂ©nĂ©raliser Ă  partir du jeu de test.

On peut donc utiliser un rĂ©seau de neurones pour rĂ©aliser une mĂ©moire ; on parle alors de mĂ©moire neuronale.

La vision topologique d’un apprentissage correspond Ă  la dĂ©termination de l’hypersurface sur \mathbb{R}^n oĂč \mathbb{R} est l’ensemble des rĂ©els, et n le nombre d’entrĂ©es du rĂ©seau.

Apprentissage

Mode supervisé ou non

Un apprentissage est dit supervisĂ© lorsque l’on force le rĂ©seau Ă  converger vers un Ă©tat final prĂ©cis, en mĂȘme temps qu’on lui prĂ©sente un motif.

À l’inverse, lors d’un apprentissage non-supervisĂ©, le rĂ©seau est laissĂ© libre de converger vers n’importe quel Ă©tat final lorsqu’on lui prĂ©sente un motif.

Surapprentissage

Il arrive souvent que les exemples de la base d'apprentissage comportent des valeurs approximatives ou bruitĂ©es. Si on oblige le rĂ©seau Ă  rĂ©pondre de façon quasi parfaite relativement Ă  ces exemples, on peut obtenir un rĂ©seau qui est biaisĂ© par des valeurs erronĂ©es. Par exemple, imaginons qu'on prĂ©sente au rĂ©seau des couples (xi,f(xi)) situĂ©s sur une droite d'Ă©quation y=ax+b, mais bruitĂ©s de sorte que les points ne soient pas exactement sur la droite. S'il y a un bon apprentissage, le rĂ©seau rĂ©pond ax+b pour toute valeur de x prĂ©sentĂ©e. S'il y a surapprentissage, le rĂ©seau rĂ©pond un peu plus que ax+b ou un peu moins, car chaque couple (xi, f(xi) positionnĂ© en dehors de la droite va influencer la dĂ©cision. Pour Ă©viter le surapprentissage, il existe une mĂ©thode simple : il suffit de partager la base d'exemples en 2 sous-ensembles. Le premier sert Ă  l'apprentissage et le 2e sert Ă  l'Ă©valuation de l'apprentissage. Tant que l'erreur obtenue sur le 2e ensemble diminue, on peut continuer l'apprentissage, sinon on arrĂȘte.

RĂ©tropropagation

La rĂ©tropropagation consiste Ă  rĂ©tropropager l'erreur commise par un neurone Ă  ses synapses et aux neurones qui y sont reliĂ©s. Pour les rĂ©seaux de neurones, on utilise habituellement la rĂ©tropropagation du gradient de l'erreur, qui consiste Ă  corriger les erreurs selon l'importance des Ă©lĂ©ments qui ont justement participĂ© Ă  la rĂ©alisation de ces erreurs : les poids synaptiques qui contribuent Ă  engendrer une erreur importante se verront modifiĂ©s de maniĂšre plus significative que les poids qui ont engendrĂ© une erreur marginale.

Élagage

L'Ă©lagage ("pruning", en anglais) est une mĂ©thode qui permet d'Ă©viter le surapprentissage tout en limitant la complexitĂ© du modĂšle. Elle consiste Ă  supprimer des connexions (ou synapses), des entrĂ©es ou des neurones du rĂ©seau une fois l'apprentissage terminĂ©. En pratique, les Ă©lĂ©ments qui ont la plus petite influence sur l'erreur de sortie du rĂ©seau sont supprimĂ©s. Les deux algorithmes d'Ă©lagage les plus utilisĂ©s sont :

  • Optimal Brain Damage (OBD) de Y. LeCun et al.
  • Optimal Brain Surgeon (OBS) de B. Hassibi et D.G. Stork

Différents types de réseaux de neurones

L’ensemble des poids des liaisons synaptiques dĂ©termine le fonctionnement du rĂ©seau de neurones. Les motifs sont prĂ©sentĂ©s Ă  un sous-ensemble du rĂ©seau de neurones : la couche d’entrĂ©e. Lorsqu’on applique un motif Ă  un rĂ©seau, celui-ci cherche Ă  atteindre un Ă©tat stable. Lorsqu’il est atteint, les valeurs d’activation des neurones de sortie constituent le rĂ©sultat. Les neurones qui ne font ni partie de la couche d’entrĂ©e ni de la couche de sortie sont dits neurones cachĂ©s.

Les types de rĂ©seau de neurones diffĂšrent par plusieurs paramĂštres :

  • la topologie des connexions entre les neurones ;
  • la fonction d’agrĂ©gation utilisĂ©e (somme pondĂ©rĂ©e, distance pseudo-euclidienne...) ;
  • la fonction de seuillage utilisĂ©e (sigmoĂŻde, Ă©chelon, fonction linĂ©aire, fonction de Gauss, ...) ;
  • l’algorithme d’apprentissage (rĂ©tropropagation du gradient, cascade correlation) ;
  • d’autres paramĂštres, spĂ©cifiques Ă  certains types de rĂ©seaux de neurones, tels que la mĂ©thode de relaxation pour les rĂ©seaux de neurones (e.g. rĂ©seaux de Hopfield) qui ne sont pas Ă  propagation simple (e.g. Perceptron Multicouche).

De nombreux autres paramĂštres sont susceptibles d’ĂȘtre mis en Ɠuvre dans le cadre de l’apprentissage de ces rĂ©seaux de neurones par exemple :

  • la mĂ©thode de dĂ©gradation des pondĂ©rations (weight decay), permettant d’éviter les effets de bord et de neutraliser le sur-apprentissage.

Réseaux à apprentissages supervisés

Sans rétropropagation

Perceptron
Perceptron monocouche
Article dĂ©taillĂ© : Perceptron.
Perceptron multicouche
Adaline (ADAptive LInear NEuron)

Dans le cas d'Adaline, on effectue l'apprentissage en utilisant les sorties des neurones avant un passage à travers la fonction d'activation. De ce fait, on utilise uniquement la somme pondérée des entrées avec les poids.

Machine de Cauchy
Non détaillés
  1. Adaptive Heuristic Critic (AHC)
  2. Time Delay Neural Network (TDNN)
  3. Associative Reward Penalty (ARP)
  4. Avalanche Matched Filter (AMF)
  5. Backpercolation (Perc)
  6. Artmap
  7. Adaptive Logic Network (ALN)
  8. Cascade Correlation (CasCor)
  9. Extended Kalman Filter(EKF)
  10. Learning Vector Quantization (LVQ)
  11. Probabilistic Neural Network (PNN)
  12. General Regression Neural Network (GRNN)

Avec rétropropagation

Non détaillés
  1. Brain-State-in-a-Box (BSB)
  2. Fuzzy Congitive Map (FCM)
  3. Boltzmann Machine (BM)
  4. Mean Field Annealing (MFT)
  5. Recurrent Cascade Correlation (RCC)
  6. Backpropagation through time (BPTT)
  7. Real-time recurrent learning (RTRL)
  8. Recurrent Extended Kalman Filter (EKF)

Réseaux à apprentissage non supervisé

Avec rétropropagation

Carte auto adaptative

Non détaillés
  1. Additive Grossberg (AG)
  2. Shunting Grossberg (SG)
  3. Binary Adaptive Resonance Theory (ART1)
  4. Analog Adaptive Resonance Theory (ART2, ART2a)
  5. Discrete Hopfield (DH)
  6. Continuous Hopfield (CH)
  7. Chaos Fractal [1][2][3]
  8. Discrete Bidirectional Associative Memory (BAM)
  9. Temporal Associative Memory (TAM)
  10. Adaptive Bidirectional Associative Memory (ABAM)
  11. Apprentissage compétitif

Dans ce type d'apprentissage non supervisĂ©, les neurones sont en compĂ©tition pour ĂȘtre actifs. Ils sont Ă  sortie binaire et on dit qu'ils sont actifs lorsque leur sortie vaut 1. Alors que dans les autres rĂšgles plusieurs sorties de neurones peuvent ĂȘtre actives simultanĂ©ment, dans le cas de l'apprentissage compĂ©titif, un seul neurone est actif Ă  un instant donnĂ©. Chaque neurone de sortie est spĂ©cialisĂ© pour « dĂ©tecter Â» une suite de formes similaires et devient alors un dĂ©tecteur de caractĂ©ristiques. La fonction d’entrĂ©e est dans ce cas, h = b-dist(W, X) oĂč b, W et X sont respectivement les vecteurs seuil, poids synaptiques et entrĂ©es. Le neurone gagnant est celui pour lequel h est maximum donc si les seuils sont identiques, celui dont les poids sont les plus proches des entrĂ©es. Le neurone dont la sortie est maximale sera le vainqueur et sa sortie sera mise Ă  1 alors que les perdants auront leur sortie mise Ă  0. Un neurone apprend en dĂ©plaçant ses poids vers les valeurs des entrĂ©es qui l'activent pour augmenter ses chances de gagner. Si un neurone ne rĂ©pond pas Ă  une entrĂ©e, aucun ajustement de poids n'intervient. Si un neurone gagne, une portion des poids de toutes les entrĂ©es est redistribuĂ©e vers les poids des entrĂ©es actives. L'application de la rĂšgle donne les rĂ©sultats suivants (Grossberg) : wij = lr(xj-wij) si le neurone i gagne, wij = 0 si le neurone i perd. Cette rĂšgle a pour effet de rapprocher le vecteur poids synaptique wij de la forme d'entrĂ©e xj.

Exemple : ConsidĂ©rons deux nuages de points du plan que l’on dĂ©sire sĂ©parer en deux classes. x1 et x2 sont les deux entrĂ©es, w11 et w12 sont les poids du neurone 1 que l’on peut considĂ©rer comme les coordonnĂ©es d’un point ‘poids du neurone 1’ et w21 et w22 sont les poids du neurone 2. Si les seuils sont nuls, hi sera la distance entre les points Ă  classer et les points poids. La rĂšgle prĂ©cĂ©dente tend Ă  diminuer cette distance avec le point Ă©chantillon lorsque le neurone gagne. Elle doit donc permettre Ă  chaque point poids de se positionner au milieu d’un nuage. Si on fixe initialement les poids de maniĂšre alĂ©atoire, il se peut que l’un des neurones se positionne prĂšs des deux nuages et que l’autre se positionne loin de sorte qu’il ne gagne jamais. Ses poids ne pourront jamais Ă©voluer alors que ceux de l’autre neurone vont le positionner au milieu des deux nuages. Le problĂšme de ces neurones que l’on qualifie de morts peut ĂȘtre rĂ©solu en jouant sur les seuils. En effet, il suffit d’augmenter le seuil de ces neurones pour qu’ils commencent Ă  gagner.

Applications : Ce type de rĂ©seau et la mĂ©thode d'apprentissage correspondant peuvent ĂȘtre utilisĂ©s en analyse de donnĂ©es afin de mettre en Ă©vidence des similitudes entre certaines donnĂ©es.

Notes

S’agissant d’un modĂšle, les rĂ©seaux de neurones sont gĂ©nĂ©ralement utilisĂ©s dans le cadre de simulation logicielle. IMSL et Matlab disposent ainsi de bibliothĂšques dĂ©diĂ©es aux rĂ©seaux de neurones. Cependant, il existe quelques implĂ©mentations matĂ©rielles des modĂšles les plus simples, comme la puce ZISC.

Références

  • Warren Sturgis McCulloch and Walter Pitts. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115-133, 1943.
  • Franck Rosenblatt. The Perceptron : probabilistic model for information storage and organization in the brain. Psychological Review, 65:386-408, 1958.
  • Marvin Lee Minsky and Seymour Papert. Perceptrons : an introduction to computational geometry. MIT Press, expanded edition, 1988.
  • John Joseph Hopfield. Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences, 79:2554-2558, 1982.
  • Y. Le Cun. Une procĂ©dure d’apprentissage pour rĂ©seau Ă  seuil asymĂ©trique. COGNITIVA 85, Paris, 4-7 juin 1985.
  • D. E. Rumelhart and J. L. Mc Clelland. Parallel Distributed Processing: Exploration in the MicroStructure of Cognition. MIT Press, Cambridge, 1986.
  • J. A. Anderson and E. Rosenfeld. Neuro Computing Foundations of Research. MIT Press, Cambridge, 1988.
  • Tom Mitchell. Machine Learning. McGraw-Hill Science, 1997.
  • Lepage, R. & Solaiman, B., Les rĂ©seaux de neurones artificiels et leurs applications en imagerie et en vision par ordinateur, Coop ÉTS, 2003.

Notes et références

  1. ↑ Teuvo Kohonen, Content-addressable Memories, Springer-Verlag, 1987 ,ISBN 038717625X, 9780387176253, 388 pages
  2. ↑ Pribram, Karl (1991). Brain and perception: holonomy and structure in figural processing. Hillsdale, N. J.: Lawrence Erlbaum Associates. ISBN 0898599954. quote of « fractal chaos Â» neural network
  3. ↑ D. Levine et al, oscillations in neural systems, publiĂ© par Lawrence Erlbaum Associates, 1999, 456 pages, ISBN 0805820663, 9780805820669

Bibliographie

  • LĂ©on Personnaz et Isabelle Rivals, RĂ©seaux de neurones formels pour la modĂ©lisation, la commande et la classification, CNRS Editions, 2003. Cet ouvrage s'adresse aux ingĂ©nieurs et aux chercheurs, ainsi qu'aux Ă©tudiants de DEA et d'Ă©coles d'ingĂ©nieurs. Il traite de la mise en Ɠuvre des rĂ©seaux de neurones formels (RNFs) dans les domaines suivants : a) la modĂ©lisation statique et dynamique, pour des processus industriels, Ă©cologiques, Ă©conomiques, biologiques, etc. ; b) la sĂ©lection du meilleur modĂšle ; c) la commande de processus industriels ; d) la classification et la reconnaissance des formes. Ces domaines recouvrent la majoritĂ© des problĂšmes industriels de traitement de donnĂ©es numĂ©riques pour lesquels l'utilisation des RNFs est pertinente. Deux annexes sont consacrĂ©es aux algorithmes d’optimisation et aux outils statistiques indispensables. Voir : http://www.esa.espci.fr/livre.html
  • Richard P. Lippman, An Introduction to Computing with Neural Nets, IEEE ASSP Magazine, avril 1987, p. 4-22 : Article de prĂ©sentation (en anglais). Il compare les classifieurs classiques aux rĂ©seaux de neurones. Il explique le rĂ©seau de Hopfield, les perceptrons mono et multicouche, les rĂ©seaux de Kohonen, et d’autres comme le rĂ©seau de Hamming, le classifieur de Carpenter-Grossberg ;
  • Yves Cochet, RĂ©seaux de neurones, rĂ©sumĂ© de cours de DESS-ISA option IA n°389, IRISA, Janvier 1988 : Article de synthĂšse prĂ©sentant entre autres les implantations des algorithmes des rĂ©seaux de neurones. Il contient l’algorithme prĂ©cis des rĂ©seaux multicouches, les principes du modĂšle de Hopfield, de la machine de Boltzmann, et une prĂ©sentation de l’application NetTalk ;
  • Claude Lhermitte, Intelligence Artificielle et Connexionnisme, Rapport technique n°10860/..a1991, SupĂ©lec, 1991 : Article gĂ©nĂ©ral, met en Ă©vidence les limites des approches symbolique et connexionniste. Conclut sur la complĂ©mentaritĂ© des deux approches et leur convergence ;
  • Neural Networks : biological computers or electronic brains - Les entretiens de Lyon – (sous la direction de École normale supĂ©rieure de Lyon) - Editions Springer-Verlag 1990.
  • Jean-Paul Haton, ModĂšles connexionnistes pour l’intelligence artificielle, 1989 : Article de synthĂšse. PrĂ©sentation et historique de l’approche neuronale. Discussion sur l’opposition symbolisme/connexionnisme. Introduction de la colonne corticale dĂ©veloppĂ©e par l’équipe CORTEX (du LORIA de Nancy) et de la nĂ©cessitĂ© d’une architecture parallĂšle ;
  • GĂ©rard Dreyfus, Jean-Marc Martinez, Mannuel Samuelides, Mirta Gordon, Fouad Badran, Sylvie Thiria, "Apprentissage statistique : rĂ©seaux de neurones, cartes topologiques, machines Ă  vecteurs supports" Eyrolles [2008].
  • Simon Haykin, « Neural Networks : A Comprehensive Foundation (2nd Edition) Â», [1998] Prentice Hall. Certainement l'une des meilleures rĂ©fĂ©rences disponibles, couvrant de maniĂšre prĂ©cise la plupart des concepts nĂ©cessaires Ă  l'utilisation et Ă  la comprĂ©hension des rĂ©seaux de neurones.
  • Christopher M. Bishop, « Neural Networks for Pattern Recognition Â», Oxford University Press [1995]. Si cet ouvrage va moins loin que celui de Simon Haykin dans les dĂ©tails des rĂ©seaux de neurones, il prĂ©sente l'avantage de les placer dans le cadre de la reconnaissance de forme et donc de prĂ©senter d'autres techniques, parfois plus simples Ă  mettre en Ɠuvre.
  • Ben Krose et Patrick van der Smagt, «  An Introduction to Neural Networks Â» [8Ăšme Ă©dition, 1996]

Liens externes

Voir aussi

  • Portail des probabilitĂ©s et des statistiques Portail des probabilitĂ©s et des statistiques
  • Portail de l’informatique Portail de l’informatique
Ce document provient de « R%C3%A9seau de neurones ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Neuronal network de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Cultured neuronal network — A cultured neuronal network is a cell culture of neurons that is used as a model to study the central nervous system, especially the brain. Often, cultured neuronal networks are connected to an input/output device such as a multi electrode array… 
   Wikipedia

  • Network motif — Network motifs are connectivity patterns (sub graphs) that occur much more often than they do in random networks. Most networks studied in biology, ecology and other fields have been found to show a small set of network motifs; surprisingly, in… 
   Wikipedia

  • neuronal — adjective of or relating to neurons (Freq. 1) neural network ‱ Syn: ↑neural, ↑neuronic ‱ Pertains to noun: ↑neuron (for: ↑neuronic), ↑ 
   Useful english dictionary

  • Biological neural network — From Texture of the Nervous System of Man and the Vertebrates by Santiago RamĂłn y Cajal. The figure illustrates the diversity of neuronal morphologies in the auditory cortex. In neuroscience, a biological neural network describes a population of… 
   Wikipedia

  • RĂ©seau neuronal — RĂ©seau de neurones Pour les articles homonymes, voir RĂ©seau. Neurosciences 
   WikipĂ©dia en Français

  • Autophagy network — consists of enzymes and substrates involved in the degradation of a cell s own components. Network membersThe Autophagy network members (gene name and aliases) as published in the last 500 newest PubMed entries (see below) are depicted… 
   Wikipedia

  • Red neuronal artificial — perceptrĂłn simple con n neuronas de entrada, m neuronas en su capa oculta y una neurona de escape. Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglĂ©s como: ANN [1] ) so 
   Wikipedia Español

  • Artificial Neural Network — RĂ©seau de neurones Pour les articles homonymes, voir RĂ©seau. Vue simplifiĂ©e d un rĂ©seau artificiel de neurones Un rĂ©seau de neurones artificiel est un modĂšle de c 
   WikipĂ©dia en Français

  • Neural network — For other uses, see Neural network (disambiguation). Simplified view of a feedforward artificial neural network The term neural network was traditionally used to refer to a network or circuit of biological neurons.[1] The modern usage of the term 
   Wikipedia

  • Default network — Graphs of the dynamic development of correlations between brain networks. (A) In children the regions are largely local and are organized by their physical location; the frontal regions are highlighted in light blue. (B) In adults the networks… 
   Wikipedia


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.