Claude Shannon

ÔĽŅ
Claude Shannon
Claude Shannon
Nom de naissance Claude Elwood Shannon
Naissance 30 avril 1916
Petoskey, Michigan, √Čtats-Unis
D√©c√®s 24 f√©vrier 2001 (√† 84 ans)
Medford, Massachusetts, √Čtats-Unis
Nationalit√© Drapeau des √Čtats-Unis √Čtats-Unis
Profession Ingénieur, Chercheur
Compléments
Fondateur de la théorie de l'information

Claude Elwood Shannon (30 avril 1916 √† Petoskey[1], Michigan - 24 f√©vrier 2001 √† Medford, Massachusetts) est un ing√©nieur √©lectricien et math√©maticien am√©ricain. Il est l'un des p√®res, si ce n'est le p√®re fondateur, de la th√©orie de l'information. Son nom est attach√© √† un c√©l√®bre ¬ę sch√©ma de Shannon ¬Ľ tr√®s utilis√© en sciences humaines, qu'il a constamment d√©savou√©.

Sommaire

Biographie

Il √©tudie le g√©nie √©lectrique et les math√©matiques √† l'Universit√© du Michigan en 1932. Il utilise notamment l'alg√®bre bool√©enne pour sa ma√ģtrise soutenue en 1938 au Massachusetts Institute of Technology (MIT). Il y explique comment construire des machines √† relais en utilisant l'alg√®bre de Boole pour d√©crire l'√©tat des relais (1 : ferm√©, 0 : ouvert).

Shannon travaille vingt ans au MIT, de 1958 à 1978. Parallèlement à ses activités académiques, il travaille aussi aux laboratoires Bell de 1941 à 1972.

Claude Shannon est connu non seulement pour ses travaux dans les t√©l√©communications, mais aussi pour l'√©tendue et l'originalit√© de ses hobbies, comme la jonglerie, la pratique du monocycle et l'invention de machines farfelues : une souris m√©canique sachant trouver son chemin dans un labyrinthe, un robot jongleur, un joueur d'√©checs (roi tour contre roi), etc. L'un de ces "gadgets" pr√©sente toutefois un grand int√©r√™t conceptuel, comme le montrent Philippe Boulanger et Alain Cohen dans Le Tr√©sor des paradoxes (√Čditions Belin, 2007) : "Claude Shannon voulut √©laborer une ¬ę machine gratuite ¬Ľ, sans finalit√© : on la met en marche en appuyant, comme sur tout dispositif √©lectrom√©canique, sur une touche ¬ę on ¬Ľ ; mais les choses prennent alors une tournure surprenante, car cette mise sous tension d√©clenche un m√©canisme provoquant aussit√īt l‚Äôarr√™t du gadget en mettant l‚Äôinterrupteur sur ¬ę off ! ¬Ľ Ce type de comportement insolite caract√©rise les situations ubiquitaires o√Ļ la communication r√©side paradoxalement dans l'absence de communication, l'utilit√© dans l'absence d'utilit√©. Exemples : "La mode, c'est ce qui se d√©mode" (Jean Cocteau); "Cr√©er cette √Čcole (l'√Čcole Freudienne) afin de la dissoudre" (Jacques Lacan); "On se rend compte que l'on dort en se r√©veillant" (John Lennon); "Le bon fonctionnement de tout le syst√®me de l‚Äô√©pargne-logement suppose, paradoxalement, que certains ayants droit (les ¬ę bons fr√®res ¬Ľ) renoncent pr√©cis√©ment √† faire valoir leur droit √† un pr√™t au terme d‚Äôune p√©riode d‚Äô√©pargne" (Pierre Chaillol); "L'id√©al r√©volutionnaire n‚Äôa pu que se troubler au moment de s‚Äôaccomplir : la n√©cessit√© dont il se r√©clamait le condamnait √† se perdre pour se r√©aliser, trahi et d√©form√© moins par ses ennemis que par ceux-l√† m√™mes qui ont voulu en assurer l‚Äôapplication" (Jean Starobinski); "La virginit√© se perd en se prouvant" (Fernand Crommelynck). Un avatar g√©ostrat√©gique de cet automate paradoxal de Shannon consiste dans le concept de dissuasion nucl√©aire : les puissances nucl√©aires amassent des armes atomiques dans le but‚Ķ d'interdire toute vell√©it√© d'emploi de ce type d'armes, en se neutralisant mutuellement : √ßa sert √† ne pas servir !

Souffrant de la maladie d'Alzheimer dans les dernières années de sa vie, Claude Shannon est mort à 84 ans le 24 février 2001 à Medford dans le Massachusetts.

Son Ňďuvre

Pendant la Seconde Guerre mondiale, Shannon travaille pour les services secrets de l'armée, en cryptographie, chargé de localiser de manière automatique dans le code ennemi les parties signifiantes cachées au milieu du brouillage. Son travail est exposé dans un rapport secret (déclassifié dans les années 1980 seulement), qui donne naissance après-guerre à un article, A Mathematical Theory of Communications (1948), qui fut repris en 1949 sous forme de livre publié par l'Université d'Illinois avec les commentaires de Warren Weaver, coordonnateur(Mattelart et Mattelart, 2004) dans les services secrets . Cet ouvrage est centré autour de la problématique de la transmission du signal.

Le schéma de Shannon

Pour d√©crire la communication entre machines, l'article de 1948 et le livre de 1949 commencent tous deux par un ¬ę sch√©ma ¬Ľ qui connut d√®s lors une post√©rit√© √©tonnante en Sciences de l'information et de la communication, au point que Shannon s'en √©tonna et s'en dissocia[r√©f. n√©cessaire]. Le sch√©ma mod√©lise la communication entre machines :

Ce sch√©ma est la traduction ¬ę civile ¬Ľ d'un sch√©ma pr√©alable, utilis√© dans le contexte militaire :

  • source ‚Üí encodeur ‚Üí signal ‚Üí d√©codeur ‚Üí destinataire, dans un contexte de brouillage.

Ad√©quat √† d√©crire la communication entre machines, ce sch√©ma mod√©lise imparfaitement la communication humaine[r√©f. n√©cessaire]. Pourtant, son succ√®s est foudroyant, et il a particip√© largement √† la cr√©ation d'un champ disciplinaire, les sciences de l'information et de la communication. L'une des explications de ce succ√®s est le fait qu'il se fond parfaitement dans une approche b√©havioriste des m√©dias. De plus, ce sch√©ma dit canonique donne une consistance et une apparence de scientificit√©.

Shannon : l'unit√© de mesure

Dans l'article comme dans le livre, il popularise l'utilisation du mot bit comme mesure √©l√©mentaire de l'information num√©rique. John Tukey fut n√©anmoins le premier √† utiliser le terme[2]. Plus pr√©cisement, le bit d√©signe le nombre de chiffres binaires n√©cessaires pour coder une quantit√© d'information. Ainsi, il faut au moins un bit (ou 1 Shannon[r√©f. n√©cessaire]) pour coder deux √©tats (par exemple ¬ę pile ¬Ľ et ¬ę face ¬Ľ, ou plus g√©n√©ralement 0 et 1) et deux bits permettent de coder quatre √©tats (00, 01, 10, 11). Les 26 lettres de l'alphabet n√©cessitent au minimum 5 bits car: (2^4= 16) < 26 \le (2^5 = 32)

Plus généralement, si P est le nombre d'états possibles, le nombre de bits minimum n nécessaire à tous les coder vérifie:

2^{(n-1)} < P \le 2^n

Dans un cas id√©al o√Ļ toute l'information disponible est utilis√©e, P = 2n.

La relation de Shannon

Dans le domaine des t√©l√©communications, la relation de Shannon permet de calculer la valence (ou nombre maximal d'√©tats) en milieu perturb√© :

Soit S le signal, N le bruit :

 n = \sqrt{1 + \frac{S} {N} }

On a alors le d√©bit maximal :

 \displaystyle H {\log}_2 ( 1+ \frac{S}{N} )

Ce résultat est indépendant de la vitesse d'échantillonnage et du nombre de niveau d'un échantillon (la valence).

Entropie au sens de Shannon

Article d√©taill√© : Entropie de Shannon.

Un apport essentiel des travaux de Shannon concerne la notion d'entropie. Si l'on consid√®re N √©v√©nements de probabilit√© p1, p2‚Ķ pN, ind√©pendants les uns des autres, alors leur entropie de Shannon est d√©finie comme :

Entropie = - \sum_{i=1}^N p_i \log_2(p_i)

Il a par ailleurs :

La découverte du concept ouvrait ainsi la voie aux méthodes dites d'entropie maximale (voir probabilité), donc au scanner médical, à la reconnaissance automatique des caractères et à l'apprentissage automatique.

Théorèmes

Son nom est associé à plusieurs théorèmes, le Théorème d'échantillonnage de Nyquist-Shannon sur l'échantillonnage (aussi appelé critère de Shannon), le premier théorème de Shannon sur la limite théorique de la compression, le deuxième théorème de Shannon sur la capacité d'un canal de transmission.

Anecdotes

  • En 1981, Claude Shannon a commenc√© √† √©crire un article intitul√© Scientific Aspects of Juggling, sur l'art de la jonglerie. Cet article √©tait pr√©vu pour √™tre publi√© dans Scientific American, mais ce ne fut finalement pas le cas. N√©anmoins, cette √©bauche a servi de base √† la formalisation des mouvements de jonglerie par le siteswap[3].

Voir aussi

Articles connexes

Bibliographie

  • Mattelart,A. et Mattelart, M. (2004) Histoire des th√©ories de la communication. 3e √©dition. Paris: √Čditions La D√©couverte
  • Claude E. Shannon, A Symbolic Analysis of Relay and Switching Circuits, Thesis (M.S.), Massachusetts Institute of Technology, Dept. of Electrical Engineering, 1940 (lire)
  • Claude E. Shannon, A Mathematical Theory of Communication, Bell System Technical Journal, vol. 27, p. 379-423 and 623-656, July and October, 1948 (ISBN 0252725484) (lire [PDF])
  • Claude E. Shannon, Communication Theory of Secrecy Systems, Bell System Technical Journal, Vol 28, p. 656-715, Oct 1949. (lire)

Références

  1. ‚ÜĎ (en)Biography of Claude Elwood Shannon, AT&T People and Organization
  2. ‚ÜĎ (en)Bit Definition, The Linux Information Project
  3. ‚ÜĎ (en) The Invention of Juggling Notations, The Internet Juggling Database, Arthur Lewbel, 14 octobre 2004

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Claude Shannon de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Claude Shannon ‚ÄĒ Claude Elwood Shannon (1916 2001) Born April ‚Ķ   Wikipedia

  • Claude Shannon ‚ÄĒ Claude Elwood Shannon (* 30. April 1916 in Petoskey, Michigan; ‚Ć 24. Februar 2001 in Medford, Massachusetts) war ein amerikanischer Mathematiker. Er gilt als Begr√ľnder der Informationstheorie. Inhaltsverzeichnis 1 Biographie 2 Siehe auch ‚Ķ   Deutsch Wikipedia

  • Claude Shannon ‚ÄĒ Claude Elwood Shannon (30 de abril de 1916 (Michigan) 24 de febrero de 2001) recordado como el padre de la teor√≠a de la informaci√≥n . Los primeros a√Īos de su vida los pas√≥ en Gaylord, donde se gradu√≥ de la secundaria en 1932. Desde joven, Shannon ‚Ķ   Enciclopedia Universal

  • Claude Shannon ‚ÄĒ noun United States electrical engineer who pioneered mathematical communication theory (1916 2001) ‚ÄĘ Syn: ‚ÜĎShannon, ‚ÜĎClaude E. Shannon, ‚ÜĎClaude Elwood Shannon ‚ÄĘ Instance Hypernyms: ‚ÜĎengineer, ‚ÜĎapplied scientist, ‚ÜĎtechnologist ‚Ķ   Useful english dictionary

  • Prix Claude Shannon ‚ÄĒ Le Prix Claude Shannon est d√©cern√© par l association pour la th√©orie de l information de l IEEE depuis 1972, pour honorer les contributions importantes √† ce domaine. Chaque laur√©at donne une conf√©rence lors du congr√®s international de l IEEE sur… ‚Ķ   Wikip√©dia en Fran√ßais

  • Claude E. Shannon ‚ÄĒ Claude Shannon Claude Shannon Nom de naissance Claude Elwood Shannon Naissance 30 avril 1916 Gaylord, Michigan, √Čtats Unis D√©c√®s 24 f√©vrier 2001 (√† 84 ans) Nationalit√© ‚Ķ   Wikip√©dia en Fran√ßais

  • Claude Elwood Shannon ‚ÄĒ Claude Shannon Claude Shannon Nom de naissance Claude Elwood Shannon Naissance 30 avril 1916 Gaylord, Michigan, √Čtats Unis D√©c√®s 24 f√©vrier 2001 (√† 84 ans) Nationalit√© ‚Ķ   Wikip√©dia en Fran√ßais

  • Claude Elwood Shannon ‚ÄĒ (* 30. April 1916 in Petoskey, Michigan; ‚Ć 24. Februar 2001 in Medford, Massachusetts) war ein amerikanischer Mathematiker und Elektrotechniker. Er gilt als Begr√ľnder der Informationstheorie. Inhaltsverzeichnis 1 Leben 2 Werk ‚Ķ   Deutsch Wikipedia

  • Claude Elwood Shannon ‚ÄĒ (M√≠chigan, 30 de abril de 1916 24 de febrero de 2001), ingeniero electr√≥nico y matem√°tico estadounidense, recordado como ¬ęel padre de la teor√≠a de la informaci√≥n¬Ľ. Contenido 1 Biograf√≠a 2 Referencias ‚Ķ   Wikipedia Espa√Īol

  • Claude (given name) ‚ÄĒ Claude Claude Debussy (1862 1918), French composer Pronunciation /clod/ Gender us ‚Ķ   Wikipedia


Share the article and excerpts

Direct link
… Do a right-click on the link above
and select ‚ÄúCopy Link‚ÄĚ

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.