Vladimir Vapnik

ÔĽŅ
Vladimir Vapnik

Vladimir Naumovich Vapnik (6 décembre 1935) est l'un des principaux contributeurs à la théorie de Vapnik-Chervonenkis.


N√© en Union Sovi√©tique, il obtient en 1958 un mast√®re de math√©matiques √† l'Universit√© d'√Čtat d'Ouzb√©kistan, √† Samarkand, en Ouzb√©kistan, puis obtient en 1964 un doctorat de statistiques √† l'Institut des Sciences de Contr√īle, √† Moscou. Il travaille dans ce m√™me institut de 1961 √† 1990, et en devient le directeur du d√©partement de recherche en informatique.

En 1995 il est nomm√© professeur d'informatique et de statistiques au Royal Holloway College, √† l'Universit√© de Londres. Aux laboratoires Bell d'AT&T de 1991 √† 2001?, Vladimir Vapnik et ses coll√®gues d√©veloppent la th√©orie des machines √† support vectoriel (aussi appel√©es ¬ę machines √† vecteurs de support ¬Ľ, ou encore ¬ę s√©parateurs √† vaste marge ¬Ľ), dont ils d√©montrent l'int√©r√™t dans nombre des probl√©matiques importantes de l'apprentissage des machines et des r√©seaux de neurones, tels que la reconnaissance de caract√®res.

Il travaille ensuite aux laboratoires NEC de Princeton, dans le New Jersey, aux √Čtats-Unis, ainsi qu'√† l'universit√© Columbia, √† New York.

En 2006, Vladimir Vapnik est admis √† l'Acad√©mie Nationale d'Ing√©nierie des √Čtats-Unis.

Sommaire

Bibliographie

  • On the uniform convergence of relative frequencies of events to their probabilities (De la convergence uniforme des fr√©quences relatives des √©v√®nements vers leur probabilit√©), avec A. Y. Chervonenkis, 1971
  • Necessary and sufficient conditions for the uniform convergence of means to their expectations (Conditions n√©cessaires et suffisantes pour la convergence uniforme des moyennes vers leur esp√©rance), avec A. Y. Chervonenkis, 1981
  • Estimation of Dependences Based on Empirical Data (Estimation des d√©pendances √† partir de donn√©es empiriques), 1982
  • The Nature of Statistical Learning Theory (La nature de la th√©orie de l'apprentissage statistique), 1995
  • Statistical Learning Theory (Th√©orie de l'apprentissage statistique), 1998
  • Estimation of Dependences Based on Empirical Data (Estimation des d√©pendances √† partir de donn√©es empiriques), r√©√©dition 2006 (Springer), qui contient √©galement un essai philisophique sur la Science de l'inf√©rence empirique (Empirical Inference Science), 2006

Liens internes

Liens externes

Sources


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Vladimir Vapnik de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Vladimir Vapnik ‚ÄĒ Vladimir Naumovich Vapnik ( ru. –í–Ľ–į–ī–ł–ľ–ł—Ä –Ě–į—É–ľ–ĺ–≤–ł—á –í–į–Ņ–Ĺ–ł–ļ) is one of the main developers of Vapnik Chervonenkis theory. He was born in the Soviet Union. He received his master s degree in mathematics at the [http://nuu.uz/?ln=en Uzbek State… ‚Ķ   Wikipedia

  • Vladimir Vapnik ‚ÄĒ Wladimir Naumowitsch Wapnik (in englischer Transkription Vladimir Naumovich Vapnik, russisch¬†–í–Ľ–į–ī–ł–ľ–ł—Ä –Ě–į—É–ľ–ĺ–≤–ł—á –í–į–Ņ–Ĺ–ł–ļ) ist ein sowjetisch amerikanischer Mathematiker und Hauptentwickler der Wapnik Tscherwonenkis Theorie sowie der Support Vector… ‚Ķ   Deutsch Wikipedia

  • Vapnik-Chervonenkis theory ‚ÄĒ (also known as VC theory) was developed during 1960 1990 by Vladimir Vapnik and Alexey Chervonenkis. The theory is a form of computational learning theory, which attempts to explain the learning process from a statistical point of view.VC theory… ‚Ķ   Wikipedia

  • Theorie de Vapnik-Chervonenkis ‚ÄĒ Th√©orie de Vapnik Chervonenkis La th√©orie de Vapnik Chervonenkis (√©galement connue sous le nom de th√©orie VC) est une th√©orie math√©matique et informatique d√©velopp√©e dans les ann√©es 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une… ‚Ķ   Wikip√©dia en Fran√ßais

  • Th√©orie de vapnik-chervonenkis ‚ÄĒ La th√©orie de Vapnik Chervonenkis (√©galement connue sous le nom de th√©orie VC) est une th√©orie math√©matique et informatique d√©velopp√©e dans les ann√©es 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de th√©orie de l… ‚Ķ   Wikip√©dia en Fran√ßais

  • Th√©orie de Vapnik-Chervonenkis ‚ÄĒ La th√©orie de Vapnik Chervonenkis (√©galement connue sous le nom de th√©orie VC) est une th√©orie math√©matique et informatique d√©velopp√©e dans les ann√©es 1960 1990 par Vladimir Vapnik et Alexey Chervonenkis. C est une forme de th√©orie de l… ‚Ķ   Wikip√©dia en Fran√ßais

  • Machine √† vecteurs de support ‚ÄĒ Les machines √† vecteurs de support ou s√©parateurs √† vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervis√© destin√©es √† r√©soudre des probl√®mes de discrimination[note 1] et de r√©gression. Les… ‚Ķ   Wikip√©dia en Fran√ßais

  • Machine a vecteurs de support ‚ÄĒ Machine √† vecteurs de support Les machines √† vecteurs de support ou s√©parateurs √† vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervis√© destin√©es √† r√©soudre des probl√®mes de… ‚Ķ   Wikip√©dia en Fran√ßais

  • Machine √Ä Vecteurs De Support ‚ÄĒ Les machines √† vecteurs de support ou s√©parateurs √† vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervis√© destin√©es √† r√©soudre des probl√®mes de discrimination[1] et de r√©gression. Les SVM… ‚Ķ   Wikip√©dia en Fran√ßais

  • Machine √† vecteur de support ‚ÄĒ Machine √† vecteurs de support Les machines √† vecteurs de support ou s√©parateurs √† vaste marge (en anglais Support Vector Machine, SVM) sont un ensemble de techniques d apprentissage supervis√© destin√©es √† r√©soudre des probl√®mes de… ‚Ķ   Wikip√©dia en Fran√ßais


Share the article and excerpts

Direct link
… Do a right-click on the link above
and select ‚ÄúCopy Link‚ÄĚ

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.