Test de Turing

ï»ż
Test de Turing
Page d'aide sur l'homonymie Pour les articles homonymes, voir Turing (homonymie).

Le test de Turing est une proposition de test d’intelligence artificielle fondĂ©e sur la facultĂ© d’imiter la conversation humaine. DĂ©crit par Alan Turing en 1950 dans sa publication Computing machinery and intelligence, ce test consiste Ă  mettre en confrontation verbale un humain avec un ordinateur et un autre humain Ă  l’aveugle. Si l’homme qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considĂ©rer que le logiciel de l’ordinateur a passĂ© avec succĂšs le test. Cela sous-entend que l’ordinateur et l’homme essaieront d’avoir une apparence sĂ©mantique humaine. Pour conserver la simplicitĂ© et l’universalitĂ© du test, la conversation est limitĂ©e Ă  un Ă©change textuel entre les protagonistes.

Sommaire

Histoire

Le test a Ă©tĂ© inspirĂ© d’un jeu d’imitation dans lequel un homme et une femme vont dans des piĂšces sĂ©parĂ©es et les invitĂ©s tentent de discuter avec les deux protagonistes en Ă©crivant des questions et en lisant les rĂ©ponses qui leur sont renvoyĂ©es. Dans ce jeu l’homme et la femme essayent de convaincre les invitĂ©s qu’ils sont tous deux des femmes.

À l’origine Turing a imaginĂ© ce test pour rĂ©pondre Ă  sa question existentielle : « une machine peut-elle penser ? Â», en donnant une interprĂ©tation plus concrĂšte de sa question.

Une idĂ©e intĂ©ressante de sa proposition de test est que les rĂ©ponses doivent ĂȘtre donnĂ©es dans des intervalles de temps dĂ©finis. Il imagine que cela est nĂ©cessaire pour que l’observateur ne puisse pas Ă©tablir une conclusion qui soit fondĂ©e sur le fait qu’un ordinateur puisse rĂ©pondre plus rapidement qu’un homme, surtout sur des questions de mathĂ©matiques.

Objections et réponses

Turing lui-mĂȘme a suggĂ©rĂ© de nombreuses objections qui peuvent ĂȘtre faites au test et en a donnĂ© une rĂ©ponse dans sa publication initiale :

  1. Objection thĂ©ologique : la pensĂ©e serait le fait innĂ© de l’ñme dont l’homme serait seul dotĂ©, et ainsi la machine ne saurait pas penser. Turing rĂ©pond qu’il ne voit aucune raison pour laquelle Dieu ne pourrait donner Ă  un ordinateur une Ăąme s’il le souhaitait.
  2. Argument de la conscience : cet argument suggĂ©rĂ© par le professeur Geoffrey Jefferson dit que « aucune machine ne peut Ă©crire un sonnet ou composer un concerto Ă  cause de l’absence d’émotion, et mĂȘme en alignant des notes au hasard, on ne peut pas dire qu’une machine puisse Ă©galer un cerveau humain[1] Â». La rĂ©ponse de Turing est que nous les hommes n’avons aucun moyen de connaĂźtre vĂ©ritablement l’expĂ©rience des Ă©motions de tout autre individu que soi-mĂȘme, et donc que nous devrions accepter le test[2].
  3. OriginalitĂ© : une autre objection, trĂšs controversĂ©e, est que les ordinateurs seraient incapables d’avoir de l’originalitĂ©. Turing rĂ©pond que les ordinateurs peuvent surprendre les humains, en particulier lorsque les consĂ©quences de diffĂ©rents faits ne sont pas immĂ©diatement reconnaissables.
  4. Formalisme : cet argument dit que chaque systĂšme gouvernĂ© par des lois peut ĂȘtre prĂ©visible et donc pas rĂ©ellement intelligent. Turing rĂ©pond que ceci revient Ă  confondre des lois du comportement avec des rĂšgles gĂ©nĂ©rales de conduite.
  5. Perception extra-sensorielle : Turing semble suggĂ©rer qu’il y a des preuves de perceptions extra-sensorielles. Cependant il estime que des conditions idĂ©ales peuvent ĂȘtre crĂ©Ă©es, dans lesquelles ces perceptions n’affecteraient pas le test et ainsi seraient nĂ©gligeables.

La PiĂšce Chinoise

Dans un article datĂ© de 1980, le philosophe John Searle remet en cause la puissance du test de Turing, en invoquant la limite des ordinateurs Ă  la syntaxe. Selon l'auteur, la sĂ©mantique, caractĂ©ristique de la pensĂ©e humaine, ne saurait ĂȘtre rĂ©duite Ă  la manipulation de symboles selon des rĂšgles syntaxiques dĂ©terminĂ©es, ce qui semble ĂȘtre le propre de la machine. Pour illustrer ses propos, il prĂ©sente l'expĂ©rience de pensĂ©e de la PiĂšce Chinoise : supposez que vous ĂȘtes Ă  l'intĂ©rieur d'une piĂšce contenant des symboles chinois ainsi qu'un manuel comportant des rĂšgles type "questions-rĂ©ponses". Lorsqu'un Chinois, Ă  l'extĂ©rieur, vous envoie un message par symbole, vous pourrez, grĂące au manuel, fournir une rĂ©ponse adĂ©quate et donner l'impression Ă  votre interlocuteur de savoir parler sa langue, sans qu'il soit nĂ©cessaire que vous la compreniez.

Prédictions et tests

Turing a prĂ©dit que les ordinateurs seraient un jour capables de passer le test. En fait, il estimait qu’en l’an 2000 des machines avec 128 Mo de mĂ©moire seraient capables de tromper environ 30 % des juges humains durant un test de 5 minutes. Il a prĂ©dit que les humains Ă  ce moment-lĂ , ne verraient pas l’expression « machine intelligente Â» comme contradictoire. Il a aussi prĂ©dit que l’acquisition par apprentissage des ordinateurs serait aussi importante pour construire des ordinateurs performants, une affirmation qui est aujourd’hui considĂ©rĂ©e comme plausible par les chercheurs contemporains en intelligence artificielle.

En 2004, aucun ordinateur n’a rĂ©ussi le test de Turing en tant que tel. Des programmes de conversation simple tels que ELIZA ont trompĂ© des humains croyant parler Ă  d’autres humains, avec des expressions informelles, comme le bot AOLiza. MalgrĂ© cela, de tels « succĂšs Â» ne sont pas comparables au test de Turing. La plupart du temps, l’homme n’a pas de raison de suspecter qu’il ne parle pas avec un humain, alors que pour le test de Turing le juge essaye de dĂ©terminer de façon active la nature de l’entitĂ© avec laquelle il converse. Les cas rĂ©fĂ©rencĂ©s concernent notamment l’IRC, oĂč le fait d’engager une conversation futile et sans signification, est courant. De plus, beaucoup de participants Ă  l’IRC conversent dans une langue autre que leur langue maternelle, le plus souvent l'anglais, ce qui rend encore plus facile le fait d’ĂȘtre trompĂ© par un bot, en pensant ne pas tout comprendre ou encore en n’étant pas suffisamment informĂ© de l’existence mĂȘme des bots.

Le prix Loebner est une compétition annuelle récompensant le programme considéré comme le plus proche de réussir le test de Turing. ALICE a remporté ce prix à plusieurs reprises. Aucun des programmes présentés n'a encore passé le test de Turing avec succÚs.

Origine du nom

Dans la publication de Turing, le terme « Jeu d’imitation Â» est utilisĂ© pour sa proposition de test. Le nom de « Test de Turing Â» semble avoir Ă©tĂ© inventĂ© en 1968 par Arthur C. Clarke dans ses nouvelles de science-fiction dont a Ă©tĂ© tirĂ© le film 2001 : L'OdyssĂ©e de l'espace.

Les faiblesses du test

Le test de Turing est fondĂ© sur l'hypothĂšse que les ĂȘtres humains peuvent juger de l'intelligence d'une machine en comparant son comportement avec le comportement humain. Chaque Ă©lĂ©ment de cette hypothĂšse a Ă©tĂ© remis en question : le jugement de l'humain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain. Pour ces raisons et d'autres considĂ©rations, certains chercheurs en intelligence artificielle ont mis en doute l'utilitĂ© de l'essai.

Intelligence Humaine contre l'intelligence en général

Intelligence Humaine contre l'intelligence en général

Cela ne teste pas directement si l'ordinateur se comporte de façon intelligente, cela teste seulement si l'ordinateur se comporte comme un ĂȘtre humain. Étant donnĂ© que le comportement intelligent et les comportements humains ne sont pas exactement la mĂȘme chose, le test ne permet pas de mesurer avec prĂ©cision l'intelligence de deux façons :

  • Certains comportements humains sont stupides : Le test de Turing exige que la machine puisse exĂ©cuter tous les comportements humains, indĂ©pendamment de savoir s'ils sont ou non intelligents. Cela teste mĂȘme des comportements que l'on ne peut pas considĂ©rer comme intelligents du tout, tels que la susceptibilitĂ© Ă  des insultes, la tentation de mentir ou, tout simplement, une frĂ©quence Ă©levĂ©e d'erreurs de frappe. Si une machine ne peut imiter le comportement humain dans le dĂ©tail, comme faire des erreurs de frappe, l'intelligence Ă©choue au test, indĂ©pendamment de la façon dont elle peut ĂȘtre intelligente.
    • Cette objection a Ă©tĂ© soulevĂ©e par The Economist, dans un article intitulĂ© « Artificial Stupidity Â», publiĂ© peu aprĂšs la premiĂšre compĂ©tition Loebner en 1992. L'article notait que la victoire du gagnant de la premiĂšre compĂ©tition Loebner Ă©tait due, au moins en partie, Ă  sa capacitĂ© Ă  « imiter les erreurs de frappe de l'homme Â». Turing lui-mĂȘme a suggĂ©rĂ© que les programmes devraient ajouter des erreurs dans leur sortie, de maniĂšre Ă  ĂȘtre de meilleurs « joueurs Â» dans la partie[3].
  • Certains comportements intelligents ne sont pas humains : Le test de Turing ne vĂ©rifie pas la prĂ©sence, ou l'absence, d'un comportement intelligent, tel que la capacitĂ© de rĂ©soudre des problĂšmes difficiles ou de trouver des idĂ©es originales. En fait, elle exige expressĂ©ment la tromperie de la part de la machine : si la machine est plus intelligente qu'un ĂȘtre humain, il lui faut dĂ©libĂ©rĂ©ment Ă©viter de paraĂźtre trop intelligente. Si elle Ă©tait capable de rĂ©soudre un problĂšme de calcul qui serait impossible pour un humain, alors l'interrogateur saurait que le programme n'est pas humain, et la machine ne satisferait pas au test.

Réelle intelligence contre intelligence simulée

Cela ne teste que la façon dont le sujet agit — le comportement extĂ©rieur de la machine. À cet Ă©gard, cela assume une vision comportementaliste ou fonctionnaliste de l'intelligence. L'exemple de ELIZA a suggĂ©rĂ© qu'une machine passant le test peut ĂȘtre en mesure de simuler le comportement conversationnel de l'homme par la suite d'une simple (mais vaste) liste de rĂšgles mĂ©caniques, sans penser, par automatisme.

John Searle avait fait valoir que le comportement externe ne peut pas ĂȘtre utilisĂ© pour dĂ©terminer si une machine pense « rĂ©ellement Â» ou est simplement en train de « simuler l'action de penser[4] Â».

Turing anticipa ces critiques dans son article original[5], Ă©crit que : «  Je ne veux pas donner l'impression que je pense qu'il n'y a aucun mystĂšre quant Ă  la conscience. Il y a, par exemple, en quelque sorte un paradoxe liĂ© Ă  toute tentative visant Ă  la localiser. Mais je ne pense pas que ces mystĂšres aient nĂ©cessairement besoin d'ĂȘtre rĂ©solus avant que nous puissions rĂ©pondre Ă  la question qui nous prĂ©occupe dans cet article.  Â»

Naïveté des interrogateurs et le sophisme anthropomorphique

Le test de Turing suppose que l'interrogateur soit assez sophistiquĂ© pour dĂ©terminer la diffĂ©rence entre le comportement d'une machine et le comportement d'un ĂȘtre humain, bien que les critiques soutiennent que ce n'est pas une compĂ©tence que la plupart des gens ont. Les compĂ©tences prĂ©cises et les connaissances requises par l'interrogateur ne sont pas prĂ©cisĂ©es par Turing dans sa description de l'essai, mais il a utilisĂ© le terme d'« interrogateur moyen Â» : « L'interrogateur moyen n'aurait pas plus de 70 pour cent de chances de faire l'identification exacte aprĂšs cinq minutes d'interrogation[6] Â». Shah et Warwick (2009C) montrent que les experts sont dupes et que la stratĂ©gie de l'interrogateur, « pouvoir Â» ou « solidaritĂ© Â», influe sur l'identification correcte (la seconde Ă©tant plus efficace)[7].

Les agent conversationnels tels que ELIZA ont Ă  maintes reprises dupĂ© des naĂŻfs en leur faisant croire qu'ils sont en communication avec des ĂȘtres humains. Dans ces cas-lĂ , l'« interrogateur Â» n'est mĂȘme pas conscient de la possibilitĂ© qu'il soit en interaction avec un ordinateur. Pour rĂ©ussir Ă  paraĂźtre humaine, la machine n'a pas besoin d'avoir tous les renseignements, et seule une ressemblance superficielle du comportement humain est nĂ©cessaire. La plupart des gens conviennent que ce n'est pas un « vrai Â» test de Turing qui a Ă©tĂ© passĂ© dans des cas « mal informĂ©s Â» tels que celui-ci.

Lors des premiĂšres versions du prix Loebner, des interrogateurs « non-sophistiquĂ© Â» furent utilisĂ©s, et ils ont Ă©tĂ© facilement bernĂ©s par les machines. Depuis 2004, les organisateurs du Prix Loebner ont dĂ©ployĂ© des philosophes, des informaticiens et des journalistes parmi les interrogateurs. Certains d'entre eux ont Ă©tĂ© trompĂ©s par des machines, voir Shah & Warwick (2009a) : Test de Turing cinq minutes, en parallĂšle jumelĂ© en jeu de l'imitation (Ă  paraĂźtre) Kybernetes Turing Test Special Issue.

Michael Shermer souligne que les ĂȘtres humains choisissent systĂ©matiquement de considĂ©rer les objets non-humain comme humains dĂšs qu'ils en ont l'occasion, une erreur appelĂ©e Ă©galement sophisme anthropomorphique : ils parlent Ă  leur voiture, attribuent la volontĂ© et des intentions aux forces naturelles (par exemple, « la nature a horreur du vide Â»), et adorent le soleil comme Ă©tant un ĂȘtre humain ou comme un ĂȘtre douĂ© d'intelligence. Si le test de Turing est appliquĂ© Ă  des objets religieux, Shermer fait valoir que des statues inanimĂ©es, des roches et des lieux ont toujours rĂ©ussi le test, dans une certaine mesure, tout au long de l'histoire. Cette tendance humaine Ă  l'anthropomorphisme abaisse la barre pour le test de Turing, Ă  moins que les interrogateurs soient spĂ©cifiquement formĂ©s pour l'Ă©viter.

IrrĂ©alisme et inutilitĂ© : le test de Turing et la recherche en IA

Les chercheurs en intelligence artificielle font valoir que tenter de faire passer le test de Turing est simplement une distraction au lieu de se consacrer dans des recherches fructueuses. En effet, le test de Turing n'est pas un foyer actif de beaucoup d'efforts acadĂ©miques ou commerciaux, comme Stuart Russell et Peter Norvig Ă©crivent : « Les chercheurs en IA ont consacrĂ© peu d'attention Ă  passer le test de Turing[8] Â». Il y a plusieurs raisons :

PremiÚrement, il existe des façons plus faciles de tester leurs programmes. La plupart des recherches actuelles dans les domaines liés à l'IA visent des objectifs modestes mais précis, tels que l'ordonnancement automatisé, la reconnaissance d'objet ou la logistique. Afin de tester l'intelligence des programmes qui résolvent des problÚmes, les chercheurs en intelligence artificielle leur donnent la tùche à exécuter directement, plutÎt que de passer par le détour qui est de poser la question dans un chat peuplés avec des ordinateurs et des personnes.

DeuxiĂšmement, la crĂ©ation de la vie comme les simulations d'ĂȘtres humains est un problĂšme difficile en soi qui n'a pas besoin d'ĂȘtre rĂ©solu pour atteindre les objectifs fondamentaux de la recherche en IA. Des personnages humains artificiels crĂ©dibles peuvent ĂȘtre intĂ©ressants dans une Ɠuvre d'art, un jeu vidĂ©o ou une interface utilisateur sophistiquĂ©e, mais cela ne fait pas partie de la science de la crĂ©ation de machines intelligentes, qui est la science des machines qui rĂ©solvent des problĂšmes liĂ©s Ă  l'intelligence. Russell et Norvig suggĂšrent une analogie avec l'histoire de l'aviation : les avions sont testĂ©s en fonction de leur vol, non pas en les comparant Ă  des oiseaux. Les essais sur l'aĂ©ronautique, dĂ©veloppent-ils, ne dĂ©finissent pas le but de leur domaine comme une course Ă  l'invention de machines volant si similairement Ă  un pigeon que leurs individus s'y tromperaient[8].

Turing n'a jamais eu l'intention que son test soit utilisĂ© comme une mĂ©thode pour mesurer l'intelligence des programmes d'IA ; il voulait donner un exemple clair et comprĂ©hensible pour contribuer Ă  la discussion sur la philosophie de l'intelligence artificielle[9]. Ainsi, il n'est pas surprenant que le test de Turing ait eu si peu d'influence sur les recherches en Intelligence Artificielle. La philosophie de l'IA, en Ă©crivit John McCarthy, « a peu de chances d'avoir plus d'effet sur la pratique de la recherche en IA que la philosophie de la science en a gĂ©nĂ©ralement sur la pratique de la science[10] Â».

Notes et références

  1. ↑ Extrait du discours « The Mind of Mechanical Man Â» prononcĂ© le 9 juin 1949 lors de la remise de la « Lister Medal Â» Ă  Geoffrey Jefferson par le « Royal College of Surgeons of England Â».
  2. ↑ Dans le film I, Robot, le policier Ă©met la mĂȘme remarque Ă  un robot : « Vous ne pouvez pas Ă©crire un roman ni composer un concerto Â». Le robot lui rĂ©pond simplement : « Et vous ? Â»
  3. ↑ Turing 1950, p. 448
  4. ↑ L'argument a pour but de montrer que, mĂȘme si le test de Turing est une dĂ©finition opĂ©rationnelle d'intelligence, il peut ne pas indiquer que la machine a un esprit, une conscience ou une intentionnalitĂ© (l'intentionnalitĂ© est un terme philosophique pour la puissance de pensĂ©e de l'ĂȘtre « sĂ»r Â» quelque chose).
  5. ↑ Russell et Norvig 2003, p. 958-960 (Identifier l'argument de Searle avec celui des rĂ©ponses de Turing.)
  6. ↑ Turing 1950, p. 442
  7. ↑ Hidden Interlocutor Misidentification in Practical Turing Tests soumis au pĂ©riodique en novembre 2009.
  8. ↑ a et b Russell et Norvig 2003, p. = 3
  9. ↑ Turing, p. 1950, sous le titre The Game Imitation, oĂč il Ă©crit : « Au lieu d'en tenter une dĂ©finition que je remplace la question par une autre, qui est Ă©troitement liĂ©e Ă  elle et est exprimĂ©e en des termes relativement sans ambiguĂŻtĂ©. Â»
  10. ↑ (en) John McCarthy, The Philosophy of Artificial Intelligence

Annexes

Bibliographie

  • Computing machinery and intelligence par Alan Turing, Mind, vol. LIX, no 36, octobre 1950, p. 433-460. Version en ligne : [1], [2]
  • Il existe une traduction de cet article : Alan M. Turing, Les Ordinateurs et l’intelligence, in PensĂ©e et machine, Ă©d. du Champ Vallon, 1983 [Original : Minds and machine, 1964], p. 39-67.
  • Les Ordinateurs et l’Intelligence, in Alan Turing et Jean-Yves Girard, La machine de Turing [dĂ©tail des Ă©ditions], p. 133-175 
  • (en) Roger Penrose, The Emperor's New Mind

Articles connexes

Liens externes


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Test de Turing de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Test de turing — Pour les articles homonymes, voir Turing (homonymie). Le test de Turing est une proposition de test d’intelligence artificielle ayant la facultĂ© d’imiter la conversation humaine. DĂ©crit par Alan Turing en 1950 dans sa publication Computing… 
   WikipĂ©dia en Français

  • Test de Turing — Para otros usos de este tĂ©rmino, vĂ©ase Turing (desambiguaciĂłn). La prueba de Turing. El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una mĂĄquina. Fue expuesto en 1950… 
   Wikipedia Español

  • test de Turing — ● loc. m. â–șINTART Test conçu par Turing, Alan Mathison, afin de dĂ©terminer si un ordinateur pense: on met un expĂ©rimentateur testeur d un cĂŽtĂ©, et une machine et un bonhomme de l autre. Si le testeur se fait avoir par la machine et ne sait pas… 
   Dictionnaire d'informatique francophone

  • Turing test — Test de Turing Pour les articles homonymes, voir Turing (homonymie). Le test de Turing est une proposition de test d’intelligence artificielle ayant la facultĂ© d’imiter la conversation humaine. DĂ©crit par Alan Turing en 1950 dans sa publication… 
   WikipĂ©dia en Français

  • Turing — may refer to:*Alan Turing, after whom the items listed below are ultimately named*Turing (programming language) *Turing (cipher) *Turing completeness *Turing machine *Turing Number *Turing test *Reverse Turing test *Turing Award *Turing Police… 
   Wikipedia

  • Turing (desambiguaciĂłn) — Turing puede referirse a: Alan Turing. Fue un matemĂĄtico, informĂĄtico teĂłrico, criptĂłgrafo y filĂłsofo inglĂ©s. Es considerado uno de los padres de la Ciencia de la computaciĂłn siendo el precursor de la informĂĄtica moderna. Test de Turing. Es una… 
   Wikipedia Español

  • Turing — (homonymie) Cette page d’homonymie rĂ©pertorie les diffĂ©rents sujets et articles partageant un mĂȘme nom. Alan Mathison Turing Ă©tait un mathĂ©maticien et informaticien anglais, considĂ©rĂ© comme l « inventeur Â» de l ordinateur. Son nom est… 
   WikipĂ©dia en Français

  • Turing test — dablink|For the Doctor Who novel named after the test, see The Turing Test (novel).For the opera named after the test, see under the composer, Julian Wagstaff.The Turing test is a proposal for a test of a machine s ability to demonstrate… 
   Wikipedia

  • Test de Voight-Kampff — Voight Kampff Le test d empathie Voight Kampff ou Voigt Kampff[1] (V K) est un outil fictif dans le roman de science fiction de Philip K. Dick Les AndroĂŻdes rĂȘvent ils de moutons Ă©lectriques ?. Il apparait Ă©galement dans le film Blade Runner… 
   WikipĂ©dia en Français

  • Test de voight kampff — Voight Kampff Le test d empathie Voight Kampff ou Voigt Kampff[1] (V K) est un outil fictif dans le roman de science fiction de Philip K. Dick Les AndroĂŻdes rĂȘvent ils de moutons Ă©lectriques ?. Il apparait Ă©galement dans le film Blade Runner… 
   WikipĂ©dia en Français


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.