Intelligence Artificielle

ï»ż
Intelligence Artificielle

Intelligence artificielle

Page d'aide sur l'homonymie Pour les articles homonymes, voir A.I. Intelligence artificielle (film),IA.
Le robot humanoĂŻde ASIMO

L'intelligence artificielle est la « recherche de moyens susceptibles de doter les systĂšmes informatiques de capacitĂ©s intellectuelles comparables Ă  celles des ĂȘtres humains Â»[1].

Sommaire

DĂ©finition

Le terme intelligence artificielle, crĂ©Ă© par John McCarthy, est souvent abrĂ©gĂ© par le sigle IA. Il est dĂ©fini par l’un de ses crĂ©ateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent Ă  des tĂąches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des ĂȘtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mĂ©moire et le raisonnement critique Â».[rĂ©f. nĂ©cessaire] On y trouve donc le cĂŽtĂ© « artificiel Â» atteint par l'usage des ordinateurs ou de processus Ă©lectroniques Ă©laborĂ©s et le cĂŽtĂ© « intelligence Â» associĂ© Ă  son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique de mathĂ©matiques, dans la comprĂ©hension des langues naturelles, dans la perception : visuelle (interprĂ©tation des images et des scĂšnes), auditive (comprĂ©hension du langage parlĂ©) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile.

MĂȘme si elles respectent globalement la dĂ©finition de Minsky, il existe un certain nombre de dĂ©finitions diffĂ©rentes de l'IA qui varient sur deux points fondamentaux[2] :

  • Les dĂ©finitions qui lient la dĂ©finition de l'IA Ă  un aspect humain de l'intelligence, et celles qui la lient Ă  un modĂšle idĂ©al d'intelligence, non forcĂ©ment humaine, nommĂ©e rationalitĂ©.
  • Les dĂ©finitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du systĂšme IA doit ressembler Ă©galement Ă  celui de l'ĂȘtre humain ou ĂȘtre rationnel.
Deep Blue, le premier ordinateur Ă  battre un champion du monde d'Ă©chec en titre.

Histoire

L'origine de l'intelligence artificielle se trouve probablement dans l'article d'Alan Turing « Computing Machinery and Intelligence Â» (Mind, octobre 1950)[3], oĂč Turing explore le problĂšme et propose une expĂ©rience maintenant connue sous le nom de test de Turing dans une tentative de dĂ©finition d'un standard permettant de qualifier une machine de « consciente Â». Il dĂ©veloppe cette idĂ©e dans plusieurs forums, dans la confĂ©rence « L'intelligence de la machine, une idĂ©e hĂ©rĂ©tique Â»[4], dans la confĂ©rence qu'il donne Ă  la BBC 3e programme le 15 mai 1951 « Est-ce que les calculateurs numĂ©riques peuvent penser ? Â»[5] ou la discussion avec M.H.A. Newman, AMT, Sir Geoffrey Jefferson et R.B. Braithwaite le 14 et 23 Jan. 1952 sur le thĂšme « Est-ce que les ordinateurs peuvent penser? Â»[6].

On considĂšre que l'intelligence artificielle, en tant que domaine de recherche, a Ă©tĂ© crĂ©Ă©e Ă  la confĂ©rence qui s'est tenue sur le campus de Dartmouth College pendant l'Ă©tĂ© 1956[7] Ă  laquelle assistaient ceux qui vont marquer la discipline. Ensuite l'intelligence se dĂ©veloppe surtout aux États-Unis Ă  l'universitĂ© Stanford sous l'impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, Ă  l'universitĂ© Carnegie Mellon sous celle de Allen Newell et Herbert Simon et Ă  l'universitĂ© d'Édimbourg sous celle de Donald Michie. En France, l'un des pionniers est Jacques Pitrat.

Intelligence artificielle forte

DĂ©finition

Le concept d’intelligence artificielle forte fait rĂ©fĂ©rence Ă  une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d'une rĂ©elle conscience de soi, de « vrais sentiments Â» (quoi qu’on puisse mettre derriĂšre ces mots), et « une comprĂ©hension de ses propres raisonnements Â» [rĂ©f. nĂ©cessaire].

L’intelligence artificielle forte a servi de moteur Ă  la discipline, mais a Ă©galement suscitĂ© de nombreux dĂ©bats. En se fondant sur le constat que la conscience a un support biologique et donc matĂ©riel, la plupart des scientifiques ne voient pas d’obstacle de principe Ă  crĂ©er un jour une intelligence consciente sur un support matĂ©riel autre que biologique. Selon les tenants de l'IA forte, si Ă  l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'ĂȘtre humain, ce n'est pas un problĂšme d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilitĂ©), il n'y aurait que des limites liĂ©es Ă  l'aptitude humaine Ă  concevoir le programme appropriĂ©. Elle permet notamment de modĂ©liser des idĂ©es abstraites.

Estimation de faisabilité

On peut ĂȘtre tentĂ© de comparer la capacitĂ© de traitement de l'information d'un cerveau humain Ă  celle d'un ordinateur pour estimer la faisabilitĂ© d'une IA forte. Il s'agit cependant d'un exercice purement spĂ©culatif, et la pertinence de cette comparaison n'est pas Ă©tablie. Cette estimation trĂšs grossiĂšre est surtout destinĂ©e Ă  prĂ©ciser les ordres de grandeur en prĂ©sence.

Un ordinateur typique de 1970 effectuait 107 opĂ©rations logiques par seconde, et occupait donc - gĂ©omĂ©triquement - une sorte de milieu entre une balance de Roberval (1 opĂ©ration logique par seconde) et le cerveau humain (grossiĂšrement 2 x 1014 opĂ©rations logiques par seconde, car formĂ© de 2 x 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde)[rĂ©f. nĂ©cessaire].

En 2005, un microprocesseur typique traite 64 bits en parallĂšle (128 dans le cas de machines Ă  double cƓur) Ă  une vitesse typique de 2 GHz, ce qui place en puissance brute dans les 1011 opĂ©rations logiques par seconde. En ce qui concerne ces machines destinĂ©es au particulier, l'Ă©cart s'est donc nettement rĂ©duit. En ce qui concerne les machines comme Blue Gene, il a mĂȘme changĂ© de sens.

Le matériel serait donc maintenant présent. Du logiciel à la mesure de ce matériel resterait à développer. En effet, l'important n'est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain, l'important est de traiter les informations de maniÚre appropriée.

L'IA souligne la difficultĂ© Ă  expliciter toutes les connaissances utiles Ă  la rĂ©solution d'un problĂšme complexe. Certaines connaissances dites implicites sont acquises par l'expĂ©rience et mal formalisables. Par exemple, qu'est-ce qui distingue un visage familier de deux cents autres ? Nous ne savons clairement l'exprimer.

L'apprentissage de ces connaissances implicites par l'expĂ©rience semble une voie prometteuse (voir RĂ©seau de neurones). NĂ©anmoins, un autre type de complexitĂ© apparaĂźt, la complexitĂ© structurelle. Comment mettre en relation des modules spĂ©cialisĂ©s pour traiter un certain type d'informations, par exemple un systĂšme de reconnaissance des formes visuelles, un systĂšme de reconnaissance de la parole, un systĂšme liĂ© Ă  la motivation, Ă  la coordination motrice, au langage, etc. En revanche, une fois un tel systĂšme conçu et un apprentissage par l'expĂ©rience rĂ©alisĂ©, l'intelligence du robot pourrait probablement ĂȘtre dupliquĂ©e en grand nombre d'exemplaires.

Diversité des opinions

Les principales opinions soutenues pour rĂ©pondre Ă  la question d’une intelligence artificielle consciente sont les suivantes :

  • Impossible : la conscience serait le propre des organismes vivants, et elle serait liĂ©e Ă  la nature des systĂšmes biologiques. Cette position est dĂ©fendue principalement par des philosophes et des religieux.
    • ProblĂšme : Elle rappelle toutefois toutes les controverses passĂ©es entre vitalistes et matĂ©rialistes, l'histoire ayant Ă  plusieurs reprises infirmĂ© les positions des premiers.
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systĂšmes dont l’organisation matĂ©rielle serait fondĂ©e sur des processus quantiques. Cette position est dĂ©fendue notamment par Roger Penrose. Des algorithmes quantiques sont thĂ©oriquement capables de mener Ă  bien des calculs hors de l'atteinte pratique des calculateurs conventionnels (complexitĂ© en N \ln(N)~ au lieu de N^2~, par exemple, sous rĂ©serve d'existence du calculateur appropriĂ©). Au-delĂ  de la rapiditĂ©, le fait que l'on puisse envisager des systĂšmes quantiques en mesure de calculer des fonctions non-turing-calculables (voir Hypercalcul) ouvre des possibilitĂ©s qui - selon cet auteur - sont fondamentalement interdites aux machines de Turing.
    • ProblĂšme : On ne dispose pas encore pour le moment d'algorithmes d'IA Ă  mettre en Ɠuvre dessus. Tout cela reste donc spĂ©culatif.
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systĂšmes dont l’organisation matĂ©rielle mimerait le fonctionnement du cerveau humain, par exemple avec des circuits Ă©lectroniques spĂ©cialisĂ©s reproduisant le fonctionnement des neurones.
    • ProblĂšme : Le systĂšme en question rĂ©pondant exactement de la mĂȘme façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une diffĂ©rence ?[8]
  • Impossible avec les algorithmes classiques manipulant des symboles (logique formelle), car de nombreuses connaissances sont difficiles Ă  expliciter mais possible avec un apprentissage par l'expĂ©rience de ces connaissances Ă  l'aide d'outils tels que des rĂ©seaux de neurones formels, dont l'organisation logique et non matĂ©rielle s'inspire des neurones biologiques, et utilisĂ©s avec du matĂ©riel informatique conventionnel.
    • ProblĂšme : si du matĂ©riel informatique conventionnel est utilisĂ© pour rĂ©aliser un rĂ©seau de neurones, alors il est possible de rĂ©aliser l'IA avec les ordinateurs classiques manipulant des symboles (puisque ce sont les mĂȘmes machines, voir ThĂšse de Church-Turing). Cette position parait donc incohĂ©rente. Toutefois, ses dĂ©fenseurs (thĂšse de l'IA forte) arguent que l'impossibilitĂ© en question est liĂ©e Ă  notre inaptitude Ă  tout programmer de maniĂšre explicite, elle n'a rien Ă  voir avec une impossibilitĂ© thĂ©orique. Par ailleurs, ce que fait un ordinateur, un systĂšme Ă  base d'Ă©changes de bouts de papier dans une salle immense peut le simuler quelques milliards de fois plus lentement. Or il peut rester difficile Ă  admettre que cet Ă©change de bouts de papiers « ait une conscience Â». Voir Chambre chinoise. Selon les tenants de l'IA forte, cela ne pose toutefois pas de problĂšme.
  • Impossible car la pensĂ©e n'est pas un phĂ©nomĂšne calculable par des processus discrets et finis. Pour passer d'un Ă©tat de pensĂ©e au suivant, il y a une infinitĂ© non dĂ©nombrable, une continuitĂ© d'Ă©tats transitoires. Cette idĂ©e est rĂ©futĂ©e par Alain Cardon (ModĂ©liser et concevoir une Machine pensante).
  • Possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois Ă  prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage symbolique basĂ© sur la logique des prĂ©dicats, mais aussi les techniques connexionnistes telles que les rĂ©seaux de neurones, qui, Ă  la base, sont dĂ©finies par des symboles. Cette derniĂšre opinion constitue la position la plus engagĂ©e en faveur de l'intelligence artificielle forte.

Des auteurs comme Hofstadter (mais dĂ©jĂ  avant lui Arthur C. Clarke ou Alan Turing) (voir le test de Turing) expriment par ailleurs un doute sur la possibilitĂ© de faire la diffĂ©rence entre une intelligence artificielle qui Ă©prouverait rĂ©ellement une conscience, et une autre qui simulerait exactement ce comportement. AprĂšs tout, nous ne pouvons mĂȘme pas ĂȘtre certains que d’autres consciences que la nĂŽtre (chez des humains s’entend) Ă©prouvent rĂ©ellement quoi que ce soit. On retrouve lĂ  le problĂšme connu du solipsisme en philosophie.

Travaux complémentaires

  • Le mathĂ©maticien de la physique Roger Penrose[9] pense que la conscience viendrait de l'exploitation de phĂ©nomĂšnes quantiques dans le cerveau (voir microtubules), empĂȘchant la simulation rĂ©aliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’oĂč les rĂ©sultats encore trĂšs partiels de l’IA. Il restait jusqu’à prĂ©sent isolĂ© sur cette question. Un autre chercheur a prĂ©sentĂ© depuis une thĂšse de mĂȘme esprit quoique moins radicale : Andrei Kirilyuk[10]
Cette spĂ©culation reste nĂ©anmoins marginale par rapport aux travaux des neurosciences. L'action de phĂ©nomĂšnes quantiques est Ă©vidente dans le cas de la rĂ©tine (quelques quanta de lumiĂšre seulement suffisent Ă  une perception) ou de l'odorat, mais elle ne constitue pas une condition prĂ©alable Ă  un traitement efficace de l'information. En effet, le traitement de l'information effectuĂ© par le cerveau est relativement robuste et ne dĂ©pend pas de l'Ă©tat quantique de chaque molĂ©cule, ni mĂȘme de la prĂ©sence ou de la connexion de neurones isolĂ©s.

Cela dit, l’intelligence artificielle est loin de se limiter aux seuls rĂ©seaux de neurones, qui ne sont gĂ©nĂ©ralement utilisĂ©s que comme classifieurs. Les techniques de rĂ©solution gĂ©nĂ©rale de problĂšmes et la logique des prĂ©dicats[11], entre autres, ont fourni des rĂ©sultats spectaculaires et sont exploitĂ©s par les ingĂ©nieurs dans de nombreux domaines.

Intelligence artificielle faible

La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingĂ©nieur : chercher Ă  construire des systĂšmes de plus en plus autonomes (pour rĂ©duire le coĂ»t de leur supervision), des algorithmes capables de rĂ©soudre des problĂšmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle Ă©tait intelligente. On en voit des exemples concrets avec les programmes qui tentent de passer le test de Turing, comme ELIZA. Ces programmes parviennent Ă  imiter de façon grossiĂšre le comportement d'humains face Ă  d'autres humains lors d'un dialogue. Ces programmes « semblent Â» intelligents, mais ne le sont pas. Les tenants de l'IA forte admettent qu'il y a bien dans ce cas une simulation de comportements intelligents, mais qu'il est aisĂ© de le dĂ©couvrir et qu'on ne peut donc gĂ©nĂ©raliser. En effet, si on ne peut diffĂ©rencier expĂ©rimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prĂ©tendre que les deux choses ont des propriĂ©tĂ©s diffĂ©rentes ? Le terme mĂȘme de « simulation de l'intelligence Â» est contestĂ© et devrait, toujours selon eux, ĂȘtre remplacĂ© par « reproduction de l'intelligence Â».

Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirĂ©es de leur paradigme. Ce serait par exemple la dĂ©marche utilisĂ©e par IBM dans son projet nommĂ© Autonomic computing. La controverse persiste nĂ©anmoins avec les tenants de l'IA forte qui contestent cette interprĂ©tation.

Simple Ă©volution, donc, et non rĂ©volution : l’intelligence artificielle s’inscrit Ă  ce compte dans la droite succession de ce qu’ont Ă©tĂ© la recherche opĂ©rationnelle dans les annĂ©es 1960, le process control dans les annĂ©es 1970, l’aide Ă  la dĂ©cision dans les annĂ©es 1980 et le data mining dans les annĂ©es 1990. Et, qui plus est, avec une certaine continuitĂ©.

Il s'agit surtout d'intelligence humaine reconstituée, et de programmation d'un apprentissage.

Estimation de faisabilité

CritÚres possibles d'un systÚme de dialogue évolué

Le sĂ©manticien François Rastier, aprĂšs avoir rappelĂ© les positions de Turing et de Grice Ă  ce sujet, propose[12] six « prĂ©ceptes Â» conditionnant un systĂšme de dialogue Ă©valuĂ©, en prĂ©cisant qu'elles dĂ©jĂ  sont mises en Ɠuvre par des systĂšmes existants :

  • objectivitĂ© (utilisation d'une base de connaissances par le systĂšme)
  • textualitĂ© (prise en compte d'interventions de plus d'une phrase, qu'elles Ă©manent du systĂšme ou de l'utilisateur)
  • apprentissage (intĂ©gration au moins temporaire d'informations issues des propos de l'utilisateur)
  • questionnement (demande de prĂ©cisions de la part du systĂšme)
  • rectification (suggestion de rectifications Ă  la question posĂ©e, lorsque nĂ©cessaire)
  • explicitation (explicitation par le systĂšme d'une rĂ©ponse qu'il a apportĂ©e prĂ©cĂ©demment).

Il suggĂšre aussi que le systĂšme devrait ĂȘtre en mesure de se faire par lui-mĂȘme une reprĂ©sentation de l'utilisateur auquel il a affaire, pour s'adapter Ă  lui. De son cĂŽtĂ©, l'utilisateur a tendance Ă  s'adapter au systĂšme Ă  partir du moment oĂč il a bien compris qu'il s'adresse Ă  une machine : il ne conversera pas de la mĂȘme maniĂšre avec un systĂšme automatisĂ© qu'avec un interlocuteur humain, ce qui prĂ©sente pour le concepteur l'avantage pragmatique de simplifier certains aspects du dialogue.

Courants de pensée

La cybernĂ©tique naissante des annĂ©es quarante revendiquait trĂšs clairement son caractĂšre pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales
 Et c’est tout naturellement qu’elle envisagea deux approches des systĂšmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle :

  • une approche par la dĂ©composition (du haut vers le bas),
  • une approche contraire par construction progressive du bas vers le haut.

Ces deux approches se rĂ©vĂšlent plutĂŽt complĂ©mentaires que contradictoires : on est Ă  l'aise pour dĂ©composer rapidement ce que l'on connaĂźt bien, et une approche pragmatique Ă  partir des seuls Ă©lements que l'on connaĂźt afin de se familiariser avec les concepts Ă©mergents est plus utile pour le domaines inconnus. Elles sont respectivement Ă  la base des hypothĂšses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005) d'opĂ©rer progressivement leur fusion.

Cognitivisme

Le cognitivisme considĂšre que le vivant, tel un ordinateur (bien que par des procĂ©dĂ©s Ă©videmment trĂšs diffĂ©rents), manipule essentiellement des symboles Ă©lĂ©mentaires. Dans son livre La sociĂ©tĂ© de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget envisage le processus cognitif comme une compĂ©tition d’agents fournissant des rĂ©ponses partielles et dont les avis sont arbitrĂ©s par d’autres agents. Il cite les exemples suivants de Piaget :

  • L’enfant croit d’abord que plus le niveau d’eau est Ă©levĂ© dans un verre, plus il y a d’eau dans ce verre. AprĂšs avoir jouĂ© avec des transvasements successifs, il intĂšgre le fait que la notion de hauteur du liquide dans le verre entre en compĂ©tition avec celle du diamĂštre du verre, et arbitre de son mieux entre les deux.
  • Il vit ensuite une expĂ©rience analogue en manipulant de la pĂąte Ă  modeler : la rĂ©duction de plusieurs objets temporairement reprĂ©sentĂ©s Ă  une mĂȘme boule de pĂąte l’incite Ă  dĂ©gager un concept de conservation de la quantitĂ© de matiĂšre.

Au bout du compte, ces jeux d’enfants se rĂ©vĂšlent essentiels Ă  la formation de l’esprit, qui dĂ©gagent quelques rĂšgles pour arbitrer les diffĂ©rents Ă©lĂ©ments d’apprĂ©ciation qu’il rencontre, par essais et erreurs.

Connexionnisme

Le connexionnisme, se rĂ©fĂ©rant aux processus auto-organisationnels, envisage la cognition comme le rĂ©sultat d’une interaction globale des parties Ă©lĂ©mentaires d’un systĂšme. On ne peut nier que le chien dispose d'une sorte de connaissance des Ă©quations diffĂ©rentielles du mouvement, puisqu’il arrive Ă  attraper un bĂąton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait Ă  partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette facultĂ© qui Ă©voque un peu l’intuition des philosophes se caractĂ©riserait par la prise en compte et la consolidation d’élĂ©ments perceptifs dont aucun pris isolĂ©ment n’atteint le seuil de la conscience, ou en tout cas n’y dĂ©clenche d’interprĂ©tation particuliĂšre.

SynthĂšse

Trois concepts reviennent de façon rĂ©currente dans la plupart des travaux :

  • la redondance (le systĂšme est peu sensible Ă  des pannes ponctuelles)
  • la rĂ©entrance (les composants s'informent en permanence entre eux; cette notion diffĂšre de la rĂ©entrance en programmation)
  • la sĂ©lection (au fil du temps, les comportements efficaces sont dĂ©gagĂ©s et renforcĂ©s)

Les différentes facettes de l'intelligence artificielle

On peut considĂ©rer diffĂ©rents dispositifs intervenant, ensemble ou sĂ©parĂ©ment, dans un systĂšme d’intelligence artificielle tels que :

Les rĂ©alisations actuelles de l’intelligence artificielle peut intervenir dans des fonctions:

  • Aide aux diagnostics.
  • L'aide Ă  la dĂ©cision.
  • RĂ©solution de problĂšmes complexes, tels que les problĂšmes d'allocation de resources.
  • Assistance par des machines dans les tĂąches dangereuses, ou demandant une grande prĂ©cision,
  • Automatisation de taches
  • etc.

La conception de systĂšmes d'IA

Au fil du temps, certains langages de programmation se sont avĂ©rĂ©s plus commodes que d’autres pour Ă©crire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus mĂ©diatisĂ©s. Lisp constituait une solution ingĂ©nieuse pour faire de l’intelligence artificielle en FORTRAN. ELIZA (le premier chatterbot, donc pas de la « vĂ©ritable Â» intelligence artificielle) tenait en trois pages de SNOBOL.

On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme.

Des programmes de dĂ©monstration de thĂ©orĂšmes gĂ©omĂ©triques simples ont existĂ© dĂšs les annĂ©es 1960; et des logiciels aussi triviaux que Maple et Mathematica effectuent aujourd’hui des travaux d’intĂ©gration symbolique qui il y a trente ans encore Ă©taient du ressort d’un Ă©tudiant de mathĂ©matiques supĂ©rieures. Mais ces programmes ne savent pas plus qu’ils effectuent des dĂ©monstrations gĂ©omĂ©triques ou algĂ©briques que Deep Blue ne savait qu’il jouait aux Ă©checs (ou un programme de facturation qu’il calcule une facture). Ces cas reprĂ©sentent donc plus des opĂ©rations intellectuelles assistĂ©es par ordinateur faisant appel Ă  la puissance de calcul que de l'intelligence artificielle Ă  proprement parler[13].

Domaines d’application

L'intelligence artificielle a été et est utilisé (ou interviennent) dans une variété de domaines tels que:

Jeux vidéo

L'intelligence artificielle a par exemple été utilisé depuis longtemps dans la conception de joueur artificiel pour le jeu d'échecs.

Toutefois, c'est dans les jeux vidĂ©o que l'intelligence artificielle s'est rĂ©vĂ©lĂ©e le plus et aussi lĂ  oĂč elle prĂ©sente un trĂšs grand potentiel. Celle-ci bĂ©nĂ©ficie en effet des progrĂšs de l'informatique, avec par exemple les cartes graphiques dĂ©diĂ©es qui dĂ©chargent le processeur principal des tĂąches graphiques, mais aussi grande puissance de calcul disponible. Le processeur principal peut dĂ©sormais ĂȘtre utilisĂ© pour dĂ©velopper des systĂšmes d’IA plus perfectionnĂ©s.

Par exemple l'intelligence artificielle peut ĂȘtre utilisĂ©e pour 'piloter' des bots (cĂ d les caractĂšres artificiels) Ă©voluant dans les MMOGs ou les mondes virtuels, mais on peut aussi citer son utilisation dans des jeux de simulation, ou pour animer des caractĂšres artificiels.

Dans le domaine du jeu vidĂ©o, l’IA caractĂ©rise toute prise de dĂ©cision d’un personnage (ou d’un groupe) gĂ©rĂ© par le jeu, et contraint par l’intĂ©rĂȘt ludique : une « meilleure Â» IA ne donne pas forcĂ©ment un jeu plus jouable[14], l’objectif est de donner l’illusion d’un comportement intelligent[14]. L'Ă©ventail de sujets (recherche de chemin, animation procĂ©durale, planifications stratĂ©giques
) sont rĂ©alisables par diffĂ©rentes techniques classiques issues de deux paradigmes distincts : IA symbolique (automates, script, systĂšmes multi-agents
), et IA situĂ©e (rĂ©seau de neurones, algorithmes Ă©volutionnistes
) ; oĂč l’une est fortement dĂ©pendante de l’expertise humaine, et l’autre de l’expĂ©rience en situation[15]. La premiĂšre approche est globalement prĂ©fĂ©rĂ©e, car mieux contrĂŽlĂ©e, mais la deuxiĂšme est prĂ©fĂ©rĂ©e pour certains comportements (dĂ©placement d’une formation, dĂ©sirs/satisfactions)[16]. Elles partagent toutes les mĂȘmes contraintes de ressources restreintes, que se soit en mĂ©moire, en temps de dĂ©veloppement, ou en temps de calcul, mĂȘme si globalement ces ressources augmentent plus les projets sont rĂ©cents[16].

Jusqu'Ă  la fin des annĂ©es 1990, l’IA dans les jeux vidĂ©o (plus particuliĂšrement dans les jeux en temps rĂ©el) a Ă©tĂ© dĂ©laissĂ©e par rapport au rendu visuel et sonore. L’« Ă©volution vers des univers toujours plus rĂ©alistes, leur peuplement par des personnages [
] aux comportements crĂ©dibles devient une problĂ©matique importante Â»[15]. Pour Ă©viter ce contraste, et couplĂ© dans le mĂȘme temps au dĂ©lestage d’une grosse partie de l’aspect graphique des processeurs vers les cartes graphiques[17], on constate a cette pĂ©riode une augmentation des ressources investies dans l’IA (temps de dĂ©veloppement, ressource processeur)[17]. Certains jeux sont prĂ©curseurs (Creatures, Black & White) car l’IA y constitue l’élĂ©ment central ludique[rĂ©f. nĂ©cessaire]. Partant d’une approche Ă  base de rĂšgles rigides, les jeux utilisent alors des IA plus flexibles, diversifiant les techniques mise en Ɠuvre[14]. Aujourd'hui la plupart des jeux vidĂ©o utilisent des solutions ad hoc, il existe nĂ©anmoins des solutions middleware et Ă©galement des solutions matĂ©rielles[18] toutefois trĂšs minoritaires[rĂ©f. nĂ©cessaire].

Avec les jeux en rĂ©seau, le besoin d’IA a tout d’abord Ă©tĂ© nĂ©gligĂ©[17], mais, particuliĂšrement avec l’apparition des jeux massivement multijoueur, et la prĂ©sence d’un nombre trĂšs important de joueurs humain se confrontant Ă  des personnages non joueur, ces derniers ont un besoin trĂšs important de pouvoir s'adapter Ă  des situations qui ne peuvent ĂȘtre prĂ©vues. Actuellement ces types de jeux intĂ©ressent particuliĂšrement des chercheurs en IA, y trouvant un environnement adĂ©quat pour y Ă©prouver diffĂ©rentes architectures adaptatives[15].

L'« IA scriptĂ©e Â» n'est qu'une reconstitution de l'intelligence, du type : « si le joueur a telle position, alors, que 2 PNJ prennent tel chemin Â», sans que le logiciel sache que cela encercle le joueur.

Précurseurs

Si les progrĂšs de l’intelligence artificielle sont rĂ©cents, ce thĂšme de rĂ©flexion est tout Ă  fait ancien, et il apparaĂźt rĂ©guliĂšrement au cours de l’histoire. Les premiers signes d’intĂ©rĂȘt pour une intelligence artificielle et les principaux prĂ©curseurs de cette discipline sont les suivants.

Automates

voir aussi : Automate
  • Une des plus anciennes traces du thĂšme de « l’homme dans la machine Â» date de 800 avant notre Ăšre, en Égypte. La statue du dieu Amon levait le bras pour dĂ©signer le nouveau pharaon parmi les prĂ©tendants qui dĂ©filaient devant lui, puis elle « prononçait Â» un discours de consĂ©cration. Les Égyptiens Ă©taient probablement conscients de la prĂ©sence d’un prĂȘtre actionnant un mĂ©canisme et dĂ©clarant les paroles sacrĂ©es derriĂšre la statue, mais cela ne semblait pas ĂȘtre pour eux contradictoire avec l’incarnation de la divinitĂ©.
  • Vers la mĂȘme Ă©poque, HomĂšre, dans L'Iliade (XVIII, 370–421), dĂ©crit les automates rĂ©alisĂ©s par le dieu forgeron HĂ©phaĂŻstos : des trĂ©pieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgĂ©es en or qui l’assistent dans sa tĂąche. De mĂȘme, le GĂ©ant de bronze Talos, gardien des rivages de la CrĂšte, Ă©tait parfois considĂ©rĂ© comme une Ɠuvre du dieu.
  • Vitruve, architecte romain, dĂ©crit l’existence entre le IIIe et le Ier siĂšcle avant notre Ăšre, d’une Ă©cole d’ingĂ©nieurs fondĂ©e par Ctesibius Ă  Alexandrie, et concevant des mĂ©canismes destinĂ©s Ă  l’amusement tels des corbeaux qui chantaient.
  • HĂ©ron l'ancien dĂ©crit dans son traitĂ© « Automates Â», un carrousel animĂ© grĂące Ă  la vapeur et considĂ©rĂ© comme anticipant les machines Ă  vapeur.
  • On a prĂȘtĂ© Ă  Roger Bacon la conception d'automates douĂ©s de la parole; en fait, probablement de mĂ©canismes simulant la prononciation de certains mots simples.
  • Gio Battista Aleotti et Salomon de Caus ont construit des oiseaux artificiels et chantants, des flĂ»tistes mĂ©caniques, des nymphes, des dragons et des satyres animĂ©s pour Ă©gayer des fĂȘtes aristocratiques, des jardins et des grottes.
  • RenĂ© Descartes aurait conçu en 1649 un automate qu’il appelait « ma fille Francine Â». Il conduit par ailleurs une rĂ©flexion d’un modernisme Ă©tonnant sur les diffĂ©rences entre la nature des automates, et celles d’une part des animaux (pas de diffĂ©rence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le prĂ©curseur mĂ©connu d’un des principaux thĂšmes de la science-fiction : l'indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androĂŻdes ou les intelligences artificielles.
Le canard artificiel de Vaucanson (1738)
  • Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre dorĂ©, qui boit, mange, cancane, barbote et digĂšre comme un vrai canard Â». Il Ă©tait possible de programmer les mouvements de cet automate, grĂące Ă  des pignons placĂ©s sur un cylindre gravĂ©, qui contrĂŽlaient des baguettes traversant les pattes du canard. L’automate a Ă©tĂ© exposĂ© pendant plusieurs annĂ©es en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mĂ©canisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquĂ©e Ă  partir des aliments ingĂ©rĂ©s, mais prĂ©parĂ©e Ă  l’avance. D’autres estiment que cet avis n’est fondĂ© que sur des imitations du canard de Vaucanson. Malheureusement, l’incendie du MusĂ©e de Nijni Novgorod en Russie vers 1879 dĂ©truisit cet automate.
  • Les artisans Pierre et Louis Jaquet-Droz fabriquĂšrent parmi les meilleurs automates fondĂ©s sur un systĂšme purement mĂ©canique, avant le dĂ©veloppement des dispositifs Ă©lectromĂ©caniques. Certains de ces automates, par un systĂšme de cames multiples, Ă©taient capables d'Ă©crire un petit billet (toujours le mĂȘme).

Pensée automatique

Les processus cognitifs peuvent-ils se rĂ©duire Ă  un simple calcul ? Et si tel est le cas, quels sont les symboles et les rĂšgles Ă  employer ?

Les premiers essais de formalisation de la pensĂ©e sont les suivants :

  • Raymond Lulle, missionnaire, philosophe, et thĂ©ologien espagnol du XIIIe siĂšcle, a fait la premiĂšre tentative pour engendrer des idĂ©es par un systĂšme mĂ©canique. Il combinait alĂ©atoirement des concepts grĂące Ă  une sorte de rĂšgle Ă  calcul, un zairja, sur laquelle pivotaient des disques concentriques gravĂ©s de lettres et de symboles philosophiques. Il baptisa sa mĂ©thode Grand Art (Ars Magna), fondĂ©e sur l’identification de concepts de base, puis leur combinaison mĂ©canique soit entre eux, soit avec des idĂ©es connexes. Raymond Lulle appliqua sa mĂ©thode Ă  la mĂ©taphysique, puis Ă  la morale, Ă  la mĂ©decine et Ă  l’astrologie. Mais il n’utilisait que la logique dĂ©ductive, ce qui ne permettait pas Ă  son systĂšme d’acquĂ©rir un apprentissage, ni davantage de remettre en cause ses principes de dĂ©part : seule la logique inductive le permet.
  • Gottfried Wilhelm Leibniz, au XVIIe siĂšcle, a imaginĂ© un calcul pensant (calculus rationator), en assignant un nombre Ă  chaque concept. La manipulation de ces nombres aurait permis de rĂ©soudre les questions les plus difficiles, et mĂȘme d’aboutir Ă  un langage universel. Leibniz a toutefois dĂ©montrĂ© que l’une des principales difficultĂ©s de cette mĂ©thode, Ă©galement rencontrĂ©e dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idĂ©e de toutes les autres pour simplifier les problĂšmes liĂ©s Ă  la pensĂ©e.
  • George Boole a inventĂ© la formulation mathĂ©matique des processus fondamentaux du raisonnement, connue sous le nom d’algĂšbre de Boole. Il Ă©tait conscient des liens de ses travaux avec les mĂ©canismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : « Les lois de la pensĂ©e Â» (The laws of thought), sur l’algĂšbre boolĂ©enne.
  • Gottlob Frege perfectionna le systĂšme de Boole en inventant le concept de prĂ©dicat, qui est une entitĂ© logique soit vraie, soit fausse (toute maison a un propriĂ©taire), mais contenant des variables non logiques, n’ayant en soit aucun degrĂ© de vĂ©ritĂ© (maison, propriĂ©taire). Cette invention eut une grande importance puisqu’elle permit de dĂ©montrer des thĂ©orĂšmes gĂ©nĂ©raux, simplement en appliquant des rĂšgles typographiques Ă  des ensembles de symboles. La rĂ©flexion en langage courant ne portait plus que sur le choix des rĂšgles Ă  appliquer. Par ailleurs, seul l’utilisateur connaĂźt le sens des symboles qu’il a inventĂ©s, ce qui ramĂšne au problĂšme de la signification en intelligence artificielle, et de la subjectivitĂ© des utilisateurs.
  • Bertrand Russell et Alfred North Whitehead publiĂšrent au dĂ©but du XXe siĂšcle un ouvrage intitulĂ© « Principia mathematica Â», dans lequel ils rĂ©solvent des contradictions internes Ă  la thĂ©orie de Gottlob Frege. Ces travaux laissaient espĂ©rer d’aboutir Ă  une formalisation complĂšte des mathĂ©matiques.
  • Kurt Gödel dĂ©montre au contraire que les mathĂ©matiques resteront une construction ouverte, en publiant en 1931 un article intitulĂ© « Des propositions formellement indĂ©cidables contenues dans les Principia mathematica et autres systĂšmes similaires Â». Sa dĂ©monstration est qu’à partir d’une certaine complexitĂ© d’un systĂšme, on peut y crĂ©er plus de propositions logiques qu’on ne peut en dĂ©montrer vraies ou fausses. L’arithmĂ©tique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carrĂ© soit -1. Ce choix reste arbitraire et n’est en rien liĂ© aux axiomes de base. Le travail de Gödel suggĂšre qu’on pourra crĂ©er ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les prĂ©cĂ©dents, au fur et Ă  mesure qu’on en aura besoin. Si l'arithmĂ©tique est dĂ©montrĂ©e incomplĂšte, le calcul des prĂ©dicats (logique formelle) est au contraire dĂ©montrĂ© par Gödel comme complet.
  • Alan Turing parvient aux mĂȘmes conclusions que Kurt Gödel, en inventant des machines abstraites et universelles (rebaptisĂ©es les machines de Turing), dont les ordinateurs modernes sont considĂ©rĂ©s comme des concrĂ©tisations. Il dĂ©montre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu'il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilitĂ© de machines pensantes rĂ©pondant aux critĂšres du test de Turing.
  • Irving John Good[19], Myron Tribus et E.T. Jaynes ont dĂ©crit de façon trĂšs claire les principes assez simples d’un robot Ă  logique inductive utilisant les principes de l’infĂ©rence bayĂ©sienne pour enrichir sa base de connaissances sur la base du ThĂ©orĂšme de Cox-Jaynes. Ils n’ont malheureusement pas traitĂ© la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraĂźne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondĂ© cette fois-ci sur une logique inductive, et donc propre Ă  rĂ©soudre quelques problĂšmes ouverts.
  • Robot Ă  logique inductive[20]
  • Des chercheurs comme Alonzo Church ont posĂ© des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitĂ©es, ainsi que vers la catĂ©gorisation des problĂšmes selon des classes de difficultĂ© (en rapport avec les travaux de Cantor sur l’infini).

Les questions soulevées par l'Intelligence artificielle

L’intelligence artificielle a connu un essor important pendant les annĂ©es 1960 et 70, mais Ă  la suite de rĂ©sultats dĂ©cevants par rapport aux budgets investis, son succĂšs s’estompa dĂšs le milieu des annĂ©es 1980.

Par ailleurs, un certain nombre de questions se posent telles que la possibilité un jour pour les robots d'accéder à la conscience [21], ou d'éprouver des émotions.

D’aprĂšs certains auteurs, les perspectives de l’intelligence artificielle pourraient avoir des inconvĂ©nients, si par exemple les machines devenaient plus intelligentes que les humains, et finissaient par les dominer, voire (pour les plus pessimistes) les exterminer, de la mĂȘme façon que nous cherchons Ă  exterminer certaines sĂ©quences d’ARN (les virus) alors que nous sommes construits Ă  partir d'ADN, un proche dĂ©rivĂ© de l'ARN. On reconnaĂźt le thĂšme du film Terminator, mais des directeurs de sociĂ©tĂ© techniquement trĂšs compĂ©tents, comme Bill Joy de la sociĂ©tĂ© Sun, affirment considĂ©rer le risque comme rĂ©el Ă  long terme.

Toutes ces possibilitĂ©s futures ont fait l’objet de quantitĂ©s de romans de science-fiction, tels ceux d’Isaac Asimov ou William Gibson en passant par Arthur C. Clarke.

Espoirs et méfiances

Une description spectaculaire d’un possible avenir de l’intelligence artificielle a Ă©tĂ© faite par le professeur I. J. Good :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activitĂ©s intellectuelles, cette machine pourrait Ă  son tour crĂ©er des machines meilleures qu’elle-mĂȘme; cela aurait sans nul doute pour effet une rĂ©action en chaĂźne de dĂ©veloppement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en rĂ©sulte que la machine ultra intelligente sera la derniĂšre invention que l’homme aura besoin de faire, Ă  condition que ladite machine soit assez docile pour constamment lui obĂ©ir. Â»

La situation en question, correspondant Ă  un changement qualitatif du principe mĂȘme de progrĂšs, a Ă©tĂ© nommĂ©e par quelques auteurs « La SingularitĂ© Â»[22].

Good estimait Ă  un peu plus d'une chance sur deux la mise au point d'une telle machine avant la fin du XXe siĂšcle. La prĂ©diction, en 2009, ne s’est pas rĂ©alisĂ©e, mais avait imprĂ©gnĂ© le public : le cours de l’action d'IBM quadrupla (bien que les dividendes trimestriels versĂ©s restĂšrent Ă  peu de chose prĂšs les mĂȘmes) dans les mois qui suivirent la victoire de Deep Blue sur Garry Kasparov. Une large partie du grand public Ă©tait en effet persuadĂ©e qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir fut déçu : une fois sa victoire acquise, Deep Blue, simple calculateur Ă©valuant 200 millions de positions Ă  la seconde, sans conscience du jeu lui-mĂȘme, fut reconverti en machine classique utilisĂ©e pour l'exploration de donnĂ©es. Nous sommes probablement encore trĂšs loin d’une machine possĂ©dant ce que nous nommons de l'intelligence gĂ©nĂ©rale, et tout autant d’une machine possĂ©dant la base de connaissances de n’importe quel chercheur, si humble soit-il.

En revanche, un programme « comprenant Â» un langage naturel et connectĂ© Ă  l'Internet serait thĂ©oriquement susceptible de construire, petit Ă  petit, une sorte de base de connaissances. Nous ignorons cependant tout aujourd'hui (2009) tant de la structure optimale Ă  choisir pour une telle base que du temps nĂ©cessaire Ă  en rassembler et Ă  en agencer le contenu.

L'IA dans la culture populaire

Le thĂšme d’une machine capable d’éprouver une conscience et des sentiments — ou en tout cas de faire comme si — constitue un grand classique de la science-fiction, notamment dans la sĂ©rie de romans d’Isaac Asimov sur les robots. Ce sujet a toutefois Ă©tĂ© exploitĂ© trĂšs tĂŽt, comme dans le rĂ©cit des aventures de Pinocchio, publiĂ© en 1881, oĂč une marionnette capable d’éprouver de l’amour pour son crĂ©ateur, cherche Ă  devenir un vrai petit garçon. Cette trame a fortement inspirĂ© le film A.I. Intelligence artificielle, rĂ©alisĂ© par Steven Spielberg, sur la base des idĂ©es de Stanley Kubrick. L'Ɠuvre de Dan Simmons, notamment le cycle d'HypĂ©rion, contient Ă©galement des exposĂ©s et des dĂ©veloppements sur le sujet. Autre Ɠuvre majeure de la science fiction sur ce thĂšme, Destination vide, de Frank Herbert, met en scĂšne de maniĂšre fascinante l'Ă©mergence d'une intelligence artificielle forte.

Dans la fiction

  • 1927: Metropolis de Fritz Lang (1927), oĂč, dans un monde futuriste, les robots et les humains ne parviennent plus Ă  coexister ;
  • 1968: 2001 : l'odyssĂ©e de l'espace de Stanley Kubrick, inspirĂ© de la nouvelle Sentinelle d'Arthur C. Clarke, Ă©galement auteur du scĂ©nario du film, avec la lutte entre HAL et Dave ;
  • 1969: Colossus : the Forbin project 1969, d’aprĂšs le roman de Dennis Feltham Jones de 1967 (un systĂšme d’IA militaire amĂ©ricain contacte son homologue russe pour qu’ils coopĂšrent Ă  leur mission commune, Ă©viter la guerre nuclĂ©aire... en neutralisant les humains !) a probablement fourni l’idĂ©e de dĂ©part de Terminator.
  • 1973 : Mondwest et son parc d'attractions peuplĂ© de robots.
  • 1977: La Guerre des Ă©toiles avec en particulier R2-D2 et C-3PO.
  • 1981: Blade Runner de Ridley Scott (1981), inspirĂ© du roman Ă©ponyme de Philip K. Dick, oĂč des hommes artificiels reviennent sur terre aprĂšs une mission spatiale (mais n’acceptent pas la mort programmĂ©e suite au succĂšs de leur mission) ;
  • 1982: Tron de Steven Lisberger (1982), oĂč le MaĂźtre contrĂŽle principal (MCP) est un programme d'Ă©chec qui a Ă©voluĂ© en IA et tente de prendre le contrĂŽle total du systĂšme.
  • 1983: WarGames de John Badham (1983) avec Matthew Broderick, oĂč David est un pirate informatique qui par dĂ©fi parvient Ă  contourner les systĂšmes de sĂ©curitĂ© les plus sophistiquĂ©s et Ă  maĂźtriser la derniĂšre gĂ©nĂ©ration des jeux informatiques. Mais quand l'inconscient pĂ©nĂštre sans ĂȘtre repĂ©rĂ© au cƓur de l'ordinateur militaire du Pentagone, ministĂšre de la dĂ©fense amĂ©ricaine (Department of Defense ou DoD), il initie par jeu une confrontation d'ampleur mondiale (le systĂšme Ă©tait prĂ©vu Ă  la base par son crĂ©ateur pour rĂ©aliser des simulations de guerre mais il ne comprend pas qu’il est maintenant rĂ©ellement connectĂ©)
  • 1999: La trilogie des Matrix oĂč les machines asservissent les humains ;
  • 2001: A.I. Intelligence artificielle de Steven Spielberg, inspirĂ© de la nouvelle de Brian Aldiss Les Supertoys durent tout l'Ă©tĂ©. Le personnage central est certainement un aboutissement ultime - mais pour l’instant seulement imaginaire - de l’intelligence artificielle : un enfant-robot douĂ© d’émotions et de sentiments ;
  • 2004: I, Robot avec Will Smith, inspirĂ© de l’Ɠuvre de Isaac Asimov et thĂšme semblable au film AI ;
  • 2005: Furtif de Rob Cohen en 2005. Film mettant en scĂšne un drone (avion sans pilote) de la Navy, dotĂ© d'une intelligence artificielle. Son originalitĂ© rĂ©sidant en sa capacitĂ© d'apprendre en observant les comportements humains, de les reproduire, lui permettant ainsi de communiquer. Mais dans le film, cela va le mener Ă  sa perte puisque EDDY, le drone va se laisser submerger par ses nouvelles capacitĂ©s.
  • 2005: D.A.R.Y.L., Daryl est un enfant amnĂ©sique recueilli sur une route. Mais finalement, le gouvernement cherche Ă  dĂ©truire le data analyzing robot youth lifeform ;
voir aussi
  • Liste des robots au cinĂ©ma
  • Data androĂŻde de Star Trek (Next generation), est un ĂȘtre cybernetique douĂ© d'intelligence, avec des capacitĂ©s importantes d'apprentissage. Il est officier supĂ©rieur sur le vaisseau Enterprise et Ă©volue aux cĂŽtĂ©s de ses coĂ©quipiers humains qui l'inspirent dans sa quĂȘte d'humanitĂ©. Il est la reprĂ©sentation type de l'androĂŻde tel qu'il Ă©tait pensĂ© dans les annĂ©es 80.
  • La trilogie des Terminator avec Arnold Schwarzenegger, oĂč Skynet cherche Ă  Ă©liminer l’espĂšce humaine
  • Ghost in the Shell, oĂč une IA s’éveille Ă  la conscience ;


Bibliographie

Aspects techniques 
  • Alan Turing, Jean-Yves Girard, La machine de Turing, 1995 [dĂ©tail des Ă©ditions] , Les Ordinateurs et l'Intelligence, pp. 133-174
  • Claire RĂ©my, L'Intelligence artificielle, 1994 (ISBN 210002258X) 
  • Jean-Marc Alliot et Thomas Schiex, Intelligence artificielle et informatique thĂ©orique, CEPADUES, 2002 (ISBN 2854285786) 
  • (en) Michael R. Genesereth et Nils J. Nilsson, Logical Foundations of Artificial Intelligence, 1987 [dĂ©tail des Ă©ditions] 
  • Stuart Jonathan Russell et Peter Norvig, Intelligence Artificielle, Pearson education, 2006 (ISBN 978-2744071508) 
  • Jean-Louis LauriĂšre, Intelligence Artificielle, Eyrolles, 1986 
  • Jean-Paul Delahaye, Outils logiques pour l'intelligence artificielle, Eyrolles, 1987 
Aspects philosophiques 
  • Jacques Bolo, Philosophie contre intelligence artificielle, Lingua Franca, 1996, 375 p. (ISBN 2912059003) 
  • Alan Ross Anderson, PensĂ©e et machine, Editions Champ Vallon, 1983 (rĂ©impr. 1993), 150 p. (ISBN 2903528284) 
  • Jean Sallantin et Jean-Jacques Szczeciniarz, Le Concept de preuve Ă  la lumiĂšre de l'intelligence artificielle, Presses universitaires de France, 1999, 370 p. (ISBN 2130501044) 
Fondements cognitifs, psychologiques et biologiques 
  • HervĂ© Chaudet et Liliane Pellegrin, Intelligence artificielle et psychologie cognitive, Dunod, 1998, 179 p. (ISBN 2100029894) 
Aspects linguistiques 
  • GĂ©rard Sabah, L'intelligence artificielle et le langage, ReprĂ©sentations des connaissances, Processus de comprĂ©hension, vol. 1, HermĂšs, 1989 (ISBN 2-86601-134-1) 
  • GĂ©rard Sabah, L'intelligence artificielle et le langage, ReprĂ©sentations des connaissances, Processus de comprĂ©hension, vol. 2, HermĂšs, 1990, 768 p. (ISBN 2-86601-187-2) 
  • GĂ©rard Sabah, ComprĂ©hension des langues et interaction (TraitĂ© IC2, SĂ©rie Cognition et Traitement de l'Information), HermĂšs science: Lavoisier, 2006 (ISBN 2-7462-1256-0) 
Vulgarisation 
  • GĂ©rard Tisseau et Jacques Pitrat, Intelligence artificielle : problĂšmes et mĂ©thodes, Presses universitaires de France, 1996, 255 p. (ISBN 2130474292) 
  • Daniel Crevier et Nathalie Bukcek, À la recherche de l'intelligence artificielle, Flammarion, 1997 (ISBN 2080814281) , (traduction de (en) The Tumultuous history of the search for artiticial intelligence.)
  • Jack Challoner, L'Intelligence artificielle : Un guide d'initiation au futur de l'informatique et de la robotique, Pearson Education, 2003 (ISBN 2744016004) 

Notes et références

  1. ↑ La Recherche, janv. 1979, no 96, vol. 10, p. 61, citĂ© par le dictionnaire du CNTRL.
  2. ↑ (en) Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall, 2003, 932 p. (ISBN 0-13-790395-2)  Section 1.1
  3. ↑ RepubliĂ© dans Collected Works of A. M. Turing, volume Mechanical Intelligence, ed. Darrel Ince, ISBN 0-444-88058-5
  4. ↑ ConfĂ©rence Intelligent machinery, a heretical theory donnĂ©e Ă  la SociĂ©tĂ© 51 Ă  Manchester
  5. ↑ « Can digital computers think? Â»
  6. ↑ « Can automatic calculating machines be said to think? Â»
  7. ↑ Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3, p. 17
  8. ↑ Voir la Thùse CPC de Bruno Marchal, Thùse de Church-Turing
  9. ↑ Page de Roger Penrose
  10. ↑ Page d'Andrei Kirilyuk
  11. ↑ voir (en)Logical Foundations of Artificial Intelligence, chap. 2.2 Predicate Calculus, pp. 13-20
  12. ↑ François Rastier, SĂ©mantique et recherches cognitives, PUF, 2001 (2e Ă©d.)
  13. ↑ (en)Interview et Commentaires sur « Game Over: Kasparov and the Machine Â» (PDF)
  14. ↑ a , b  et c  (en) Game AI: The State of the Industry, Part Two, David C. Pottinger, John E. Laird, Gamasutra, 8 novembre 2000
  15. ↑ a , b  et c  MHiCS, une architecture de sĂ©lection de l'action motivationnelle et hiĂ©rarchique Ă  systĂšmes de classeurs pour personnages non joueurs adaptatifs, Gabriel Robert, LIP6, 2005
  16. ↑ a  et b  (en) Game AI: The State of the Industry, Steven Woodcock, Gamasutra, 1 novembre 2000
  17. ↑ a , b  et c  (en) Game AI: The State of the Industry, Steve Woodcock, Gamasutra, 1998
  18. ↑ Aiseek
  19. ↑ Irving John Good
  20. ↑ (en) Robot à logique inductive (en anglais, PDF)
  21. ↑ L'intelligence artificielle est-elle limitĂ©e ? chat avec Gilbert Chauvet et Christophe Jacquemin qui eu lieu le 22 novembre 2006.
  22. ↑ Scruter la SingularitĂ©, Eliezer S. Yudkowsky, mai 2004

Voir aussi

Articles connexes

Sujets & domaines connexes
Principales techniques liĂ©es Ă  l’intelligence artificielle
Grand noms de l’intelligence artificielle
PersonnalitĂ©s notables de l’intelligence artificielle dans l'espace francophone

Liens et documents externes

Français

Anglais

  • Portail de l’informatique Portail de l’informatique
  • Portail de la science-fiction Portail de la science-fiction
Ce document provient de « Intelligence artificielle ».

Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Intelligence Artificielle de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • Intelligence artificielle — ● Intelligence artificielle ensemble de thĂ©ories et de techniques mises en Ɠuvre en vue de rĂ©aliser des machines capables de simuler l intelligence humaine 
   EncyclopĂ©die Universelle

  • Intelligence artificielle — Pour les articles homonymes, voir A.I. Intelligence artificielle (film), IA. Le robot humanoĂŻde ASIMO L intelligence artificielle est la 
   WikipĂ©dia en Français

  • intelligence artificielle — dirbtinis intelektas statusas T sritis automatika atitikmenys: angl. artificial intillegence; machine intelligence vok. kĂŒnstliche Intelligenz, f rus. ОсĐșусстĐČĐ”ĐœĐœŃ‹Đč ĐžĐœŃ‚Đ”Đ»Đ»Đ”Đșт, m pranc. intelligence artificielle, f 
   Automatikos terminĆł ĆŸodynas

  • intelligence artificielle — ● loc. f. â–șINTART Simulation par ordinateur des processus de la pensĂ©e. (Un problĂšme AI Complet est un problĂšme nĂ©cessitant la mise au point d un cerveau humain artificiel). AbrĂ©gĂ© souvent en IA. Version Brit.: AI. Le langage le plus utilisĂ© en… 
   Dictionnaire d'informatique francophone

  • intelligence artificielle —  (IA)   L’IA est une science carrefour (informatique, linguistique, logique, neurologie, psychologie)   Etude des facultes mentales a travers l’utilisation de modeles informatiques. [Charniak et McDermott, 80]   Etude des methodes permettant aux… 
   Glossaire de linguistique computationnelle

  • Intelligence Artificielle DistribuĂ©e — L Intelligence Artificielle DistribuĂ©e (IAD) est une branche de l Intelligence artificielle. On distinguera : le principe d adapter les approches de l Intelligence Artificielle classique sur une architecture distribuĂ©e (par exemple avec une… 
   WikipĂ©dia en Français

  • Intelligence artificielle distribuee — Intelligence artificielle distribuĂ©e L Intelligence Artificielle DistribuĂ©e (IAD) est une branche de l Intelligence artificielle. On distinguera : le principe d adapter les approches de l Intelligence Artificielle classique sur une… 
   WikipĂ©dia en Français

  • Intelligence artificielle distribuĂ©e — L Intelligence Artificielle DistribuĂ©e (IAD) est une branche de l Intelligence artificielle. On distinguera : le principe d adapter les approches de l Intelligence Artificielle classique sur une architecture distribuĂ©e (par exemple avec une… 
   WikipĂ©dia en Français

  • Principaux projets et realisations en intelligence artificielle — Principaux projets et rĂ©alisations en intelligence artificielle Cette liste indique les principaux projets et rĂ©alisations marquants dans le domaine de l’intelligence artificielle. La quasi totalitĂ© de ces travaux ont Ă©tĂ© accomplis aux États Unis 
   WikipĂ©dia en Français

  • A.I. Intelligence artificielle — Pour les articles homonymes, voir AI. A.I. Intelligence artificielle DonnĂ©es clĂ©s Titre original Artificial Intelligence: AI RĂ©alisation Steven Spielberg ScĂ©nario 
   WikipĂ©dia en Français


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.