Ordinateur

ï»ż
Ordinateur

Un ordinateur est une machine électronique qui fonctionne par la lecture séquentielle d'un ensemble d'instructions qui lui font exécuter des opérations logiques et arithmétiques sur des chiffres binaires.

DÚs sa mise sous tension, un ordinateur exécute, l'une aprÚs l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données auquel il a accÚs. Des tests et des sauts conditionnels permettent de changer d'instruction suivante, et donc d'agir différemment en fonction des données ou des nécessités du moment.

Les données à manipuler sont obtenues, soit par la lecture de mémoires, soit par la lecture de composants d'interface (périphériques) qui représentent des données physiques extérieures en valeurs binaires (déplacement d'une souris, touche appuyée sur un clavier, température, vitesse, compression...). Une fois utilisées, ou manipulées, les données sont réécrites, soit dans des mémoires, soit dans des composants qui peuvent transformer une valeur binaire en une action physique (écriture sur une imprimante ou sur un moniteur, accélération ou freinage d'un véhicule, changement de température d'un four ...).

L'ordinateur peut aussi rĂ©pondre Ă  des interruptions qui lui permettent d’exĂ©cuter des programmes de rĂ©ponses spĂ©cifiques Ă  chacune, puis de reprendre l’exĂ©cution sĂ©quentielle du programme interrompu.

La technique actuelle des ordinateurs date du milieu du xxe siĂšcle. Ils peuvent ĂȘtre classĂ©s selon plusieurs critĂšres[1] (domaine d'application, taille ou architecture).

Sommaire

Étymologie

Ordinateur apparait dans les dictionnaires du XIXe siÚcle comme synonyme peu usuel de ordonnateur: celui qui met en ordre[2]. Puis la locution ordinateur électronique désigne en 1960 une machine qui lit et classe sans intervention humaine[3].

Historique

Article dĂ©taillĂ© : Histoire des ordinateurs.

Les machines Ă  calculer jouĂšrent un rĂŽle primordial dans le dĂ©veloppement des ordinateurs pour deux raisons tout Ă  fait indĂ©pendantes. D'une part, pour leurs origines, c'est pendant le dĂ©veloppement d'une machine Ă  calculer diffĂ©rentielle que Charles Babbage imagina l’ancĂȘtre des ordinateurs: une machine Ă  calculer programmĂ©e par la lecture de cartes perforĂ©es (identiques Ă  celles du mĂ©tier Ă  tisser Jacquard) avec mĂ©moires et imprimantes, qui inspirera le dĂ©veloppement des premiers ordinateurs cent ans plus tard (Z3, ABC, ENIAC, SSEM...) et qui nous amĂšnera aux mainframes des annĂ©es 1960. D'autre part, pour leur propagation, grĂące Ă  la sĂ©rendipitĂ© de l'invention du premier microprocesseur, qui fut inventĂ© par Intel pendant le dĂ©veloppement d'une machine Ă  calculer Ă©lectronique en 1971, qui est Ă  l'origine de l'explosion de la micro-informatique Ă  partir de 1975[4] et qui rĂ©side au cƓur de tous les ordinateurs actuels quels que soit leurs tailles ou fonctions.

Outre les avancĂ©es observĂ©es dans l'industrie du textile et celles de l'Ă©lectronique, les avancĂ©es de la mĂ©canographie Ă  la fin du XIXe siĂšcle, pour achever les recensements aux Etats-Unis d'AmĂ©rique, la mĂ©canisation de la cryptographie au dĂ©but du XXe siĂšcle, pour crypter puis dĂ©crypter automatiquement des messages, le dĂ©veloppement des rĂ©seaux tĂ©lĂ©phoniques (Ă  base de relais Ă©lectromĂ©caniques), sont aussi Ă  prendre en compte pour comprendre l'avĂšnement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprĂštent des programmes qui -eux- calculent.

Pour le monde des idĂ©es, avant l'invention de ces nouvelles machines, l'Ă©lĂ©ment fondateur de la science informatique est en 1936, la publication de l'article (en) [PDF] On Computable Numbers with an Application to the Entscheidungsproblem par Alan Turing qui allait dĂ©placer le centre de prĂ©occupation de certains scientifiques (mathĂ©maticiens et logiciens) de l'Ă©poque, du sujet de la calculabilitĂ© (ou dĂ©cidabilitĂ©) ouvert par Hilbert, malmenĂ© par GodĂ«l, Ă©clairci par Church, vers le sujet de la mĂ©canisation du calcul (ou calculabilitĂ© effective). Dans ce texte de 35 pages, Turing expose une machine thĂ©orique capable d'effectuer tout calcul ; il dĂ©montre que cette machine est aussi puissante, au niveau du calcul, que tout ĂȘtre humain. Autrement dit, un problĂšme mathĂ©matique possĂšde une solution, si et seulement si, il existe une machine de Turing capable de rĂ©soudre ce problĂšme. Par la suite, il expose une machine de Turing universelle apte Ă  reproduire toute machine de Turing, il s'agit des concepts d'ordinateur, de programmation et de programme. Il termine en dĂ©montrant qu'il existe au moins un problĂšme mathĂ©matique formellement insoluble, le problĂšme de l'arrĂȘt.

Peu avant la Seconde Guerre mondiale, apparurent les premiÚres calculatrices électromécaniques, construites selon les idées d'Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.

Le premier ordinateur fonctionnant en langage binaire fut le Colossus, conçu lors de la Seconde Guerre Mondiale, il n'Ă©tait pas Turing-complet bien qu'Alan Turing ait travaillĂ© au projet. À la fin de la guerre, il fut dĂ©montĂ© et cachĂ© Ă  cause de son importance stratĂ©gique. L'ENIAC, mis en service en 1946, est le premier ordinateur entiĂšrement Ă©lectronique construit pour ĂȘtre Turing-complet. Pendant ce projet (en juin 1945 un an avant la dĂ©monstration de l'ENIAC) est publiĂ© un article fondateur : (en) [PDF] First Draft of a Report on the EDVAC par John von Neumann donnant les bases de l'architecture utilisĂ©e dans la quasi totalitĂ© des ordinateurs depuis lors. Dans cet article Von Neumann veut concevoir un programme enregistrĂ© et programmĂ© dans la machine. La premiĂšre machine correspondant Ă  cette architecture, dite depuis architecture de von Neumann, ne fut pas l'EDVAC qui ne sera livrĂ© qu'en Aout 1949, mais une machine expĂ©rimentale la Small-Scale Experimental Machine (SSEM ou "baby") construite Ă  Manchester en juillet 1948.

Le mot ordinateur fut introduit par IBM France en 1955. François Girard, alors responsable du service publicitĂ© de l'entreprise, eut l'idĂ©e de consulter son ancien professeur de lettres Ă  Paris, Jacques Perret, afin de lui demander de proposer un mot caractĂ©risant le mieux possible ce que l'on appelait vulgairement un calculateur (traduction littĂ©rale du mot anglais « computer Â»). Ce dernier proposa « ordinateur Â», un mot tombĂ© en dĂ©suĂ©tude dĂ©signant anciennement un ordonnateur, voire la notion d'ordre ecclĂ©siastique dans l'Ă©glise catholique (ordinant)[5],[6]. Le professeur suggĂ©ra plus prĂ©cisĂ©ment « ordinatrice Ă©lectronique Â», le fĂ©minin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot[7],[8]. Le premier ordinateur multitĂąches est le Bull Gamma 60 en 1958.

Le premier ordinateur dit familial est l'Apple II, lancé en janvier 1977. Il a été suivi de nombreux autres, notamment l'Atari 400 en 1979, le TI99/4A, l'Hector et le Sinclair ZX81 en 1981, les MSX, le Commodore 64 en 1982, l'Oric-1 en 1983, l'Apple IIe, l'Amstrad CPC 464 en 1984 (suivi des 664 puis 6128)[9].

Généralités

Les ordinateurs furent d'abord utilisĂ©s pour le calcul (en nombres entiers d'abord, puis flottants). On ne peut cependant les assimiler Ă  de simples calculateurs : en effet, le rĂ©sultat du traitement d'un ordinateur peut ĂȘtre non seulement une sĂ©rie de nombres, mais aussi un nouveau programme (utilisable par cet ordinateur ou par un autre).

  • Dans l'architecture de von Neumann, les donnĂ©es sont banalisĂ©es et peuvent ĂȘtre interprĂ©tĂ©es indiffĂ©remment comme des nombres, des instructions, des valeurs logiques ou tout symbole dĂ©fini arbitrairement (lettre de l’alphabet, par exemple).
  • Le calcul reprĂ©sente une des applications possibles. Dans ce cas, les donnĂ©es sont traitĂ©es comme des nombres.
  • L’ordinateur est utilisĂ© aussi pour ses possibilitĂ©s d'organisation de l’information, entre autres sur des pĂ©riphĂ©riques de stockage magnĂ©tique. On a calculĂ© Ă  la fin des annĂ©es 1980 que sans les ordinateurs il faudrait toute la population française juste pour faire dans ce pays le seul travail des banques.
    • Cette capacitĂ© d’organiser les informations a gĂ©nĂ©ralisĂ© l’usage du traitement de texte dans le grand public ;
    • la gestion des bases de donnĂ©es relationnelles permet Ă©galement de retrouver et de consolider des informations rĂ©parties vues par l'utilisateur comme plusieurs tables indĂ©pendantes.

Cette crĂ©ation d'un nĂ©ologisme fut Ă  l'origine de traductions multiples des expressions supercomputer, superordinateur ou supercalculateur, et Quantum computer, calculateur quantique ou ordinateur quantique. Dans ce dernier cas, l'utilisation du mot « ordinateur Â» est justement surfaite car les possibilitĂ©s envisageables pour le calcul quantique sont loin de la polyvalence d'un « ordinateur Â».

L’expĂ©rience a appris Ă  distinguer dans un ordinateur deux aspects, dont le second avait Ă©tĂ© au dĂ©part sous-estimĂ© :

  • l’architecture physique, matĂ©rielle (alias hardware ou hard) ;
  • l’architecture logicielle (alias software ou soft) ; un ordinateur trĂšs avancĂ© techniquement pour son Ă©poque comme le Gamma 60 de la compagnie Bull n’eut pas le succĂšs attendu, pour la simple raison qu’il existait peu de moyens de mettre en Ɠuvre commodĂ©ment ses possibilitĂ©s techniques. Le logiciel - et son complĂ©ment les services (formation, maintenance, ...) - forme depuis le milieu des annĂ©es 1980 l’essentiel des coĂ»ts d’équipement informatique, le matĂ©riel n’y ayant qu’une part minoritaire.

Les ordinateurs peuvent ĂȘtre sensibles aux bombes IEM.

Fonctionnement d’un ordinateur

Vue d'ensemble des différents organes d'un ordinateur

Parmi toutes les machines inventĂ©es par l'Homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant :

Organe d'entrée. Organe de traitement de l'information. Organe de sortie

Chez l'Homme, les organes d'entrée sont les cinq sens, l'organe de traitement est le cerveau dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les muscles. Pour les ordinateurs modernes, les organes d'entrée sont le clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD, etc.

ÉclatĂ© d'un ordinateur

Les techniques utilisĂ©es pour fabriquer ces machines ont Ă©normĂ©ment changĂ© depuis les annĂ©es 1940 et sont devenues une technologie (c’est-Ă -dire un ensemble industriel organisĂ© autour de techniques) Ă  part entiĂšre depuis les annĂ©es 1970. Beaucoup utilisent encore les concepts dĂ©finis par John von Neumann, bien que cette architecture soit en rĂ©gression : les programmes ne se modifient plus guĂšre eux-mĂȘmes (ce qui serait considĂ©rĂ© comme une mauvaise pratique de programmation), et le matĂ©riel prend en compte cette nouvelle donne en sĂ©parant aujourd'hui nettement le stockage des instructions et des donnĂ©es, y compris dans les caches.

L’architecture de von Neumann dĂ©composait l’ordinateur en quatre parties distinctes :

  1. l’unitĂ© arithmĂ©tique et logique (UAL) ou unitĂ© de traitement : son rĂŽle est d’effectuer les opĂ©rations de base, un peu comme le ferait une calculatrice ;
  2. l’unitĂ© de contrĂŽle. C’est l’équivalent des doigts qui actionneraient la calculatrice ;
  3. la mĂ©moire qui contient Ă  la fois les donnĂ©es et le programme qui dira Ă  l’unitĂ© de contrĂŽle quels calculs faire sur ces donnĂ©es. La mĂ©moire se divise entre mĂ©moire vive (programmes et donnĂ©es en cours de fonctionnement) et mĂ©moire permanente (programmes et donnĂ©es de base de la machine) ;
  4. les entrĂ©es-sorties : dispositifs qui permettent de communiquer avec le monde extĂ©rieur.

UAL et UC

L’unitĂ© arithmĂ©tique et logique ou UAL est l’élĂ©ment qui rĂ©alise les opĂ©rations Ă©lĂ©mentaires (additions, soustractions...), les opĂ©rateurs logiques (ET, OU, NI, etc.) et les opĂ©rations de comparaison (par exemple la comparaison d’égalitĂ© entre deux zones de mĂ©moire). C’est l’UAL qui effectue les calculs de l’ordinateur.

L’unitĂ© de contrĂŽle prend ses instructions dans la mĂ©moire. Celles-ci lui indiquent ce qu’elle doit ordonner Ă  l’UAL et, comment elle devra Ă©ventuellement agir selon les rĂ©sultats que celle-ci lui fournira. Une fois l’opĂ©ration terminĂ©e, l’unitĂ© de contrĂŽle passe soit Ă  l’instruction suivante, soit Ă  une autre instruction Ă  laquelle le programme lui ordonne de se brancher.

L'unité de contrÎle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Elle gÚre la plupart des exécutions des instructions dans l'ordinateur.

MĂ©moire

Au sein du systĂšme, la mĂ©moire peut ĂȘtre dĂ©crite comme une suite de cellules numĂ©rotĂ©es contenant chacune une petite quantitĂ© d’informations. Cette information peut servir Ă  indiquer Ă  l’ordinateur ce qu’il doit faire (instructions) ou contenir des donnĂ©es Ă  traiter. Dans la plupart des architectures, c'est la mĂȘme mĂ©moire qui est utilisĂ©e pour les deux fonctions. Dans les calculateurs massivement parallĂšles, on admet mĂȘme que des instructions de programmes soient substituĂ©es Ă  d’autres en cours d’opĂ©ration lorsque cela se traduit par une plus grande efficacitĂ©. Cette pratique Ă©tait jadis courante, mais les impĂ©ratifs de lisibilitĂ© du gĂ©nie logiciel l'ont fait rĂ©gresser, hormis dans ce cas particulier, depuis plusieurs dĂ©cennies.

Cette mĂ©moire peut ĂȘtre rĂ©Ă©crite autant de fois que nĂ©cessaire. La taille de chacun des blocs de mĂ©moire ainsi que la technologie utilisĂ©e ont variĂ© selon les coĂ»ts et les besoins : 8 bits pour les tĂ©lĂ©communications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par ĂȘtre trouvĂ© autour de l’octet comme unitĂ© adressable et d’instructions sur format de 4 ou 8 octets.

Dans tous les cas de figure, l'octet reste adressable, ce qui simplifie l'Ă©criture des programmes.

Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.

Entrées-Sorties

Les dispositifs d’entrĂ©e/sortie permettent Ă  l’ordinateur de communiquer avec l’extĂ©rieur. Ces dispositifs sont trĂšs importants, du clavier Ă  l’écran. La carte rĂ©seau permet par exemple de relier les ordinateurs en rĂ©seau informatique, dont le plus grand est Internet.

Le point commun entre tous les pĂ©riphĂ©riques d’entrĂ©e est qu’ils convertissent l’information qu’ils rĂ©cupĂšrent de l’extĂ©rieur en donnĂ©es comprĂ©hensibles par l’ordinateur. À l’inverse, les pĂ©riphĂ©riques de sortie dĂ©codent l’information fournie par l’ordinateur afin de la rendre comprĂ©hensible par l’utilisateur.

Bus

Ces différentes parties sont reliées par trois bus, le bus d'adresse, le bus de données et le bus de commande. Un bus est un groupement d'un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits.

Le bus d'adresse transporte les adresses gĂ©nĂ©rĂ©es par l'UCT (UnitĂ© Centrale de Traitement) pour sĂ©lectionner une case mĂ©moire ou un registre interne de l'un des blocs. Le nombre de bits vĂ©hiculĂ©s par ce bus dĂ©pend de la quantitĂ© de mĂ©moire qui doit ĂȘtre adressĂ©e.

Le bus de données transporte les données échangées entre les différents éléments du systÚme.

Le bus de contrĂŽle transporte les diffĂ©rents signaux de synchronisation nĂ©cessaires au fonctionnement du systĂšme : signal de lecture (RD), signal d'Ă©criture (WR), signal de sĂ©lection (CS : Chip Select).

Architecture

La miniaturisation permet d’intĂ©grer l’UAL et l’unitĂ© de contrĂŽle au sein d’un mĂȘme circuit intĂ©grĂ© connu sous le nom de microprocesseur.

Typiquement, la mĂ©moire est situĂ©e sur des circuits intĂ©grĂ©s proches du processeur, une partie de cette mĂ©moire, la mĂ©moire cache, pouvant ĂȘtre situĂ©e sur le mĂȘme circuit intĂ©grĂ© que l’UAL.

L’ensemble est, sur la plupart des architectures, complĂ©tĂ© d’une horloge qui cadence le processeur. Bien sĂ»r, on souhaite qu'elle soit le plus rapide possible, mais on ne peut pas augmenter sans limites sa vitesse pour deux raisons :

  • plus l’horloge est rapide et plus le processeur dĂ©gage de la chaleur (selon le carrĂ© de la frĂ©quence). Une trop grande tempĂ©rature peut dĂ©tĂ©riorer le processeur ;
  • il existe une cadence oĂč le processeur devient instable ; il gĂ©nĂšre des erreurs qui mĂšnent le plus souvent Ă  un plantage.

La tendance a Ă©tĂ© Ă  partir de 2004 de regrouper plusieurs UAL dans le mĂȘme processeur, voire plusieurs processeurs dans la mĂȘme puce. En effet, la miniaturisation progressive (voir Loi de Moore) le permet sans grand changement de coĂ»t. Une autre tendance, depuis 2006 chez ARM, est aux microprocesseurs sans horloge : la moitiĂ© de la dissipation thermique est en effet due aux signaux d'horloge quand le microprocesseur fonctionne ; de plus, un microprocesseur sans horloge a une consommation presque nulle quand il ne fonctionne pas : le seul signal d'horloge nĂ©cessaire est alors celui destinĂ© au rafraĂźchissement des mĂ©moires. Cet atout est important pour les modĂšles portables.

Le principal Ă©cart fonctionnel aujourd’hui par rapport au modĂšle de Von Neumann est la prĂ©sence sur certaines architectures de deux antĂ©mĂ©moires diffĂ©rentes : une pour les instructions et une pour les donnĂ©es (alors que le modĂšle de Von Neumann spĂ©cifiait une mĂ©moire commune pour les deux). La raison de cet Ă©cart est que la modification par un programme de ses propres instructions est aujourd’hui considĂ©rĂ©e (sauf sur les machines hautement parallĂšles) comme une pratique Ă  proscrire. DĂšs lors, si le contenu du cache de donnĂ©es doit ĂȘtre rĂ©crit en mĂ©moire principale quand il est modifiĂ©, on sait que celui du cache d’instructions n’aura jamais Ă  l’ĂȘtre, d’oĂč simplification des circuits et gain de performance.

Instructions

Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matĂ©riel sait juste exĂ©cuter un nombre limitĂ© d’instructions bien dĂ©finies. Des instructions typiques comprises par un ordinateur sont « copier le contenu de la cellule 123 et le placer dans la cellule 456 Â», « ajouter le contenu de la cellule 321 Ă  celui de la cellule 654 et placer le rĂ©sultat dans la cellule 777 Â» et « si le contenu de la cellule 999 vaut 0, exĂ©cuter l’instruction Ă  la cellule 345 Â». Mais la plupart des instructions se composent de deux zones : l’une indiquant quoi faire, qu’on nomme le code opĂ©ration, et l’autre indiquant oĂč le faire, qu’on nomme opĂ©rande.

Au sein de l’ordinateur, les instructions correspondent Ă  des codes - le code pour une copie Ă©tant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son langage machine, langage qui est une succession de chiffres binaires, car les instructions et donnĂ©es qui sont comprises par le processeur (CPU) sont constituĂ©es uniquement de 0 (zĂ©ro) et de 1 (un). 0 = Le courant Ă©lectrique ne passe pas. 1 = Le courant Ă©lectrique passe.

En gĂ©nĂ©ral, les programmeurs n’utilisent plus ce type de langage, mais passent par ce que l’on appelle un langage de haut niveau qui est ensuite transformĂ© en langage binaire par un programme spĂ©cial (interprĂ©teur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilĂ©s comprĂ©hensibles par l'ordinateur dans son langage natif.

Certains langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont trĂšs proches de celles de l’ordinateur. Les programmes Ă©crits dans ces langages sont ainsi trĂšs dĂ©pendants de la plate-forme pour laquelle ils ont Ă©tĂ© dĂ©veloppĂ©s. Le langage C, beaucoup plus facile Ă  relire que l’assembleur, permet donc aux programmeurs d’ĂȘtre plus productifs. Pour cette raison, on l’a vu de plus en plus utilisĂ© Ă  mesure que les coĂ»ts du matĂ©riel diminuaient et que les salaires horaires des programmeurs augmentaient.

Logiciels

Article dĂ©taillĂ© : Logiciel.

Les logiciels informatiques sont de longues listes d’instructions exĂ©cutables par un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuĂ©es pour certaines de maniĂšre rĂ©pĂ©titive. De nos jours, un ordinateur personnel exĂ©cute plusieurs milliards d’instructions par seconde.

Depuis le milieu des annĂ©es 1960, des ordinateurs exĂ©cutent plusieurs programmes simultanĂ©ment. Cette possibilitĂ© est appelĂ©e multitĂąche. C’est le cas de tous les ordinateurs aujourd’hui.

En rĂ©alitĂ©, chaque cƓur de processeur n’exĂ©cute qu’un programme Ă  la fois, passant d’un programme Ă  l’autre chaque fois que nĂ©cessaire. Si la rapiditĂ© du processeur est suffisamment grande par rapport au nombre de tĂąches Ă  exĂ©cuter, l’utilisateur aura l’impression d’une exĂ©cution simultanĂ©e des programmes. Les prioritĂ©s associĂ©es aux diffĂ©rents programmes sont, en gĂ©nĂ©ral, gĂ©rĂ©es par le systĂšme d'exploitation.

Systùme d’exploitation

Article dĂ©taillĂ© : SystĂšme d'exploitation.

Le systĂšme d’exploitation est le programme central qui contient les programmes de base nĂ©cessaires au bon fonctionnement des applications de l’ordinateur.

Le systĂšme d’exploitation alloue les ressources physiques de l’ordinateur (temps processeur, mĂ©moire...) aux diffĂ©rents programmes en cours d’exĂ©cution. Il fournit aussi des outils aux logiciels (comme les pilotes) afin de leur faciliter l’utilisation des diffĂ©rents pĂ©riphĂ©riques sans avoir Ă  en connaĂźtre les dĂ©tails physiques.

Types d’ordinateurs

Cliquez sur une vignette pour l’agrandir

Par domaine d'application

Par taille

Par architecture

Notes et références

  1. ↑ Jargon fr - ordinateur sur http://jargonf.org/wiki/Accueil. ConsultĂ© le 1er avril 2008
  2. ↑ NapolĂ©on Landais,Dictionnaire gĂ©nĂ©ral et grammatical des dictionnaires français,Didier - 1849
  3. ↑ Pierre Guiraud,ProblĂšmes et mĂ©thodes de la statistique linguistique,Springer - 1959,(ISBN 9789027700254)
  4. ↑ l'Altair 8800 qui eut Bill Gates et Paul Allen comme premiers programmeurs
  5. ↑ XMLittrĂ© - Ordinateur, trice sur http://francois.gannaz.free.fr/Littre/accueil.php. ConsultĂ© le 1er avril 2008
  6. ↑ Étymologie du mot ORDINATEUR : ordinateur (ancien français) sur http://www.presse-francophone.org/apfa/. ConsultĂ© le 22 fĂ©vrier 2008
  7. ↑ Ordinateur : la (premiĂšre page) de lettre manuscrite de J. Perret sur http://www.les-infostrateges.com/. Mis en ligne le 16 mai 2005, consultĂ© le 22 fĂ©vrier 2008
  8. ↑ Histoire de la crĂ©ation du mot Ordinateur : la lettre in extenso de J. Perret et son contexte expliquĂ© par Gilles Zemor ENST sur news://loria.general. Mis en ligne le 23 aoĂ»t 1996, consultĂ© le 12 mars 2008
  9. ↑ Gordon Laing, Digital Retro, The Evolution and Design of the Personal Computer. Sybex, 2004.

Voir aussi

Sur les autres projets Wikimedia :

Articles connexes


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Ordinateur de Wikipédia en français (auteurs)

Regardez d'autres dictionnaires:

  • ordinateur — ordinateur, trice (or di na teur, tri s ) adj. 1°   Qui met l ordre, qui arrange. ‱   Il pensait que la cause universelle, ordinatrice et premiĂšre Ă©tait bonne, DIDER. Opin. des anc. philos. (Pythagorisme)..    En ce sens on dit aussi ordonnateur 
   Dictionnaire de la Langue Française d'Émile LittrĂ©

  • ordinateur — 1. ordinateur, trice [ ɔrdinatɶr, tris ] adj. et n. m. ‱ 1491; lat. ordinator, trix 1 ♩ Didact. Qui ordonne, met en ordre. Cause ordinatrice. 2 ♩ N. m. Relig. Celui qui confĂšre un ordre ecclĂ©siastique. ⇒ ordinant. ordinateur 2. ordinateur [… 
   EncyclopĂ©die Universelle

  • ordinateur — kompiuteris statusas T sritis automatika atitikmenys: angl. computer vok. Computer, m; Rechenanlage, f; Rechner, m rus. ĐČŃ‹Ń‡ĐžŃĐ»ĐžŃ‚Đ”Đ»ŃŒĐœĐ°Ń ĐŒĐ°ŃˆĐžĐœĐ°, f; ĐșĐŸĐŒĐżŃŒŃŽŃ‚Đ”Ń€, m; ЭВМ; ŃĐ»Đ”ĐșŃ‚Ń€ĐŸĐœĐœĐ°Ń ĐČŃ‹Ń‡ĐžŃĐ»ĐžŃ‚Đ”Đ»ŃŒĐœĐ°Ń ĐŒĐ°ŃˆĐžĐœĐ°, f pranc. machine Ă  calculer, f; machine… 
   Automatikos terminĆł ĆŸodynas

  • ordinateur — kompiuteris statusas T sritis radioelektronika atitikmenys: angl. computer vok. Computer, m; Rechenmaschine, f; Rechner, m rus. ĐșĐŸĐŒĐżŃŒŃŽŃ‚Đ”Ń€, m; ŃĐ»Đ”ĐșŃ‚Ń€ĐŸĐœĐœĐ°Ń ĐČŃ‹Ń‡ĐžŃĐ»ĐžŃ‚Đ”Đ»ŃŒĐœĐ°Ń ĐŒĐ°ŃˆĐžĐœĐ°, f pranc. ordinateur, m 
   Radioelektronikos terminĆł ĆŸodynas

  • ordinateur — kompiuteris statusas T sritis fizika atitikmenys: angl. computer vok. Computer, m; Rechner, m rus. ĐČŃ‹Ń‡ĐžŃĐ»ĐžŃ‚Đ”Đ»ŃŒĐœĐ°Ń ĐŒĐ°ŃˆĐžĐœĐ°, f; ĐșĐŸĐŒĐżŃŒŃŽŃ‚Đ”Ń€, m pranc. ordinateur, m 
   Fizikos terminĆł ĆŸodynas

  • ordinateur — ● n. m. â–șORDI Terme proposĂ© en 1955 par J. Perret Ă  la demande d IBM, pour remplacer Calculateur , lui mĂȘme devenu inappropriĂ©, car les ordinateurs faisaient dĂ©sormais bien plus de choses que du simple calcul. Machine Ă  traiter de l information,… 
   Dictionnaire d'informatique francophone

  • ordinateur — nm. ordinatĂČ / eu (Albanais) 
   Dictionnaire Français-Savoyard

  • Ordinateur Personnel — Pour les articles homonymes, voir Micro.  Ne doit pas ĂȘtre confondu avec compatible PC 
   WikipĂ©dia en Français

  • Ordinateur domestique — Ordinateur personnel Pour les articles homonymes, voir Micro.  Ne doit pas ĂȘtre confondu avec compatible PC 
   WikipĂ©dia en Français

  • Ordinateur familial — Ordinateur personnel Pour les articles homonymes, voir Micro.  Ne doit pas ĂȘtre confondu avec compatible PC 
   WikipĂ©dia en Français


Share the article and excerpts

Direct link

 Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.