Pour les internautes qui ne supportent pas les frames, utilisez les liens
suivants :
Bienvenue! | Introduction |
Définitions | L'Histoire par les faits |
L'Histoire en dates | Quelques conclusions |
Configuration générale de l'ordinateur |
La machine de Babbage | Bibliographie |
Les sites à visiter | Remerciements
Bienvenue sur ma première "page internet" ( il faut bien commencer un jour!!! ). J'ai réalisé cette page car cela fait partie du programme de DEUG Sciences Mention Sciences et Technologies pour l'Ingénieur . Elle est destinée aux étudiants, et à toutes personnes qui veulent en savoir plus sur l'aventure informatique. Bien sûr, il m'est impossible de raconter toute l'histoire de l'informatique dans ses moindres détails, cependant j'espère répondre à la plupart de vos attentes et questions sur le sujet. Sur ce, bonne lecture!
C'est en 1962 que Philippe Dreyfus employa le mot informatique pour définir
le traitement automatique de l'information. En fait ce mot peut correspondre à
deux groupes de disciplines distinctes: l'ensemble des techniques mises en oeuvre pour l'emploi de
l'ordinateur ( electronic data processing ) ; une science nouvelle, qui
ne nécessite pas obligatoirement l'utilisation des ordinateurs, ces
derniers n'en sont qu'un outil majeur ( computer science ).
On peut donc affirmer que l'informatique est une discipline carrefour, dont
les ordinateurs actuels, les structures intellectuelles ( algorithmes de calcul )
et institutionnelles ( organisation comptable, organisation industrielle )
déterminent en majeure partie le contenu.
D'un point de vue plus général, il n'est plus à démontrer
que l'informatique envahit progressivement, sous beaucoup de formes, notre vie quotidienne,
tant est puissant son développement. L'informatique aujourd'hui, c'est à la fois
les calculettes de poche et les ordinateurs portables, les consoles et jeux vidéo,
mais aussi l'aventure spatiale, les robots industriels, les applications médicales
telles que le scanner, les cartes à puce et bien d'autres applications.
L'informatique à travers l'ordinateur modifie, et modifiera plus encore,
l'organisation du travail et les rapports entre les individus.
Le mot "informatique" : il est composé des deux mots information
et électronique. L'Académie française en a donné
la définition suivante en 1967 : " Science du traitement rationnel, notamment
à l'aide de machines automatiques, de l'information, considérée
comme le support de connaissances dans les domaines scientifique, économique
et social. ".
Le mot "ordinateur" : c'est en 1955 qu'il fut proposé
par un professeur de lettres qui devait traduire l'expression " electronic data processing
machine " ( qui veut dire " machine électronique de traitement
des données " ).C'est aussi en 1967 que l'Acadé:mie française
définit l'ordinateur par " Une machine automatique qui permet d'effectuer, dans le cadre
de programmes de structure pré-établis, des ensembles d'opérations
arithmétiques et logiques à des fins scientifiques, administratives
ou comptables. ".
Le mot "information" : d'un point de vue étymologique,
il veut dire qu'un sujet, qui reçoit des données émises par un
objet, traite ces dernières pour obtenir une certaine " mise en forme "
de l'objet. Le sujet a pour cela cinq sens : la vue, l'ouïe, le toucher,
l'odorat et le goût.
Voici les deux schémas de base de l'informatique :
Le système de communication d'après Shannon.
Le système de traitement de l'information d'après Von Neumann
Dans cette première partie, je traiterai les découvertes sur le système des connaissances ( théories, concepts nouveaux.... ), les découvertes sur le traitement et la communication de l'information ( machines diverses, inventions.... ).
L'Histoire informatique couvre environ 12000 années, c'est pourquoi je
vous propose ces quelques liens réunis dans un "petit sommaire" :
Les fondations de l'informatique : la saisie, le codage, le calcul, l'écriture, la logique, le zéro.
C'est durant la période de 10000 à 3000 avant J.C. que naquit
le traitement rationnel de l'information.
L'homme changea son mode de vie en passant
du stade de chasseur à celui d'agriculteur. Dans ce nouveau mode de vie,
l'homme doit disposer de semences, d'outils, d'animaux de ferme. C'est pourquoi
il lui est nécessaire de mettre en place un système de troc et de ce
fait, l'homme doit apprendre à s'organiser, compter, écrire : c'est
l'apparition du traitement de l'information.
On découvrit alors en Mésopotamie l'utilisation de
de boules, de jetons d'argile et de tablettes par les Summériens qui servait dans ce système d'échange.
Cette civilisation sumérienne avait élaboré un système de numération
de type additif : voici quelques chiffres gravés sur des tablettes.
En 3000 avant J.C. on utilisa en Chine le binaire à travers le principe du Ying et du Yang pour fabriquer des hexagrammes. Ils ne seront déchiffrés que quelques millénaires plus tard.
En Mésopotamie, 1300 ans plus tard, l'empereur Hammourabi introduit la notion de normes dans le traitement de l'information grâce à sa loi du talion " pour telle donnée émise par un objet, telle mise en forme de ces données sera faite ".C'est le principe de l'objectivité de l'information. Cette loi est plus connue sous la forme " oeil pour oeil, dent pour dent ". Hammourabi mit aussi en place la notion d'algorithme, qui est une notion de procédure détaillée de calcul.
Les horloges égyptiennes, qui furent les premiers systèmes de traitement
de l'information, apparurent en 1550 avant J.C. sous la forme de clepsydres.
Les Chinois arrivèrent à mesurer la durée d'une année
en utilisant un observatoire astronomique en 1200 avant J.C., ils sont aussi à
l'origine de nombreuses inventions : le sismographe, quoiqu'un peu sommaire, en
132 avant J.C., le papier qui fut un support d'informations révolutionnaire en
105 après J.C..
Cependant au Moyen-Orient, les Arabes fabriquèrent les premiers abaques et bouliers en 500 avant J.C., et en 751 après J.C. ils ramenèrent de Chine le principe de fabrication du papier qui sera un élément fondamental du développement de la civilisation occidentale.
Le grand philosophe grec Aristote définit la logique en -330 avant J.C. Son oeuvre sera un axe principal dans la mise en place de la civilisation occidentale, sur le plan mathématique et philosophique.
Vers 820 après J.C., un mathématicien arabe apporta de nouvelles
connaissances sur les algorithmes ( élimination et réduction ).
Ce n'est qu'en l'an 1000 après J.C. que la numération arabe
est admise en Europe, en particulier l'existence du zéro.
Durant cette même période, les systèmes d'information horlogers se contruisent
en Europe, on peut en voire un à Strasbourg, c'est l'"Horloge des Trois Rois",
surtout célèbre pour son coq qui chante et s'anime.
Retour vers le "petit sommaire" | Retour à la case départ
Les découvertes : le binaire, l'électricité, les logarithmes, les boucles de programmes, le téléphone, l'imprimerie et la machine à calcul.
La plus grande invention de la fin du XVième siècle est l'imprimerie
découverte par Gutenberg en Allemagne en 1454, ce procédé sera un véritable
catalyseur pour le développement de la civilisation occidentale.
Trente ans plus tard le Français Chuquet contruit la première table de multiplications
décimales.
De 1614 à 1679, plusieurs découvertes se succèdent. Tout d'abord les logarithmes traités par l'Ecossais Neper, ainsi la multiplication et la division se ramènent à deux opérations simples qui sont l'addition et la soustraction. Puis le philosophe Anglais Bacon invente un code, le code bilitière qui permet de coder les lettres de l'alphabet à partir de combinaisons de caractères non utilisés. Cette invention introduit le code binaire qui fut découvert par le philosophe Allemand Leibnitz. Il réalise plusieurs travaux dont un sur les hexagrammes chinois et présente un rapport à l'Académie française en 1702. Ce nouveau concept se propagera ainsi dans toute l'Europe.
Le XVIIième siècle fut le temps des machines à calculer : en 1624 l'Allemand Schickard présenta sa machine mais elle fut détruite la même année. En 1642, la Pascaline du Français Pascal fut la première à réellement fonctionner, beaucoup de personnes s'appuieront sur cette découverte. Enfin Leibnitz construisit sa propre machine en 1694 ( division et multiplication ) en suivant le modèle de Pascal.
Les cartes perforées furent utilisées en 1728 par le Français Falcon et en 1800 par un autre Français, Jacquard. Ces cartes servèrent dans des machines à tisser.
En 1820, l'arithmomètre du Français Thomas connut un énorme succès, 1500 exemplaires vendus dans plusieurs pays. Quelques années plus tard, en 1833, la machine analytique de l'Anglais Babbage ne fut qu'un échec. Pourtant elle est toujours considérée comme le premier ordinateur car elle intègre beaucoup de concepts de l'ordinateur contemporain : mémoire, registre, unité de calcul.
Le code morse fut inventé en 1838 et le premier télégraphe fonctionna en 1844.
La mathématicienne Anglaise Lovelace, qui est considérée comme la
première programmeuse de l'histoire informatique, instaura en 1840 l'itération
d'un programme ( la boucle ). Collaboratrice de Babbage, elle appela " algorithme "
le processus logique permettant l'exécution d'un programme.
Georges Boole est à l'origine en 1854 de l'algèbre binaire. Il
affirma que l'on peut coder les démarches de la pensée par trois
propositions : ET, OU, NON. Ses travaux seront très utiles au développement
de l'électronique et des portes logiques.
En 1867, deux Américains mettaient au point la machine à écrire et neuf ans après un autre Américain Bell déposa le brevet du téléphone, trois ans plus tard 25000 postes fonctionnaient aux Etats-Unis. Toujours sur le sol américain, l'inventeur aux 2000 brevets, Edison, inventa le phonographe en 1877. En 1878, un anglais décrivit l'état radiant d'un gaz, base du phénomène de l'effet cathodique. C'est une grande ouverture vers les écrans cathodiques.
Retour vers le "petit sommaire" | Retour à la case départ
Les découvertes : l'effet photoélectrique, la diode, les principes de l'automatisme, le " BUG " d'un programme, la télévision, le binaire, l'Enigma, le Mark I et plusieures théories sur l'information et le calcul.
Pour faire face aux problèmes de transfert de données concernant la démographie, l'Américain Hollerith inventa en 1884 la mécanographie qui sera utilisée en 1890 par le gouvernement des Etats-Unis pour recencer la population. Hollerith créa alors la "Tabulating Machine Company" qui donnera naissance au grand groupe IBM "International Business Machine".
Entre 1887 et 1907, les découvertes furent surtout dans le domaine physique électrique. L'effet photoélectrique, qui est produit en illuminant un circuit par des ultraviolets, est un phénomène majeur dans la progression vers les écrans de visualisation. C'est l'Allemand Hertz qui découvrit cet effet. La diode, qui permet de filtrer le courant en fonction des alternances, a été invent&eacutée; par l'Anglais Fleming. A partir de cette invention, l'Américain Lee De Forest construisit la triode, qui amplifie l'intensité du courant. C'est un pas conséquent vers la radiophonie.
En 1910, deux logiciens Anglais, Whitehead et Russel, définirent la logique symbolique, support indispensable de l'informatique et de l'intelligence artificielle. En 1914, une définition des besoins et moyens utiles au fonctionnement des automates fut conduite par l'Espagnol Torres y Quevedo.
En 1919 émergea le premier circuit bistable ( flip-flop ) composé de deux triodes. C'est un circuit de base de l'utilisation de l'algèbre booléenne. Il fut réalisé par deux Anglais Eccles et Jordan.
Notre chère télévision n'apparût qu'en 1925, elle étonna les membres de l'Institut Royal de Londres lors d'une démonstration. Bien plus tard en 1935, la firme allemande AEG mit au point le magnétophone. Son principe de fonctionnement sera adapté aux ordinateurs.
C'est le mathématicien Turing qui instaura en premier les grands concepts
du fonctionnement algorithmique des futurs ordinateurs. En 1937, il publia un
rapport sur une machine conceptuelle capable d'exécuter des opérations
en vue de résoudre un problème.
La même année fut inventé le premier circuit binaire par l'Américain Stibitz.
Il appela ce calculateur K car il le conçut dans sa cuisine. Un an plus tard
en Allemagne, l'ordinateur "Verschmodell 1" fut le précurseur du fameux
ENIAC.
Durant cette année 1938 nacquit le " BIT " ( BInary digiT ). L'américain Shannon étudia
l'algèbre booléenne et les circuits électriques. Il se rendit
vite compte qu'il existait un rapport entre les deux sujet étudiés et publia
une thèse sur ce parallèle. Cela aura un effet de catalyseur sur les
télécommunications.
Pour relever le défi posé par l'Enigma, qui fut une chiffreuse
allemande permettant d'obtenir plus de 22 millions de combinaisons, le Royaume-Uni
lança le Bletchley Park en 1940. Ici seront mis au point des calculateurs
utilisant les concepts d'arithmétique binaire, d'horloge, de mémoire-tampon,
de contrôle des lecteurs de bandes, de sous-programmes et bien d'autres.
En 1943, la collaboration de la firme IBM avec un professeur d'Harvard engendra
la conception et la réalisation d'un gigantesque calculateur électromagnétique,
le MARK I. Ce calculateur était l'assemblage de 800 kms de câblages, de 750 000
pièces, de 3000 relais, etc..., il pouvait effectuer des calculs en trois dixième
de seconde.
L'histoire de l'informatique a connu aussi quelques anecdotes. En voici
une : c'est en découvrant que la cause d'une panne sur un ordinateur ( le MARK I )
n'était qu'un simple insecte attiré par la chaleur des composants,
la mathématicienne américaine Murray Hopper proclama en 1945 "A partir de ce jour nous
appellerons BUG tout ce qui empêchera un programme de marcher.".
Retour vers le "petit sommaire" | Retour à la case départ
Le triomphe du binaire, la constitution physique de l'ordinateur, le transistor, la cybernétique, l'intelligence artificielle, l'accès au traitement, les fondements structurels de la télécommunication mondiale.
L'ENIAC ( Electronic Numerical Integrator Computer )marqua à tout jamais
l'année 1946 car ce fut le premier véritable ordinateur. Cette machine pèse 30
tonnes, mesure 24 mètres de long, est haute de 5.4 mètres, utilise 18000 tubes
à vide. Elle réussit à traiter à son premier essai un million de cartes perforées,
ce qui réjouit ses inventeurs Américains Eckert et Mauchly.
A la suite de ce travail, Von Neumman écrivit un rapport sur un ordinateur qui
devait succéder àl'ENIAC : L'EDVAC ( Electronic Discret VAriable Computer ).
Un conflit entre les différents inventeurs mit court à sa réalisation.
Une des découvertes les plus importantes de l'histoire humaine est le transistor.
Inventé en 1947 par trois Américains de la compagnie Bell, il sera l'élément de base
des microprocesseurs.
Un an après, c'est un rapport révolutionnaire sur l'asservissement qui fut publié
par le mathématicien Américain Wiener. Cette oeuvre reste la base de la robotique
actuelle.
Shannon rendit sa publication sur la théorie mathématique de la communication,
ouvrage clef pour le développement des télécommunications.
De 1949 à 1952. Confronté á l'énorme complexité des codes binaires qui sont
utilisés pour la programmation, l'Américain Mauchly conçoit un code court, ce
sera le premier langage évolué. Avec son collaborateur Eckert, il invente des
bandes plastiques effaçables et réécrivables à volonté.
Un autre Américain, Hopper, réalise un compilateur qui établit pour la première
fois un interface entre le langage utilisé par l'informaticien et le langage
binaire machine.
Le premier ordinateur en temps réel est construit à la demande de l'US Navy. Cette
machine constituera un banc d'essai pour le progrès des connaissances.
En 1954 sortit la première grande série d'ordinateurs : l'IBM 650, de taille
moyenne et à un prix accessible, il sera vendu à 1500 unités.
L'UNIPRINTER fut la première imprimante ligne à ligne, elle imprimait 120 caractères
sur une ligne à la vitesse de 600 lignes par minute. Durant la même année 1954,
l'Américain Pierce démontrait la possibilité de mettre un objet en orbite géostationnaire
autour de la terre.
Huit à neuf ans après la découverte du transistor, on l'utilisa dans la conception
d'une nouvelle génération d'ordinateurs ( UNIVAC ). L'efficacité du nouvel ordinateur
fit un bon spectaculaire.
En 1956, après trois années de recherche, IBM commercialise le premier disque dur magnétique. Cela apporte une révolution dans le stockage des données à la fois au plan des volumes, et des possibilités d'accès indexées.
Retour vers le "petit sommaire" | Retour à la case départ
Cette période est très riche en découvertes, c'est pourquoi je ne ferai qu'une analyse générale.
1968-1977 constitue la période la plus faste pour le développement de l'informatique. Elle commence avec l'arrivée du mini-ordinateur qui va secouer les conceptions que l'on croyait pourtant bien assises des centres informatiques aux immenses salles à air conditionné. Elle va se terminer en 1977 avec un autre boulversement,aux conséquences considérables, l'arrivée du micro-ordinateur banalisé ( l'Apple II ) qui va devenir rapidement un produit grand public, accessible à tous sur les étagères des grandes surfaces. Entre ces deux dates, la télématique acquerra les bases de connaissances nécessaires pour son épanouissement.
Cette apparition des micro-ordinateurs aura pu être réalisée grâce à la découverte fondamentale en 1971 du micro-processeur ( l'INTEL 4004 ). En une période très courte, cette nouvelle puce va réussir à envahir tous les domaines de la société. Si le micro-processeur doit être considéré auprès de l'ENIAC et du transistor comme l'une des trois inventions clefs de l'informatique.
Il y a lieu de retenir plus particulièrement sur cette période les inventions suivantes :
Le géant IBM domine la marché de sa puissance écrasante. Néanmois, ce géant peut désormais pressentir que son avenir s'assombrit. Il ne peut pas contenir des puissances informatiques comme la CRAY, et il ne se préoccupe pas des petits fabricants qui bricolent dans des garages on ne sait trop quoi.
Commençant avec le premier micro-ordinateur, l'Apple II, la période 1977-1990 présente une double face : d'un côté c'est une récolte prodigieuses de découvertes qui déclenche un fascinant dialogue homme-machine ; de l'autre côté c'est l'interrogation sur l'avenir face à cette convivialité d'un nouveau type qui attaque toutes les conditions de fonctionnement de la société.
Le nombre impressionnant de découvertes implique un développement incontrôlé qui ne s'effectuera pas sans dommages. La fraude informatique va se développer et les virus vont se propager.
Retour vers le "petit sommaire" | Retour à la case départ
Dans cette deuxième partie, j'ai réuni toutes les découvertes du monde de l'informatique. Cela peut ressembler è un grand bazard mais peut s'avérer utile pour chercher rapidement un information courte et précise sur l'histoire informatique.
Revenir aux trois parties | Retour à la case départ
Revenir aux trois parties | Retour à la case départ
Revenir aux trois parties | Retour à la case départ
L'informatique n'est pas née d'hier, les premiers grands concepts datent de plus de 10000 ans. Cependant cette science ne s'est développée que depuis un demi siècle et le nombre de découvertes est phénomènal sur ces dernières dix années : il y a environ une découverte par jour!
La spécificité interdisciplinaire de l'informatique fait de son étude historique une source inépuisable d'enrichissements. Pour l'épistémologue informatique, Mathématiques, Physique, Economie, Guerre, Sociologie et tant d'autres constituent autant de domaines qu'il est nécessaire d'explorer. Il doit s'intéresser tout aussi bien :
La guerre a été le facteur clef de développement de l'informatique avec trois épisodes essentielles : la deuxième guerre mondiale, la guerre froide et la guerre des étoiles. ( Ce n'est pas une blague! )
Au niveau des puissances informatiques dans le monde, les Etats-Unis sont largement
dominants. En effet 95 % des inventions répertoriées depuis 1946 ont été faites
sur le sol américain.
Le Japon contrebalance sa très grande faiblesse au plan des brevets d'inventions
par sa capacité extraordinaire à produire des brevets d'applications. C'est pour
l'instant le seul grand compétiteur des USA.
La France occupe une position de grande faiblesse dans la compétition internationale
informatique.
Le futur de l'informatique sera celui de la convivialité complète auditive, visuelle et tactile.
La configuration d'un ordinateur correspond à l'organisation adoptée pour mettre ensemble et faire fonctionner les divers éléments matériels de l'ordinateur. Les configurations possibles sont fonction de l'importance et de la finalité du système mis en oeuvre. Une des plus simples et des plus habituelles configurations est celle que l'on trouve dans un bureau de travail, telle qu'illustrée ci-dessous.
Voici la définition de chaque élément représenté
sur le schéma :
Cette partie est destinée aux étudiants spécialisés dans la mécanique. Le cas Babbage nous démontre une fois de plus que la conception d'un mécanisme est souvent limitée.
Charles Babbage est l'un des grands ancêtres de l'informatique. Ses plans de grands calculateurs mécaniques comptent parmi les performances intellectuelles les plus brillantes du XIXième siècle. Pourtant Babbage ne réssit jamais à construire les calculateurs qu'il avait imaginés. Les historiens affirment que les plans de Babbage imposaient des tours de force mécaniques inaccessibles à la technique victorienne, mais aucun document l'époque confire cette hypothèse.
Les échecs de Babbage ont souvent été associés au
mauvais caract&egrav; de ce génie créatif. Homme fier et droit,
Babbage était célèbre pour ses critiques vigoureuses
des institutions scientifiques. A la suite de ses échecs, Babbage se
sentait victime d'une injustice ; il acquit alors une réputation d'homme
susceptible et excentrique. Cependant une équipe de travail a relevé
un tout autre aspect de ce génie : Babbage était un inventeur
méticuleux dont les inventions étaient réalisables.
Les ingénieurs ont d'abord construit une partie du mécanisme,
en 1989, pour vérifier le fonctionnement de la machine. Ils ont ensuite
dû réaliser des pièces compliquées pour enfin arriver
à la machine à différences N°2.
Tous les livres suivants m'ont été fort utiles dans la réalisation de cette page HTML. Je vous conseille d'y jeter un coup d'oeil, voire de les acquérir si l'histoire de l'informatique vous passionne.
"AINSI NAQUIT L'INFORMATIQUE" par R.Moreau ED. Dunod Informatique
"DU BOULIER A L'INFORMATIQUE" par A.Taurisson ED. Presses Pocket
"HISTOIRE DE L'INFORMATIQUE" par P.Chion ED. PEMF
"L'INFORMATIQUE" ( Que sais-je ? N° 1371 )
"UNE HISTOIRE INFORMATIQUE" par P.Breton ED. Point Sciences
"LA REVOLUTION INFORMATIQUE" par G.Brémond ED. Hatier
"L'INTELLIGENCE ARTIFICIELLE" par J.C.Ganascia ED. Flammarion
"HISTOIRE D'ALGORITHMES" par J.L.Chabert ED. Belin
"LES MOTS CLEFS DE L'INFORMATIQUE" par R.Reix ED. Foucher
Un résumé l'histoire informatique.
Quelques dates en anglais/français.
Une chronologie de -3000 à 1984. (ou ici)
Je dis un grand merci à toutes les personnes qui m'ont soutenu pour ce rapport.
J'espère avoir retenu votre attention quelque temps sur cette page.