Previous Up Next

Chapitre 4  L'histoire de l'informatique

Nous avons choisi de n'aborder l'histoire de l'informatique qu'à la fin de notre présentation, car il nous semble inutile de faire l'archéologie d'une discipline dont on ne connaît pas les principes. Faire l'histoire de l'informatique, c'est suivre en parallèle l'évolution de 3 domaines :
(a) les méthodes de codage (données) ;
(b) le calcul automatique (traitements) ;
(c) la conception d'être artificiels (simulation).
Ces 3 domaines serviront à baliser chacune des avancées ayant contribué d'une façon ou d'une autre à l'émergence de l'informatique.

1  Préhistoire

Quelques méthodes de calcul dans l'antiquité (b) : Quelques mythes faisant intervenir des êtres artificiels (c) :

2  Ancêtres et précurseurs

3  Histoire contemporaine

A partir de cette date, l'ordinateur existe et son histoire matérielle se réduit donc à l'évolution des progrès technologiques, qu'on découpe habituellement en termes de "générations". Les avancées conceptuelles les plus spectaculaires concernent, elles, principalement la conception de nouveaux langages de programmation évolués.

3.1  Première génération : les monstres

3.2  Deuxième génération : intégration du transistor

3.3  Troisième génération : les circuits intégrés

3.4  Quatrième génération : les micro-ordinateurs

3.5  Cinquième génération : l'interface graphique et les réseaux

Les japonais avaient annoncé pour les années 90 l'apparition d'un nouveau type d'ordinateurs "cinquième génération" dédiés à des applications d'Intelligence Artificielle, mais ces machines d'un nouveau genre n'ont jamais vu le jour, et les évolutions majeures récentes sont plutôt à chercher du côté d'Internet.
Previous Up Next