Want to make creations as awesome as this one?

Nathan Delaunay NSI

Transcript

Histoire de l'informatique

Start

Sommaire

1. Les Principes De Base

2. Les Langages De Programmation


3. Les Composants


4. Résumé en frise

Les Principes De Base

Chapitre 1

L'automatsime

L'une des traditions dans lesquelles l'informatique puise une partie de sa force est celle de l'automatisme. Un automate est une machine imitant les mouvements, les fonctions ou les actes d'un corps animé.

Les premiers automates répondaient au principe de programmation, c'est-à-dire d'exécution d'une séquence finie d'évènements.

Quel est le rôle de l'automatisme ?


Un automatisme est un système qui, par le moyen de dispositifs mécaniques, pneumatiques, hydrauliques ou électriques, est capable de remplacer l'être humain pour certaines tâches. Simples ou complexes, les systèmes automatisés font partie de l'environnement de l'être humain.

Watch

L'information

L'information analogique a comme support un signal continu, une oscillation dans une ligne électrique par exemple.

L'information digitale désigne l'information codée de façon symbolique par des chiffres (par exemple, décimaux). Les ordinateurs traitent des informations digitales codée en base 2 (binaire). Le message transmis est alors constitué par des successions (ou paquets) de chiffres, sous forme de signaux binaires.

Ce que l'on appelle la théorie de l'information, (Claude Shannon, 1948), fournit une mesure de quantité d'information dont l'unité est le "le bit" (Binary digIT ; digit = nombre d'où digitaliser = numériser). Le Bit, c'est la quantité d'information contenue dans le choix élémentaire entre deux possibilités également probables, comme dans le cas du lancer d'une pièce de monnaie pour obtenir pile ou face.

L'une des premières utilisation du code binaire par une machine fut le métier à tisser de Jacquard. Joseph Marie Jacquard (1752-1834) construisit en 1804 le premier métier à tisser entièrement automatique commandé par un système de cartes perforées : un tambour mobile soulève des crochets. Les trous -ou leur absence- sur les cartons qui défilent interviennent directement sur la position des fils de chaîne au moment du passage du fil de trame, commandant ainsi le motif du tissu.

Les calculateurs

A la fin du XIXème siècle on assiste à une explosion d'innovations en matière de machines de bureau. Le principe du clavier est adapté (car il commencait à être utilisé sur des machines à écrire). Les "comptomètres" comportent donc des touches représentant des chiffres là où traditionnellement il fallait tourner des roues (comme dans la machine de Pascal) ou faire coulisser des curseurs dans des rainures.

Trois grands types de calculateurs seront mis au point dans les années quarante :

-Les calculateurs numériques électromécaniques.
-Les calculateurs numériques électroniques.
-Les calculateurs analogiques.

Les calculateurs numériques électroniques furent assez vite considérés comme plus avantageux en raison de la rapidité de commutation: on pouvait actionner un circuit ouvert/fermé plusieurs centaines de milliers de fois par seconde grâce à l'absence de tout frottement mécanique.

Exemple de Calculateurs

Le Zuse3 était un calculateur à relais électromécaniques conçu par l'ingénieur allemand Konrad Zuse. Ce calculateur était la première machine programmable pleinement automatique ce qui en ferait le premier ordinateur du monde.

Zuse 3

Colossus mark 1

Colossus est une série de calculateurs électroniques fondé sur le système binaire. Le premier, Colossus Mark 1, est construit en l’espace de onze mois et opérationnel en décembre 1943, par une équipe dirigée par Thomas “Tommy” Flowers et installé près de Londres, à Bletchley Park : constitué de 1 500, puis 2 400 tubes à vide, il accomplissait 5 000 opérations par seconde. Il était utilisé pendant la Seconde Guerre mondiale pour la cryptanalyse du code Lorenz1. Plus rapide, le Colossus Mark II servit notamment pour le lancement surprise du débarquement de Normandie.

Ewalt

L'Elwat, un calculateur analogique polonais fabriqué entre 1967 et 1969 ; les éléments visibles sont, de gauche à droite, un voltmètre, un téléscripteur, un oscilloscope et l'ordinateur à proprement parler.

L'ordinateur moderne

La seconde guerre mondiale a joué un rôle décisif dans l'invention de l'ordinateur moderne. Plusieurs chercheurs, dont John von Neumann, travailleront aux côtés de l'armée pour mettre au point des machines - modèles réduits du cerveau humain- permettant d'en comprendre mieux le fonctionnement et d'en faire un auxiliaire puissant dans la résolution de certains problèmes abstraits ou nécessitant la manipulation d'un très grand nombre de données. En 1943 le BRL (Balistic Research Laboratory - John von Neumann était membre du conseil scientifique du BRL) était complètement débordé, il produisait 15 tables de calcul de tir par semaine alors que la demande était de 40. Des calculateurs humains (en majorité des femmes diplômées des collèges américains) étaient embauchés par centaines. En moyenne un calculateur humain mettait 3 jours pour calculer une seule trajectoire (il en fallait plusieurs milliers par table) alors qu'un analyseur différentiel calculait en 15' (mais il fallait une à deux heures de cablage à chaque nouvelle opération !).

La société IBM fut fortement impliquée dans la construction d'ordinateurs pour la défense. Il faut attendre la mise au point du réseau SABRE (SABRE = Semi-automatic Business-related Environment.) par IBM dans les années soixante (sytème télématique de réservation des places d'avion de la compagnie American Airlines) pour que l'ordinateur soit utilisé dans le civil comme système d'information.

Les Langages De Programmation


Chapitre 2

Un programme sert à transformer un problème concret en une suite de procédures logiques et abstraites formulées de telle sorte qu'une machine effectuant un petit nombre d'opérations logiques puisse les traiter sans erreur.

Un langage de programmation est un ensemble d'instructions qui permettent la transcription du problème considéré.
Il faut interposer entre le "code" utilisé par la machine et le problème posé, un autre langage, traduisible dans le code de la machine et compréhensible par quiconque ne connaît pas le code.
Là où l'ordinateur se contente dans son code de ce que deux chiffres à additionner soient représentés par des nombres binaires et l'opération d'addition ou de soustraction par un autre nombre binaire, un langage de programmation prévoira que l'utilisateur tape au clavier par ex : SOU, suivi de deux chiffres exprimés en décimal.
Cette instruction claire pour l'être humain sera traduite en code-machine et traitée comme telle par l'ordinateur.
De même toutes les instructions utiles au fonctionnement d'un ordinateur - par ex, début, stop, mettre dans tel endroit de la mémoire, imprimer etc… - peuvent être exprimées dans un langage de programmation sous la forme de symboles proches du langage naturel.
Le premier rédacteur d'un tel langage fut Alan Turing. Ce langage contenait cinquante instructions qui étaient automatiquement transcrites en binaire par l'ordinateur.

L'une des premières grandes figures de la programmation fut une femme Grace Murray Hopper qui termina sa carrière comme capitaine dans le corps de réserve de la marine après s'être engagée volontaire durant la dernière guerre mondiale. Elle développa sur l'UNIVAC 1 ce qui fut appelé la "programmation automatique", un programme interne qui transformait les instructions de l'utilisateur en instructions-machines codées en binaire. Elle développa ce que l'on appelle un système de compilation utilisant des mots à la place des symboles mathématiques.

Le premier véritable langage de programmation fut le FORTRAN (FORmula TRANslation) mis au point sur l'IBM 701 de 1953 à 56. Lordinateur n'était pas conçu pour en lire et exécuter directement les instructions. Il fallait donc écrire un programme intermédiaire, le compilateur, qui traduisait tout programme dans le langage codé de la machine. Le fortran pouvait donc fonctionner sur n'importe quel ordinateur mais pour chaque modèle il fallait un compilateur approprié.
Le langage Fortran était plus particulièrement dédié aux calculs scientifiques.
D'autres langages de programmation seront conçus, le COBOL (COmmon Business-Oriented Language) développé par Grace Murray Hopper, sera dédié aux applications administratives, commerciales, et au secteur tertiaire en général. Sa mise en place date de 1960 et fut financée par le département de la Défense américain dans le but de disposer d'un langage indépendant du modèle d'ordinateur.

L'ALGOL (ALGOrithmic Language) est un langage très théorique mis au point en 1960 par des européens. Peu utilisé, il fut très étudié comme modèle.
LISP, PROLOG langages dédiés à l'intelligence artificielle ainsi que PASCAL ont apporté quelques progrès en matière de programmation.
Le BASIC (Beginner's All-purpose Symbolic Instruction Code), conçu pour la micro-informatique et pour écrire des programmes courts, s'adressera pour l'essentiel à des non-initiés.

Les Composants

Chapitre 3

L'architecture

Les quatre éléments fondamentaux d'un ordinateur sont :

-la mémoire qui stocke les informations et les programmes,

-l'unité logique qui traite l'information,

-l'unité de contrôle qui organise le fonctionnement interne de la machine,

-les différents organes d'entrée et de sortie (claviers, écrans, imprimantes etc).

Que ces éléments soient dans des armoires séparées ou intégrés au sein d'une même"puce" ne change rien. L'architecture de base est toujours la même.

Les perfectionnements du matériel


Le transistor (transfer conductance resistor) et en particulier celui réalisé en silicium (les premiers semi-conducteurs étaient en germanium) fut utilisé pour remplacer les lampes à vides afin de confectionner les unités logiques de traitement de l'information.

L'étape suivante fut la mise au point du circuit intégré (IC) base de la miniaturisation des composants. Le circuit intégré est une petite plaque où sont superposés des couches successives de matériaux, comme l'aluminium, qui permettent de graver dans la matière, des transistors, des amplificateurs, des résistances et des circuits de connexion permettant aux informations de circuler sous une forme binaire et d'y être stockées et traitées logiquement.
Les tores de ferrite ont constitués les premières mémoires, mais en 1970, la firme Fairchild produit la première mémoire intégrée sur une puce suivant un principe analogue à celui du circuit intégré. Il s'agissait alors d'une "mémoire morte" (ROM: Ready-Only Memory) que l'on peut uniquement lire. La même année Intel produisit la première mémoire vive (RAM: Random-Access Memory), mémoire dans laquelle on peut lire, effacer et écrire les informations).
La même société Intel réalisa en 1971 le premier "microprocesseur" (qui contient plusieurs milliers de transistors) et qui réunissait et intégrait dans un même ensemble miniature les unités du traitement logique et la mémoire.
Ces performances ouvrent la voie à la conception des premiers micro-ordinateurs.

Les perfectionnements du matériel


Le transistor (transfer conductance resistor) et en particulier celui réalisé en silicium (les premiers semi-conducteurs étaient en germanium) fut utilisé pour remplacer les lampes à vides afin de confectionner les unités logiques de traitement de l'information.

L'étape suivante fut la mise au point du circuit intégré (IC) base de la miniaturisation des composants. Le circuit intégré est une petite plaque où sont superposés des couches successives de matériaux, comme l'aluminium, qui permettent de graver dans la matière, des transistors, des amplificateurs, des résistances et des circuits de connexion permettant aux informations de circuler sous une forme binaire et d'y être stockées et traitées logiquement.
Les tores de ferrite ont constitués les premières mémoires, mais en 1970, la firme Fairchild produit la première mémoire intégrée sur une puce suivant un principe analogue à celui du circuit intégré. Il s'agissait alors d'une "mémoire morte" (ROM: Ready-Only Memory) que l'on peut uniquement lire. La même année Intel produisit la première mémoire vive (RAM: Random-Access Memory), mémoire dans laquelle on peut lire, effacer et écrire les informations).
La même société Intel réalisa en 1971 le premier "microprocesseur" (qui contient plusieurs milliers de transistors) et qui réunissait et intégrait dans un même ensemble miniature les unités du traitement logique et la mémoire.
Ces performances ouvrent la voie à la conception des premiers micro-ordinateurs.

Résumé en frise

Thanks for watching