FabLab

Le FabLab de Lacassagne, c’est la possibilité de découvrir toutes sortes d’outils pilotés par ordinateur pour la conception et la réalisation d’objets.

Petite histoire de l’informatique

A l’échelle de l’humanité, l’ordinateur et le réseau mondial qu’est internet sont deux révolutions encore jeunes pour l’Homme...

"Informatik"

En janvier 2018, 81% des français possédaient un ordinateur, 88% avaient un accès à Internet et 54% de la population mondiale était connectée. [1]

Mais comment ces petites bestioles (les ordinateurs) qui parfois nous énervent parce qu’elles ne "font pas toujours ce que l’on veut" sont arrivées dans nos vies, aussi bien dans le travail que dans notre vie personnelle ?

Les origines

Avant de pouvoir définir ne serait-ce qu’une période ou une date exacte sur les origines, il faut d’abord définir le mot « informatique ». En effet, on associe souvent ce terme avec une idée de gestion automatisée, de programmation, de systèmes d’exploitation et donc d’ordinateur. Le mot est utilisé dès 1957 en Allemagne pour parler d’un traitement automatique de l’information : « informatik » est la parole alors utilisée pour désigner ces fonctions. Pourtant, de nos jours, c’est un terme qui inclut aussi bien le domaine industriel lié à l’ordinateur que la science du traitement de l’information.

 [2]

De l’invention de la table de multiplication de Pythagore au VIe siècle avant J.C., jusqu’aux ordinateurs bientôt réellement quantiques (Le D-Wave utilisé et perfectionné par Google et la NASA), l’Homme n’a eu de cesse de chercher à perfectionner sa façon de calculer en inventant toujours des outils de calcul de plus en plus poussés : La Pascaline (1642) de Blaise Pascal (1623-1662) est une première ébauche qui se rapproche des appareils automatisés et programmables. Néanmoins, afin d’avoir réellement un outil qui met en oeuvre un enchaînement d’opérations basiques, il faut attendre le XIXe siècle. En effet, les théories de programmation naissent avec l’invention du métier à tisser de Jospeh Marie Jacquard en 1801. En 1834, un calculateur mécanique programmable, basé sur un système de cartes perforées reliées à un organe de commande, La machine analytique de Charles Babbage (1791-1871), étoffe ces théories. Ce dernier s’est inspiré de la machine mécanisée sélectionnant les fils de chaîne à l’aide d’un programme inscrit sur des cartes perforées (que l’on doit à Basile Bouchon)...

 [3]

Les débuts de l’informatique

Au début du XXème siècle nait Kurt Gödel (1906-1978), Autrichien naturalisé Américain qui était un éminent logicien et mathématicien.
Ce dernier est connu pour son théorème d’incomplétude "affirmant que n’importe quel système logique suffisamment puissant pour décrire l’arithmétique des entiers admet des propositions sur les nombres entiers ne pouvant être ni infirmées ni confirmées à partir des axiomes de la théorie". [4]

Pourtant, en 1936, Alan Turing infirme cette théorie en présentant une expérience de pensée nommée "Machine de Turing" et ce afin de résoudre le problème fondamental de la décidabilité en arithmétique. Cette "Machine" est considéré comme le premier ordinateur à ce jour.

 [5]

L’aire des "mastodontes"

Avec les avancées considérables de l’électronique, de gros ordinateurs voient le jour et sont de plus en plus perfectionnés.
Le premier, en 1946 créé par l’ENIAC (Electronic Numerical Integrator and Computer) par P. Eckert et J. Mauchly, est composé de 19000 tubes, pèse 30 tonnes, occupe une surface de 72m² et consomme 140 kilowatts.
Nous sommes donc loin de nos ordinateurs portables qui ne pèsent que 3 kg environ...
C’est aussi le cas entre 1949 et 1951 avec le Whirlwind crée au MIT par Jay Forrester, Ken Olsen et leur équipe. Cet ordinateur fut le prototype des ordinateurs utilisés pour le réseau informatique de défense américain SAGE, ou encore en 1955, lorsque IBM lance l’IBM 704, machine considérée comme le premier super ordinateur qui est dédié au calcul scientifique et où sera développé le langage FORTRAN (premier langage de programmation universel - FORmula TRANslator).
La course à l’invention révèle de nombreux projets plus innovants les uns que les autres, jusqu’aux inventions d’ARPANET (1969 - Ancêtre d’Internet), en novembre 1971, la mise en vente du premier microprocesseur par Marcian Hoff de Intel ou encore, toujours chez le même constructeur, l’invention du disque dur de type Winchester, la carte à puce par le journaliste Roland Moreno ... cette progression d’ingéniosité en tout genre va réduire le format des ordinateurs et faire en sorte qu’ils soient accessibles au grand public. Dans un article de presse au sujet du Micral, le mot microcomputer (micro-ordinateur) apparaît pour la première fois au Etats Unis en 1973.

La micro informatique

 [6]

1977 est une date importante dans l’histoire de l’informatique...
En effet, c’est cette année que Steeve Jobs décide de quitter son garage pour installer sa société Apple Computer dans des bureaux en Californie. C’est aussi en 1977 que l’entreprise Commodore Business Machines Inc. présente son ordinateur PET, qu’Apple Computer présente son ordinateur Apple, que Texas Instruments présente une nouvelle gamme de calculatrices de poche programmables et qu’Atari présente sa console de jeux Video Computer System (plus connue sous le nom de Atari 2600). La course à la miniature est lancée. Les machines vont être de plus en plus perfectionnées, abordables pour le grand public et vouées à perfectionner le travail de l’être humain. Par exemple, en 1983 Microsoft sort la version 1.0 du logiciel Word qui fonctionne sous MS/DOS. Toujours en 83, est inventé le langage C++ dérivé du langage C. Ce langage est une extension orientée objet créée par Bjarn Stroustrup. Les années 80 sont une période de l’histoire de l’informatique où les ordinateurs vont être démocratisés, notamment grâce au perfectionnement des résolutions d’écrans et à l’amélioration croissante des cartes graphiques qui vont permettre à une population de plus en plus large de profiter de l’informatique à la maison.
La sortie sur le marché d’ordinateurs comme l’Atari ST (le 1040STf / 10000 F en 1986) ou l’Amiga 1000 de Commodore (18000 F en 1985) remporte un franc succès et le grand public en Europe, en Asie et sur le continent nord américain commence à faire l’acquisition d’ordinateurs dits de maison.

 [7]

La suite, nous la connaissons tous, avec la sortie en 1983 d’une interface graphique (GUI) développée par Microsoft pour son système d’exploitation MS-DOS, interface graphique qui prendra le nom de Windows. Puis cet OS va se décliner en version 1.0x, 2.x, 3.0, etc, jusqu’à arriver à la version de Windows 95.
De son côté, la société Apple Computer s’est efforcée depuis 1984 de créer un système d’exploitation qui a toujours été vu comme un concurrent du système d’exploitation Windows. Du système 0.0 : System 0.97 de 1984, en passant par le système de Mac OS 9 en 1999, puis Guépard en 2001 (MAC OS X 10.0) jusqu’à El Capitan en 2015 (MAC OS X 10.11) et mac OS 10.15 (Catalina), la société Apple a toujours été la concurrente directe de Microsoft... ce qui a permis une évolution informatique jusqu’à lors sans précédent.

Aujourd’hui, les ordinateurs se tiennent dans une main (smartphone) et l’évolution ne va de cesse que l’invention est toujours en constante croissance. Nous stockons tous nos données grâce au cloud computing (serveurs distants utilisant beaucoup d’énergie) et nous sommes tous connectés 24h/24h. Les technologies comme la Réalité Virtuelle ou la Réalité Augmentée commencent à se démocratiser... pourtant, le numérique et l’informatique, outils utiles à l’Homme, ont aussi un impact environnemental. Nous verrons prochainement quel est cet impact et de quelle façon nous pouvons faire cohabiter numérique et environnement.

 [8]

[https://www.bm-lyon.fr/ecrire/?exec=article_edit&id_article=5027]

[1Source BDM/Media - blogdumoderateur.com

[2Pascaline, Machine à calculer, Tekniska Museet, Stockholm, Suède

[3Machine du métier à tisser de J.M. Jacquard

[4Les démons de Gödel : logique et folie / Pierre Cassou-Noguès

[6Commodore PET & Apple

[7Atari ST 1040STf

[8Décharge sauvage d’anciens ordinateurs aux États-Unis, Thayne Tuason, CC BY-SA 4.0