Comment s’est-elle développé l’informatique en France ?

Une vue d’ensemble de l’histoire de l’informatique électronique en France peut être basée sur quatre grandes dates, chacune d’elles étant un tournant pour la plupart des organisations, entreprises et personnes concernées à l’époque et même aujourd’hui.

Les tous premiers pas de l’informatique en France

Notre histoire commence en 1947-1948. En 1947, le CNRS (Centre National de la Recherche Scientifique) conclut un contrat avec la société Logabax pour la construction de la machine de Couffignal, la première calculatrice numérique électronique conçue en France. À l’hiver 1947-1948, François-H. Raymond a créé la SEA (Société d’Electronique et d’Automatisme). Parallèlement, à l’Université de Grenoble, Jean Kuntzmann a commencé des cours d’analyse appliquée et un bureau informatique équipé de calculatrices de bureau a été créé. En 1948, la direction de la Compagnie des Machines Bull décide d’investir dans l’électronique. On peut également mentionner que la même année, la « Compagnie Electra-Comptable » a embauché son 1 000ᵉ employé et a changé de nom : elle est devenue IBM France.

L’étape suivante eut lieu en 1955-1957 : la France entra dans l’ère de l’ordinateur. Les premières machines ont été installées en 1955 par la SEA dans des organisations liées à la défense, puis très bientôt dans des entreprises commerciales. Parallèlement, le CNRS acquiert un Elliott 402 et les premiers spécialistes de l’informatique électronique sont nommés dans ces comités. En 1956, Bull commercialise son Gamma ET et décide de développer le Gamma 60 ; l’IBM 650 (pour lequel le mot « ordinateur » a été inventé) est arrivé en France, bientôt suivi par l’IBM 704. En 1957, les universités de Grenoble, Toulouse et Paris ont été équipées de ces machines et ont commencé l’enseignement et la recherche en informatique. Ces événements techniques et économiques ont également leur côté « sociologique » : en 1955, la France ne compte que quelques informaticiens ; deux ans plus tard, un groupe professionnel était en plein essor, avec ses associations (AFCAL, AFRA), sa machine publicitaire et ses revues.

Les années 60 : l’informatique devient un stratégique pour l’État français

Au milieu des années 60, la situation avait radicalement changé. Depuis 1964, Bull était contrôlé par la société américaine General Electric. IBM France (10 000 salariés), avec le succès des séries 1400 et 360, a attiré l’attention et l’inquiétude. L’écart technologique et le défi américain étaient les mots d’ordre du jour. Parallèlement, les professionnels de l’informatique français avaient créé leur propre lobby informatique, particulièrement actif à la DGRST (Délégation Générale à la Recherche Scientifique et Technique) et au Commissariat Général au Plan.

Ce lobby s’est mis au travail pour obtenir l’implication d-u gouvernement à grande échelle pour favoriser le développement de l’industrie informatique française. En 1966, F. H. Raymond rencontre le général De Gaulle et lui explique les problèmes et les enjeux. À la fin de la même année, le « Plan Calcul » est lancé : trois sociétés (SEA, CAE et ANALAC) fusionnent pour former la Compagnie Internationale pour l’Informatique (CID) ; et un institut de recherche spécialisé, l’Institut de Recherche en Informatique et Automatique (IRIA) a été créée. Par ailleurs, les premiers masters en informatique et les premières thèses de doctorat sont apparus dans les universités.

Au milieu des années 70, le paysage a de nouveau changé. Bull (aujourd’hui Honeywell-Bull) a absorbé le CII et a entamé une phase de concentration industrielle. Cela a mis fin au « Plan Calcul » dans sa forme originale. Cette période est également celle où les pionniers de la première génération se retirent de la scène.

Ce résumé n’a d’autre objectif que de fournir une chronologie approximative et quelques-uns des principaux jalons. Comme toutes les chronologies, elle est quelque peu arbitraire et omet des faits importants. Par exemple, un événement majeur en 1963 a été le lancement par la DGRST d’une « action concertée » pour les calculs électroniques, visant à financer des projets de recherche industriels et académiques communs. Aussi, outre les aléas politiques et les manœuvres des grands industriels, des éditeurs de logiciels prospères se sont développés depuis la fin des années 1950 (SEMA a été créée en 1958, SESA en 1964, SLIGOS en 1972, etc.).

Les enjeux du développement de l’informatique en France

On voudrait maintenant mettre en évidence plusieurs caractéristiques majeures de l’histoire de l’informatique en France. Le premier concerne les différents revers, dont la résistance à l’innovation, qui ont joué leur rôle dans cette histoire. Un large fossé existe dans le système d’enseignement supérieur français, entre les universités et les « grandes écoles ». Traditionnellement, les diplômés universitaires sont devenus des enseignants, des chercheurs, des avocats ou des fonctionnaires. Les universités françaises ne produisaient pas d’ingénieurs jusqu’à la fin des années 1960. Les ingénieurs venaient des « Écoles » comme Polytechnique ou Centrale, où ils ont passé quatre ans à être bourrés de connaissances. Ensuite, ils sont entrés dans l’industrie ou dans l’armée où, après quelques années consacrées à l’ingénierie de base, ils sont généralement passés à des postes plus gratifiants dans la vente ou la gestion. Les ingénieurs n’avaient pas de doctorat, ils faisaient peu d’enseignement et encore moins de recherche ; la plupart des diplômés universitaires et postuniversitaires ne travaillaient pas dans l’industrie, qui était considérée comme bien en deçà des idéaux de la science pure. Les personnes appartenant à ces deux communautés n’avaient pratiquement aucun contact, parlaient des jargons professionnels différents et suivaient des schémas de carrière différents.

Même au sein des sphères gouvernementales, les ingénieurs militaires avaient leurs propres laboratoires et ne collaboraient pas étroitement avec les universitaires. Cette situation existe encore sous de nombreux aspects importants, mais elle a évolué. « L’informatique » a joué un rôle dans cette évolution. L’émergence de cette nouvelle activité a brisé les frontières traditionnelles entre institutions et communautés professionnelles. Cela devait arriver, car les informaticiens étaient si peu nombreux, jusqu’au milieu des années 1960, qu’il leur fallait se rencontrer et observer une certaine « solidarité ». Ainsi, des ingénieurs militaires et industriels sont allés enseigner la programmation et l’architecture informatique dans les universités ; et l’industrie était heureuse d’embaucher des diplômés universitaires, car les programmeurs étaient une ressource rare.

Les entraves au développement de l’informatique en France

Connaître ce contexte permet de comprendre certains des problèmes de l’émergence de l’informatique en France. La plupart des universités n’avaient pas (et ne voulaient pas avoir) de département d’ingénierie électrique ; et la plupart des chercheurs universitaires, en particulier en mathématiques, jugeaient les activités informatiques bien en deçà de leur dignité ; l’expression « informatique » était inacceptable dans les termes jusque dans les années 1970 ! Ajoutons que l’échec de Couffignal en 1951 n’a pas contribué à changer cette attitude. Décrivant la situation aux États-Unis, Nancy Stern rapporte : « Puisque de nombreux mathématiciens purs ont un dégoût intrinsèque pour tout ce qui est de nature computationnelle, von Neumann, lui-même un mathématicien pur et prestigieux, a accordé une énorme crédibilité à cette utilisation des ordinateurs ». En France, aucun mathématicien prestigieux n’a joué un rôle similaire avant les années 1960. Le scientifique qui aurait pu le faire, Léon Brillouin, s’est installé en Amérique vers 1948 !

Du côté industriel, très peu de gens ont vu un intérêt à tirer profit de la recherche universitaire. Une des raisons majeures des problèmes rencontrés par le Gamma 60 était le manque de contacts entre les ingénieurs Bull et les mathématiciens qui, dans certaines universités et au CNRS, s’étaient spécialisés dans les langages de programmation et de calcul. Seule une entreprise à la culture innovante comme IBM France aurait pu avoir l’idée, en 1954, d’organiser un fonds informatique-recherche géré par des universitaires comme le doyen de la faculté de Toulouse, E. Durand et Maurice Wilkes. La petite société SEA, dirigée par F. H. Raymond, qui était à la fois ingénieur et docteur en physique, était une exception. Certes, cet écart entre science et industrie, entre recherche pure et appliquée, entre disciplines différentes, existe partout et est inhérent à ces activités, du fait de la spécialisation croissante des sciences et des technologies, mais à des degrés divers. En France, il a été exagéré par des facteurs culturels et politiques particulièrement français.

Quelles sont les raisons derrière les années de retard dans l’informatique en France ?

La Seconde Guerre mondiale a également joué un rôle crucial dans l’histoire de l’informatique en France. En Grande-Bretagne et en Amérique, de grands projets de défense comme les machines à déchiffrer et l’ENIAC ont réuni des experts de tous les domaines et de toutes les disciplines, qui ont ensuite partagé des objectifs et des parcours communs. Pendant ce temps, dans la France occupée par les nazis, la principale obsession de la plupart des gens était de survivre ; ceux qui ont continué à se battre l’ont fait avec les moyens les plus grossiers, non avec les technologies les plus avancées. L’article de J. Vernay décrit bien comment le souci des IBMers français était de trouver du papier approprié pour les cartes perforées et de cannibaliser des pièces de grandes tabulatrices pour en faire de petites qui pourraient fonctionner. La guerre, provoquant des pénuries de toutes sortes, de lourdes pertes et un isolement des principaux courants scientifiques, peut expliquer plusieurs années de retard dans le domaine de l’informatique.

Mais la guerre n’explique pas entièrement pourquoi la France n’a eu ses premiers ordinateurs qu’en 1955, six ans après la Grande-Bretagne. La défaite de 1940 a frappé un pays déjà affaibli. L’isolement de la plupart des chercheurs français des influences étrangères, l’absence de travail d’équipe dans la tradition universitaire, ainsi que le sous-développement de la recherche dans les entreprises, étaient des caractéristiques d’une France d’avant-guerre où ni l’activité industrielle ni les innovations n’étaient pas très appréciées.

Par conséquent, l’histoire de l’informatique en France est avant tout celle d’un transfert de technologie et de connaissances. En 1946, Goldstine reçut la visite à Philadelphie d’un « très bon ingénieur », F. H. Raymond. Ce dernier, qui fut certainement le premier ingénieur français à lire la Discussion préliminaire sur la conception logique d’un instrument de calcul électronique, revient à Paris et crée un an plus tard la Société d’électronique et d’automatisme. Cette équipe, certainement la plus avancée de France jusqu’à sa disparition au milieu des années 1960, devait beaucoup aux transferts de technologie et de connaissances. Mais, comme le souligne Bill Aspray, dans les années 1950, le transfert avait tendance à être de moins en moins de connaissances scientifiques libres, et de plus en plus de technologies basées sur l’industrie.

Néanmoins, c’est grâce à la France que l’informatique existe !

Enfin, l’Histoire de l’informatique en France est aussi l’histoire d’innovations originales et d’un schéma de développement particulier. Depuis 1945, de nombreuses inventions et idées ont vu le jour en France et ont contribué à la construction d’une nouvelle industrie – pour n’en citer que quelques-unes : SEA a produit des solutions et des concepts très créatifs comme la mémoire virtuelle, et a conçu un traitement de texte (« projet BBR »), dès le milieu des années 1950. Bull’s Gamma 3 (1952), une calculatrice basée sur des diodes au germanium, était un best-seller ; il a été suivi par le Gamma 60 (1960), avec une architecture parallèle avancée. En 1972, F. Gernelle, ingénieur dans la petite entreprise R2E, a construit un ordinateur de contrôle de processus autour d’un microprocesseur Intel 8008 ; le « Micra1 N », commercialisé en 1973, a été le premier micro-ordinateur au monde.

Du côté des logiciels, le succès des entreprises françaises de « logiciels et services » tient en grande partie à la qualité de l’enseignement en mathématiques, de l’école primaire à l’enseignement supérieur. « L’école française » de mathématiques repose sur une tradition très solide, qui remonte (à travers des institutions telles que Polytechnique et École Normale Supérieure) non seulement à « Bourbaki », mais à des figures comme Fourier, Laplace et les trois grands mathématiciens français du XVIIe siècle : Pascal, Fermat et Descartes. Après tout, la notion d’analyse algorithmique d’un problème se retrouve dans le « second principe » de la méthode énoncée par Descartes dans ses Discours de la Méthode – un best-seller philosophique, qui a joué un rôle majeur dans le façonnement de la mentalité française.

 

Alan Turing, le père de l’informatique qui a bouleversé le monde

We can only see a short distance ahead, but we can see plenty there that needs to be done.

(On ne voit pas qu’à une très courte distance en avance, mais on peut y voir qu’il y a tellement de choses qu’il faut faire, Alan Turing)

Depuis des temps immémoriaux, les mathématiques ont été le principal moyen pour trouver des explications rationnelles et rationalisées aux divers phénomènes de notre existence, c’est la façon avec laquelle on essaye de trouver la solution à n’importe quel problème. Les grands maîtres des secrets des nombres ont toujours été les porte-paroles des grands changements de l’humanité. Même si ces personnages ne sont pas toujours traités d’héros pendant leurs vies, le futur ne tard pas à devenir le présent et c’est à ce moment-là que ses apportes prend la place d’honneur dans les livres d’histoire et, dans l’époque contemporain, dans les cinémas. On les connaît et les reconnaît parce que ses idées sont immortelles.

Parmi ces grands personnages de l’histoire du numérique on nous rencontre avec Alan Turing, mathématicien extraordinaire méconnu pendant des décennies par la plupart des gens parce que la nature même de ses travaux et son funeste destin l’avaient presque condamné à l’ostracisme officiel du gouvernement du pays qu’il a sauvé, c’est le cinéma hollywoodien qui a permit de revaloriser le travail du nommé « père de l’informatique », titre qu’il partage avec le Hongrois John von Neumann, lors de l’apparition du film « The imitation game », sorti en 2014 et dont le rôle principal a été joué par Benedict Cumberbatch.

Bien que le film ait été bien reçu par la critique spécialisée et par le grand public (il a obtenu 4 étoiles sur 5 d’après le barème d’Allociné), l’ouvrage n’est pas exempt de plusieurs imprécisions historiques qui ne permettent pas de comprendre en toute sa splendeur les apportes de Turing aux champs des mathématiques, de la cryptologie et de l’informatique. C’est pour ça que le propos central de cet article est celui de mettre en valeur les actions et la vie de ce génie britannique qu’a doublement changé le cours de l’histoire : d’abord en craquant Enigma, la puissant machine allemand de cryptage, et au passage créant les bases de l’informatique avec sa propre machine, la machine de Turing qui a été à l’origine des premiers ordinateurs. Ensuite, ses réflexion sur l’intelligence artificielle seront abordés puisqu’ils restent tout à fait pertinents dans nos jours et ce sont précisément ses écrits sur ce sujet qui ont inspiré le titre de ce film. Finalement, on fera référence aux aspects de sa vie et sa carrière, parce que tout aussi comme ses travaux dans le numérique, sa propre histoire est une source d’inspiration et de respect qui mérite d’être connu parce qu’elle fait partie intégral de sa légende.

Décrypter l’ennemi : comment fonctionnait-il l’Enigma allemand ?

Depuis la première guerre mondial, les ondes sont aussi devenues un nouveau champ de bataille : mouvements de troupes, stratagèmes d’offensive terrestre, aérienne ou maritime, les ondes radio transporte les ordres et les contre-ordres, les informations secrets, les positions des uns et des autres. Utiliser la radio en temps de guerre vous exposez à une interception de part de l’ennemi d’autant plus qu’à l’époque la propagation des ondes radio n’était pas aussi bien connue qu’aujourd’hui, un moyen de résoudre ce problème était d’utiliser la cryptographie, bref, de coder les messages radio.

Bien avant de début de la 2eme guerre mondial, les britanniques ont compris l’importance d’essayer de pénétrer le système de communication de l’adversaire et donc, la cote anglaise a été parsemée de stations d’interception où des milliers d’auxiliaires écoutaient les communications allemandes et retranscrivaient les messages captaient en morse, des messages incompréhensibles puisque la machinerie de cryptage allemande largement dépassait la capacité humaine.

Les allemands avaient développé ce qu’ils considéraient comme un arme absolue. Ils avaient remplacé les anciens procédés par la machine baptisée « Enigma », qu’on peut configurer 2 millions de milliards de façons différentes. Pour casser un seul de ces messages par la force brute, il aurait fallu de tourner un ordinateur d’aujourd’hui pendant un an.

La machine Enigma est une machine de chiffrement à rotor, le principe de base c’est que lorsqu’on appuie sur une lettre du clavier, cette dernière est transformée en une autre lettre. Par exemple, si l’on appuyait sur la touche « d », c’était la lettre « k » qui s’allumait sur le tableau et donc, au lieu de lire une lettre « d » l’intercepteur lisait une « k ».

Fig. 1. Schème qui montre d’une façon simplifiée le mode de fonctionnement d’Enigma

Evidement le codage aurait été trop simple si à chaque fois qu’on appuyait sur la lettre « d » c’était le « k » qui s’allumait, donc le système était configuré d’une telle manière que si l’on appuyait encore une fois sur la lettre « d » c’était n’importe quel autre lettre qui s’allumait en l’occurrence. Bred, à chaque fois qu’une lettre était entrée au clavier, l’un au moins des rotors tournaient, changeant le circuit électrique et aboutissant à un résultat différent à chaque tape du clavier. Pour décoder le message, il fallait connaître la configuration initiale de la machine, c’est-à-dire, le destinataire du message devait avoir configuré sa propre machine de la même façon que l’expéditeur pour arriver à lire le message, un simple mécanisme de décodage à l’inverse. C’est précisément cette caractéristique que Turing va attaquer pour décrypter Enigma.

Décoder l’indécodable avec les mathématiques et le numérique

Alan Turing, professeur universitaire et mathématicien reconnu à son jeune âge, a été recruté comme partie intégrale des efforts britanniques pour faire face à celle qui avait été jusqu’à là, une imparable machinerie de guerre allemande. C’est ainsi que Bletchley Park a été le théâtre de la plus incroyable opération de décryptage dans l’histoire de l’humanité. C’est la première fois, et peut-être bien la dernière, que l’un des camps a eu potentiellement accès à toutes les communications militaires secrètes de l’adversaire

Comment est-il possible de casser un code presque impossible de déchiffrer, même avec un ordinateur d’aujourd’hui due à l’énorme quantité de possibilités ? Commençons par le début : l’une des façons de casser un code est de trouver un mot probable, c’est-à-dire, d’essayer de décrypter une partie du message. Les messages d’Enigma étaient très stéréotypés, ils avaient tendance à utiliser tout le temps les mêmes phrases, surtout les messages météo contenaient beaucoup de telles phrases : « Météo pour la nuit », « Situation Manche Est », etc., et l’une des stations a envoyé le même message tous les jours à la même heure, pendant des mois : « Balises allumées selon les ordres ».

L’étape suivante est de découvrir où ce mot probable se situe par rapport au message, et cela qu’une caractéristique d’Enigma a donné un sérieux coup de pouce aux cryptologues. Du fait de son fonctionnement symétrique, la machine Enigma ne pouvait jamais coder une lettre en elle-même : un « A » dans le message en clair ne peut jamais devenir un « A » dans le message crypté, sous peine de court-circuit. En l’occurrence, on peut éliminer d’office donc tous les positions du mot probable où deux lettres identiques se retrouvent face à face et, plus le crible est long, plus il y a de positions possibles. Une fois découverte une position possible, elle implique une série d’hypothèses qui sont représentées par un diagramme.

En ce point, il ne reste qu’à découvrir une configuration de la machine Enigma qui va correspondre avec ce qui est représenté dans le diagramme que les britanniques ont nommé « menu ». Pour effectuer ce travail particulièrement laborieux, Turing conçoit une drôle de machine : il l’a appelé la « Bombe », qui va faire passer le décryptage de l’artisanat au stade industriel. Vers la fin de 1943, le groupe de Turing décodaient 4 mille messages d’Enigma par mois, soit presque deux messages par minute, nuit et jour, 24 heures sur 24. Ainsi, Bletchey Park est devenu une véritable industrie du décryptement et ça on le doit aux Bombes de Turing.

Ce qu’il y a d’unique dans Bletchey Park au moment de la Deuxième Guerre Mondiale c’est l’extension considérable des moyens qui sont donnés à la cryptanalyse et qui va de pair avec le développement des machines, c’est le début du monde dans lequel nous vivons aujourd’hui comme résultat de cette double évolution de la cryptologie à partir des mathématiques et de l’informatique.

Bref, le début des méthodes de cryptage et décryptage que l’on utilise aujourd’hui pour, disons, effectuer vos payements en ligne ou transférer de l’argent vers une autre compte bancaire, trouve son origine avec la machine Enigma et les efforts de décryptage d’Alan Turing à Bletchey Park pendant la Deuxième Guerre Mondiale. La créativité extraordinaire de ce génie mathématicien n’a pas seulement été clé pour les monde de ses jours, mais aussi, elle a donné forme au monde de nos jours.

Le vrai imitation game : peut une ordinateur se faire passer par un être humain ?

Soyons concises. Pour Alan Turing la façon de répondre à la question précédente passe nécessairement pour changer la question, à son avis il ne faut que répondre à la question : un ordinateur peut-il parler comme un être humain ?

Cette question a amené une idée pour mesurer l’Intelligence Artificielle qui deviendrait très vite connue sous le nom de Test de Turing. Dans son article de 1950, « Intelligence et machines informatiques » Turing propose le jeu suivant :

Un juge humain reçoit la transcription d’une conversation sans voir les joueurs et évalue leurs réponses. Pour réussir le test, un ordinateur doit pouvoir remplacer l’un des joueurs sans changer les résultats de façon significative. En d’autres mots, on considère que l’ordinateur est intelligent si sa conversation ne put pas être facilement différenciée de celle d’un humain.

Turing avait conjecturé que de 1950 à l’an 2000, des machines avec 100 MB de mémoire réussiraient facilement le test mais il a été trop optimiste. Bien que nos ordinateurs aujourd’hui possèdent bien plus de mémoire que ça peu ont réussi et ceux qui ont bien marché se sont plus concentrés sur des façons astucieuses de duper les juges plutôt que d’utiliser leur phénoménale puissance de calcul. Bien qu’il n’ait jamais été soumis à un test réel, le premier programme à revendiquer un succès s’appelait ELIZA, avec un code plutôt simple et court, il s’est débrouillé pour tromper les gens en imitant un psychologue, c’est-à-dire, encourager les gens à parler plus en leur renvoyant leur propres questions.

Sa réussite à duper les gens a mis la lumière sur une faiblesse du test. Les humains qualifient d’intelligence une grande variété de choses qui en fait n’en sont pas. Mais malgré les critiques à cette approche, ils en existent aujourd’hui des méthodes basés sur le test de Turing tels que les codes Captcha qui en profitent de la difficulté des machines pour se faire passer par des humains.

La légende d’Alan Turing et la pomme d’Apple

La vie privée d’Alan Turing est aussi passionnante que ses travaux : il s’agit du génie qui a possiblement raccourci la durée de la guerre au moins deux ans d’après les experts, sauvant ainsi une quantité importante des vies. Mais le pays qui l’a sauvé la condamné quelques ans après seulement à cause de son homosexualité, assez bien connu dans les élites britanniques de l’époque mais qui restait illégal dans les années cinquante. Quelques auteurs argumentent que la castration chimique qu’il a « volontairement » choisit pour purger sa peine au lieu d’aller en prison est la cause principale de son suicide, qui s’est déroulé pas plus d’un an après avoir commencé la médication.

Comment se personnage si important a décidé de finir avec sa vie ? Peut-être vous le savez déjà : l’évidence semble montrer qu’il a mordu une pomme empoisonné, oui, à la Blanche-Neige, et c’est cette histoire qui se trouve derrière le mythe qui raconte que l’emblème d’Apple est un hommage à Alan Turing, en tant que père de l’informatique. Mais l’histoire d’Apple, on la racontera dans un prochain article…

L’évolution historique des ordinateurs

Vous êtes-vous déjà demandé ce qu’était le premier ordinateur personnel? Il existe de nombreuses inventions dans l’humanité dont l’origine peut être attribuée à un seul nom, mais l’ordinateur n’est certainement pas l’une d’entre elles.

Nous parlons de décennies d’études et de découvertes dans différents domaines, et par conséquent, l’ordinateur que nous connaissons aujourd’hui est le résultat évolutif des idées de nombreuses personnes liées à des domaines tels que l’électronique, la mécanique, les matériaux semi-conducteurs, la logique, l’algèbre, la programmation et Tukif

Dans les années 50, le langage machine est né avec un ordinateur qui a permis aux processus mécaniques de devenir électriques, ce qui a permis de gagner du temps et de l’espace.

Puis, dans les années 60, le transistor est apparu, ce qui a permis le développement de circuits, qui ont amélioré les performances des machines, et puis au milieu des années 60, vient le développement des puces qui ont consommé moins d’énergie et ont réduit considérablement la taille des ordinateurs, car rappelons-nous qu’avant, c’étaient des machines gigantesques.

Cependant, malgré la réduction de la taille, les ordinateurs ne pouvaient être utilisés que par des ingénieurs, des physiciens et des mathématiciens dans les entreprises.

Les années 1970 ont été marquées par l’avènement de la micro-puce et du microprocesseur, qui ont rendu les ordinateurs personnels accessibles à tous. Cette machine a donc pu être vue plus régulièrement dans les petites entreprises et même dans les foyers.

Et puis, entre les années 80 et 90, les systèmes d’exploitation à interface graphique et l’apparition d’Internet sont apparus, et c’est au cours de ces années que les ordinateurs ont commencé à être vraiment communs dans les foyers du monde entier et Wannonce

Steve Jobs et Apple, les stars incontestées

Steve Jobs @ WWDC 2007 | Steve Jobs speaks at his keynote at… | Flickr

Bien que nous connaissions aujourd’hui Apple comme l’une des entreprises les plus fortes et les plus prospères du monde grâce à tous ses produits technologiques, cela n’a pas toujours été le cas.

En fait, en 1983, la société a fabriqué Lisa (Local Integrated System Architecture), le deuxième ordinateur à disposer d’une interface utilisateur graphique. C’était un micro-ordinateur très avancé pour son époque et un pionnier dans l’intégration d’un ensemble d’avancées technologiques au niveau du matériel et des logiciels qui sont maintenant standard dans l’industrie informatique, comme la souris, l’interface utilisateur graphique (GUI), le système bitmap, l’écran à fond blanc avec affichage WYSIWYG (What You See Is What You Get) avant l’impression, le disque dur, la micro-flotteur, la mémoire virtuelle, la capacité multitâche, etc.

L’idée de la Lisa était d’augmenter la productivité en rendant les ordinateurs plus faciles à utiliser.

La création de Steve Jobs s’appelait Lisa et certains critiques affirment que Jobs a volé l’idée des stations de travail Xerox, tandis que d’autres prétendent qu’il a simplement emprunté l’idée pour la faire Hamster X. La vérité est que le lancement de cette machine a été un échec irréfutable pour l’entreprise.

Bien que très avancé et offrant des concepts très nouveaux pour l’époque, l’ordinateur n’a pas eu beaucoup de succès. Les ventes de l’ordinateur n’ont pas été à la hauteur des attentes car les clients professionnels ont résisté au prix élevé de l’ordinateur (près de 10 000 dollars) et ont choisi de travailler avec les ordinateurs IBM PC, moins chers. 

Naissance du Macintosh, exposition Le Mac

En 1982, Steve Jobs a rejoint le projet Macintosh, qui était une alternative économique et domestique à Lisa. Le Macintosh 128K, nommé ainsi en raison de ses 128 KiB de RAM, est sorti le 24 janvier 1984 et a été le premier ordinateur personnel à être commercialisé avec succès. Sa présentation verticale la rend facile à transporter, la souris devient indispensable et surtout son système d’exploitation fait la différence.

Archivo:Tatung-einstein-computer.png - Wikipedia, la enciclopedia ...

Ses caractéristiques techniques ont révolutionné l’industrie informatique au milieu des années 80, en maintenant sa ligne de développement évolutive jusqu’à aujourd’hui.

Le premier Macintosh, le Macintosh 128K, a été annoncé à la presse en octobre 1983, suivi d’un dossier de 18 pages repris dans plusieurs magazines en décembre de la même année. Le 22 janvier 1984, il a été introduit avec le célèbre spot télévisé réalisé par Ridley Scott « 1984 », 17 qui a été diffusé dans le troisième quart du 18e Super Bowl.

Deux jours après la diffusion de l’annonce, le Macintosh est sorti. Il a été fourni avec deux applications conçues pour afficher son interface graphique: MacPaint et MacWrite. La première démonstration publique a été faite par Steve Jobs dans le premier de ses célèbres discours des Keynote. 

Le musée de l’informatique ouvrira sa première cité numérique à Sophia Antipolis

Malheureusement, en avril 2010, le musée de l’informatique a fermé ses portes en raison d’un problème technique lié aux ascenseurs de l’arche de la défense. Mais en été 2011, le créateur du musée principal a annoncé sur le blog officiel que le musée prendrait la forme de petites cités numériques dans toute la France.

La première de ces cités numériques se tiendra à Sophia Antipolis.

 M. Nieuwbourg a indiqué que la cité numérique serait accessible au grand public, mais qu’elle donnerait la priorité aux excursions prévues par les lycées et les universités pour faire découvrir aux élèves l’histoire de la science des technologies et PornoPlus.fr.  

Le journaliste a également déclaré que le musée de l’informatique sera présent dans au moins 7 cités numériques en France, positionnées dans les villes les plus peuplées de l’hexagone pour attirer l’attention des touristes et des étrangers en particulier. Toutefois, contrairement au siège principal de l’Arche de la Défense à Paris, ces nouveaux musées seront temporaires, mobiles et se tourneront entre les différentes cités numériques, permettant à chaque région de découvrir de nouveaux contenus deux fois par an.

Le musée de l’informatique est un voyage dans le passé 

Lorsque nous sommes passionnés par un domaine ou un sujet, il est normal d’être curieux et de vouloir savoir tout ce qu’il faut par rapport au sujet. L’origine, son histoire, son voyage dans le temps, comment il est arrivé au présent, et nous aimons même imaginer ce que sera son avenir. Nous supposons que Philippe Nieuwbourg a pensé à quelque chose comme ça quand il a décidé de créer le premier musée de l’informatique en France.

Le quartier de La Défense à Paris, situé dans le département des Hauts-de-Seine, est célèbre non seulement pour ses bureaux luxueux, mais aussi pour avoir le premier musée européen de l’informatique, inauguré en avril 2008. 

File:Musee de l'Informatique 01.jpg - Wikimedia Commons

C’est sans aucun doute un paradis pour les informaticiens et les amateurs de technologie et d’Internet. C’est le premier musée français entièrement consacré à l’informatique et à l’Internet.

En fait, le personnel du musée propose une visite fascinante de ses installations où ils expliquent l’histoire de l’informatique, l’origine des ordinateurs, la connaissance des premiers ordinateurs personnels du milieu du 20e siècle, la naissance et l’histoire d’Internet -de la guerre froide à nos jours-  et a également présente les appareils modernes qui sont en cours de préparation pour leur lancement sur le marché.

La visite était composée de promenades avec des vidéos, des lectures, des photos et aussi des audio guides.

Nieuwborg est un journaliste spécialisé dans le domaine des ordinateurs, co-créateur du iMusée de Montréal, et cette passion pour les ordinateurs l’a amené à créer un musée très intéressant dont l’objectif était de reconstruire, et de préserver, le patrimoine historique de cette science passionnante, puisque de nombreux jeunes de notre génération supposent que la technologie telle que nous la connaissons aujourd’hui a toujours été comme ça.

Mais il est important de se souvenir de tout le chemin parcouru, de l’effort et de l’évolution que la pensée humaine a connue au fil des ans pour arriver à ce que nous avons aujourd’hui. En effet, la devise du musée est : « Connaître le passé, comprendre le présent, pour imaginer l’avenir ».

Le 11 avril 2010, après la panne des ascenseurs qui donnent accès au musée, le Ministère a décrété la fermeture du toit aux visiteurs et quatre mois plus tard, ils ont décidé de fermer le musée définitivement. Pendant ses quelques années de fonctionnement, le musée a réussi à attirer 750 000 visiteurs et a accumulé des bénéfices de 1,2 million d’euros.

File:Apple Lisa 1983 at Musee de l'Informatique.jpg - Wikimedia ...

 Collections

L’exposition du musée est un espace de 400 mètres carrés, dans lequel on trouve environ 200 pièces très intéressantes telles que des microprocesseurs, des ordinateurs, des minitels, mais aussi des machines à écrire électroniques et des lecteurs de bandes perforées.

On y découvre aussi le tout premier micro-ordinateur, les premières calculatrices, le premier PC portable, el Macintosh Plus signé par Steve Jobs, la première souris et bien d’autres objets qui ont révolutionné l’Informatique.

Les clés USB sont-elles en danger d’extinction ?

Les clés USB sont des dispositifs qui sont apparus dans les années 2000 comme un excellent remplacement des disquettes. Compactes, moins vulnérables et dotées d’une capacité de stockage incroyablement élevée, les clés USB sont devenues le produit star de la décennie. Et au fil du temps, ils sont devenus le système de stockage et de transport de données personnelles le plus utilisé. 

Cependant, un peu plus de 20 ans se sont écoulés depuis leur création et peut-être que beaucoup de gens aujourd’hui estiment que les clés USB ne sont plus aussi essentielles.  Avec la création de téléphones portables à haute capacité de stockage et l’avènement du stockage en nuages, les clés USB risquent certainement de disparaître, tout comme leur prédécesseur, la disquette ou le CD.

Nous ne savons pas si nous sommes loin ou près de ce moment, mais la vérité est qu’il y a encore beaucoup de gens dans le monde qui ont atteint une utilisation très spécifique pour leurs clés USB et n’ont pas trouvé un autre appareil qui puisse faire la même chose. En fait, de nos jours, on trouve facilement des clés USB d’une capacité maximale de 512 Go ou 1 To qui peuvent être utilisées comme disque dur externe pour stocker nos fichiers les plus précieux, et les plus lourds, et nous ne voulons pas les stocker sur notre téléphone ou le nuage ne le permet pas en raison de leur poids.

5 grands usages que vous pouvez encore faire de votre clé USB

Si vous avez une vieille clé USB rangée dans un tiroir, voici quelques façons de l’utiliser à votre avantage :

Configurez un système Linux portable

Si vous êtes l’un de ces fidèles fans du système d’exploitation Linux et que vous avez pratiquement oublié comment utiliser Windows ou Mac Os, de nombreuses distributions Linux actuelles peuvent fonctionner directement à partir d’une clé USB. Qu’est-ce que cela veut dire ? C’est facile. Si vous disposez d’une clé USB de grande capacité, vous pouvez emporter un ordinateur entier dans une clé USB – ou du moins tout ce qu’il contient, y compris vos fichiers et vos applications. Pour l’utiliser, il suffit de le connecter au port USB de n’importe quel ordinateur et voilà… vous aurez tout ce que vous avez dans votre système d’exploitation dans un pen drive. C’est beaucoup plus efficace que de transporter son ordinateur partout, n’est-ce pas ? 

– Emportez vos apps et vos fichiers partout où vous allez

Vous pensez peut-être qu’il est un peu exagéré d’emporter votre système d’exploitation partout, car vous pourriez rester dans Windows, par exemple. Mais grâce à la clé USB, vous pouvez avoir toutes vos applications dans une clé USB. Cela vous permet de rester à l’écart du système d’exploitation principal et de ne pas le remplir de logiciels inutiles. La plupart des apps peuvent être exécutées de cette manière.

Les avantages sont les mêmes que pour l’utilisation de Linux à partir d’une clé USB : la possibilité d’emporter vos fichiers et vos applications partout où vous allez. Il est beaucoup plus facile de voyager avec une clé USB dans la poche qu’avec un ordinateur portable, tant que vous avez un port USB inutilisé sur votre lieu de destination.

  • Pas de connexion ? Accédez à tous vos fichiers

Oui, c’est vrai, vous pourriez utiliser un nuage pour sauvegarder vos fichiers et les « emmener » partout. Cependant, pour utiliser ce mode, il faut une connexion internet, et parfois l’utilisation du stockage en nuages peut devenir un peu lourde si l’internet n’a pas une excellente vitesse. Dans ce cas, la clé USB est infiniment plus utile, vous pouvez avoir tous vos fichiers sur un petit appareil qui n’a pas besoin d’internet pour fonctionner.

  • Nettoyez les virus de votre ordinateur

 

Votre clé USB vous permet de stocker un ou plusieurs scanners de virus et deviendra un outil de suppression des virus et des logiciels malveillants que vous pourrez emporter partout. Ainsi, si vous avez un ordinateur qui a été infecté par un virus, vous pouvez utiliser la clé USB pour nettoyer le logiciel malveillant. Mieux encore, vous pouvez aussi aider vos amis en emportant votre clé USB partout où vous allez.

  • Créez un disque de récupération

 L’un des problèmes les plus désespérés et qui peut faire dresser les cheveux sur la tête de plus d’une personne est le fait que le système d’exploitation ne démarre pas. Et un disque de récupération installé sur un pen drive peut aider votre PC revivre. Tout ce que vous avez à faire est de créer le disque de récupération avant que cela ne vous arrive, évidemment. 

Deux autres avantages des clés USB sont qu’elles peuvent théoriquement conserver des données pendant environ 20 ans, de sorte que vos fichiers seront en sécurité pendant longtemps. De plus, pour les geeks et les collectionneurs, les clés USB sont maintenant en abondance sous des milliers de formes, donc vous pouvez toujours choisir un design vraiment cool pour vous démarquer.