Tour d'horizon du monde de l'informatique depuis ses débuts

Les chroniques de l’informatique

Depuis les origines du langage écrit et du calcul, l'homme n'a de cesse de trouver un moyen artificiel capable d'assumer ou d'alléger les tâches intellectuelles ou physiques qui lui incombent. Déjà au IXème siècle avant JC, le boulier qui fait son apparition en Chine constitue une première approche d'un "appareil" destiné à effectuer des calculs arithmétiques en lieu et place des doigts et des cailloux, seuls outils alors à la disposition des mathématiciens. Presque trois mille plus tard, et malgré l'explosion informatique, le boulier est encore très répandu en Extrême-Orient, preuve s'il en est de son efficacité. Qui peut jurer de l'avenir du micro-ordinateur dans les trois millénaires à venir ?

Si le boulier demeure pour certains une solution plus qu'acceptable pour l'exécution de calculs simples, la masse des connaissances universelles qui ne cesse de s'accroître depuis les origines donne naissance à un besoin précis : celui de créer des machines infaillibles et surtout à même de dépasser les limites intellectuelles humaines. Dès 70 avant JC, les Grecs créent une première véritable machine à calculer, entendez par là reposant sur le principe de l'engrenage différentiel, destinée au calcul de la position des deux astres les plus importants aux yeux des astronomes de l'époque hellénistique, à savoir la lune et le soleil. Il faudra néanmoins attendre dix-sept siècles avant que l'association d'idées de quelques têtes pensantes européennes, dont Blaise Pascal avec sa Pascaline, ne se penchent sur l'élaboration d'une machine à calculer dont l'aboutissement, cent cinquante ans plus tard, sera la machine de Leibniz.

Dès lors, tous les esprits mathématiques de la planète se mettent en chasse du principe révolutionnaire qui permettra d'aller plus loin et plus vite. Au nombre des grands précurseurs, citons l'anglais Charles Babbage (1792-1871) et ses machines "différentielles" et plus tard "analytiques", toutes deux programmables... Si les hommes sont numériquement supérieurs dans cette course au calcul, c'est à une mathématicienne anglaise, Ada Byron, que l'on doit la découverte des principes de la programmation. Babbage, son associé et ami, tentera de les mettre en pratique en suivant trois cheminements différents, à savoir : la mécanique, le numérique et les cartes perforées dont la paternité revient au français Joseph-Marie Jacquard qui le premier en fait usage en 1805 pour son métier à tisser.

Les bases sont désormais jetées et tout va s'accélérer. Il serait présomptueux et surtout fastidieux de vouloir dresser ici une liste exhaustive de tous les génies qui ont présidé à la naissance de l'information automatique, autrement dit de l'informatique. Mais avant d'entrer dans le vif du sujet qui nous intéresse plus précisément, la micro-informatique, faisons une halte en 1944, sur un quai de gare quelque part aux Etats-Unis, un an presque jour pour jour avant le lancement de la bombe atomique sur Hiroshima. C'est ici que va se jouer la rencontre qui donnera lieu à la création de l'Edvac, successeur incomparablement plus puissant de l'Eniac. Les acteurs sont John Von Neumann qui travaille alors à la résolution des calculs complexes que pose le projet Manhattan et H. H. Goldstine qui a en charge le suivi scientifique du projet PX, nom de code secret de l'Eniac. L'apport du mathématicien à l'élaboration de ces engins titanesques est décisif. Aujourd'hui encore, il est fréquemment fait référence à l'architecture Von Neumann qui désigne le principe de fonctionnement de presque tous les ordinateurs connus... et ceux qui jalonnent notre histoire micro-informatique depuis la disponibilité du premier microprocesseur en 1972, et dont nous allons maintenant retracer l'existence parfois éphémère, n'y échappent pas.

Le temps des pionniers

Au commencement, il y a le transistor. De 1950 à 1970, l'informatique est un domaine réservé à l'élite de l'élite. Les machines, gigantesques (comme l'Eniac de 30 tonnes), ne peuvent effectuer que quelques opérations à un prix exorbitant. Mais tout va changer très rapidement.

A quoi peut donc servir un calculateur électronique pendant les "30 glorieuses", années de l'après-guerre qui ont marqué la reprise de l'économie mondiale ? Certes, les militaires et la Nasa en ont besoin pour prévoir les trajectoires de leurs projectiles et quelques banques utilisent ces énormes machines pour évaluer leurs intérêts. Mais au-delà, peu ou pas d'applications intéressantes pour le commun des mortels, surtout vu le prix des composants ! Les grands de l'économie ignorent tout bonnement l'informatique, réservée à quelques scientifiques pour la recherche fondamentale. A l'origine, la programmation s'effectue presque uniquement en assembleur, c'est-à-dire en indiquant au processeur les tâches à effectuer, instruction par instruction. Il faut attendre le début des années 70 pour voir apparaître le concept de système d'exploitation, avec le développement d'Unix et du C, réservés à une élite. On parle également Fortran (Formula Translator) du côté des scientifiques et Cobol (Common Business Oriented Language) chez les gestionnaires.

Mais entre les montagnes Rocheuses et l'océan Pacifique, sur cette petite langue de terre appelée Californie, quelques personnes s'apprêtent à changer le monde, même si elles n'en ont pas encore bien conscience à l'époque. Dans les faubourgs de San Francisco, une équipe de chercheurs du Parc (Palo Alto Research Center) emmenée par Douglas Englebart crée en 1971 une machine étrange pour le compte de Xerox. Baptisée Alto, la chose comprend un écran, une interface graphique avec des fenêtres, un petit boîtier avec des roulettes (pour déplacer un curseur à l'écran) et un langage de programmation, Small Talk. Mais l'Alto est finalement considéré comme sans intérêt par les dirigeants de Xerox. Le prototype est oublié dans une quelconque cave du centre et Englebart passe à autre chose.

Si l'informatique n'est pas vraiment « porteuse », l'électronique par contre en passionne plus d'un. Notamment une petite firme du nom d'Intel, spécialisée dans la conception de mémoires, de circuits et de ce que l'on n'appelle pas encore des microprocesseurs. Un beau jour de 1972, un constructeur japonais demande à Intel de créer 12 microcircuits pour équiper une calculatrice. Intel accepte... mais ne sait pas trop comment procéder. C'est alors qu'un de ses employés, Ted Hoff, a une idée de génie : au lieu de produire 12 pièces, pourquoi ne pas en construire une seule avec les mêmes capacités ? Convaincus, les dirigeants de la société le soutiennent : et voici le 4004, premier microprocesseur de l'histoire, tournant à la fréquence de 108 KHz. Une fréquence tout à fait exceptionnelle pour l'époque... Persuadés de tenir un bon filon, les fondateurs d'Intel vont donc poursuivre sur cette lancée des plus prometteuses.

Logo de la société Intel, fabriquant de micro-processeurs

Outre-Atlantique, deux Français, André Truong et François Gernelle, fabriquent un calculateur électronique perfectionné : le Micral N. Cet appareil rencontre peu de succès, mais on le considère comme le premier micro-ordinateur de l'Histoire, même s'il n'est destiné qu'à la gestion des automates sur les chaînes de montage des grandes usines. Il est vrai qu'à l'époque, le gouvernement français s'occupe de toutes les orientations industrielles dans le cadre de plans pluriannuels, ce qui n'est pas le meilleur gage de réactivité.

Retournons aux Etats-Unis : en décembre 1974, la société Mits d'Ed Roberts crée l'Altair 8800 : un boîtier avec des diodes et des commutateurs que l'on actionne pour effectuer des opérations mathématiques, fonctionnant sur la base d'un Intel 8080. Et là, surprise ! L'Altair fait fureur (relativisons, on ne parle encore que de quelques centaines d'exemplaires vendus) auprès d'une génération d'étudiants qui ne savent pas exactement à quoi il sert, mais qui pressentent que l'avenir se joue dans ces "nouvelles technologies".

Deux étudiants dans un garage

Un soir de 1975, lors d'une convention de fans de l'Altair, deux étudiants inventent dans une chambre de motel un langage de programmation permettant d'en simplifier l'utilisation. Le langage est baptisé Basic (acronyme de "Beginner's All-purpose Symbolic Instruction Code"). Les deux étudiants sont alors de parfaits inconnus : il s'agit de Paul Allen et d'un certain William H. Gates, que tout le monde appelle Bill. Ils décident aussitôt de créer une société pour commercialiser leur invention et la nomment Micro-Soft (le tiret disparaîtra par la suite, voir l'histoire de la société Microsoft). Diffusé sous le nom de MS-Basic, ce logiciel connaît rapidement un grand succès... et déjà de nombreuses copies ! Dès 1976, Bill Gates publie une lettre ouverte dans laquelle il fustige amèrement ceux qui ne respectent pas la propriété intellectuelle : c'est la première dénonciation des pirates ! Sa réaction provoque l'indignation de nombreux passionnés : à l'époque, la micro-informatique est encore un domaine sans argent, réservé à une poignée d'idéalistes issus de la génération hippie.

Logo de la société Microsoft, concepteur du système d'exploitation Windows ©

Restons chez les hippies, justement. Toujours à San Francisco, deux autres jeunes passionnés se rencontrent... A croire que la nature binaire de l'informatique se retrouve dans les nombreux duos humains qui ont fait son histoire ! Il s'agit de Steve Wozniak (employé de Hewlett-Packard) et de Steve Jobs (ancien d'Atari, une société de jeux vidéo en plein boom, suite au succès des consoles d'arcade). L'histoire est devenue mythique : en 1976, dans le garage de Jobs (d'où le nom de garage companies donné aux start-ups de l'époque), les deux larrons bricolent un micro-ordinateur muni d'un clavier, afin d'entrer rapidement les instructions de l'interprète Basic. Autre innovation, une prise permettant de brancher le tout sur une télévision. Le processeur est un 6502 de MOS Technology, basé sur un composant Motorola et, surtout, bien moins cher que l'Intel 8080.

Leur machine terminée, Wozniak et Jobs la proposent à une boutique voisine, sous le nom de la société qu'ils viennent de fonder : Apple (le nom viendrait du régime alimentaire suivi par Jobs durant cette période). La boutique, Byte Shop, achète cinquante exemplaires de cet appareil et demande à un ébéniste de fabriquer un coffret en bois en guise d'écrin. C'est un triomphe ! Le premier Apple se répand aux quatre coins des Etats-Unis. Mais il y a quand même un problème : à chaque démarrage, il faut entrer de longues lignes de commandes (3000 signes au total), qui rebutent les utilisateurs néophytes. Jobs et Wozniak, sortis de leur garage, vont donc développer une version simplifiée, baptisée tout simplement Apple II. Pourvu de 4 Ko de mémoire vive, ce nouveau modèle propose une innovation révolutionnaire : à l'aide d'un magnétophone et d'une cassette standard, on peut désormais enregistrer le code et le charger en mémoire sans avoir à le taper. Autre changement : c'est désormais le MS-Basic, dont ils ont acheté la licence en 1979, qui équipe l'Apple II. Dès lors, la grande aventure peut commencer.

Logo de la société Apple, co-fondé par Steve Jobs

Les grands de l'électronique sont encore sceptiques, mais quelques constructeurs originaux décident de se mettre à la micro-informatique. Zilog, un fabricant de puces, sort le Z80, qui sera le processeur le plus utilisé de la décennie ! Il servira de base à de nombreux modèles marchant sur les traces de l'Apple II, dont certains sont restés dans les mémoires : les anglais Commodore PET et Sinclair ZX 80, l'américain Tandy TRS-80 (distribué par le réseau des boutiques Radio Shacks, présentes sur tout le territoire et bien connues des "bidouilleurs"). Atari lui-même commence à délaisser ses consoles de jeux... Entre 1977 et 1980, c'est l'explosion, avec la sortie de plusieurs dizaines de modèles différents ! Les prix chutent : l'Apple II, dont les capacités ont été revues à la hausse (48, puis 64 Ko de mémoire et un lecteur de disquettes en remplacement du magnétophone), commence à souffrir de son image de produit haut de gamme. Coûtant plus de 10 000 F, il est concurrencé sur le marché européen par des produits britanniques (Oric, Amstrad) ou français (la gamme des Thomson TO7 et MO5, que le gouvernement tente d'imposer dans toutes les écoles de l'Hexagone).

Les logiciels arrivent enfin

Si l'on programme toujours en Basic ou en assembleur, un nouveau marché apparaît, celui des logiciels. Car un ordinateur n'existe que par ce qu'il permet de faire et que de nombreux utilisateurs préfèrent des solutions toutes faites. Le premier grand succès de l'édition de logiciels est Visicalc, un tableur écrit en Basic pour l'Apple II. Inventé par un étudiant en gestion qui en avait assez de devoir remplir un nouveau tableau de chiffres à chaque nouvelle donnée, ce programme marque la naissance de la feuille de calcul (alors limitée aux dimensions, impressionnantes pour l'époque, de 256 lignes et 64 colonnes). Autre vecteur du développement : le jeu. Les best-sellers des jeux d'arcades sont adaptés aux micro-ordinateurs de l'époque. Avec l'apparition des premières imprimantes, le traitement de texte s'impose également comme une application professionnelle de premier plan, dont les premiers logiciels stars s'appellent Apple Writer ou WordStar. WordStar est un des premiers programmes tournant sur un système d'exploitation "standard" : il est capable de fonctionner sur toutes les machines utilisant les processeurs Zilog ou Intel. Une industrie vient de naître.

Logo de la société IBM, célèbre fabriquant d'ordinateur personnel et professionnel

Dès lors, l'incontournable maître de l'informatique, IBM, sent le vent tourner : Big Blue commence à se dire que ces gadgets méritent peut-être d'être considérés comme de véritables ordinateurs. Pas question de se laisser voler un créneau par une bande d'étudiants dépenaillés ! Le géant d'Armonk se met donc en tête de fabriquer un micro-ordinateur efficace, pas trop complexe, mais suffisamment sérieux pour balayer les petits constructeurs et s'installer dans les bureaux et foyers de milliers de particuliers. Il s'agit surtout d'écarter Apple, qui s'est taillé en l'espace se seulement quatre ans une réputation extraordinaire dans le monde entier. Jusque-là, le savoir-faire d'IBM en matière de petits systèmes est plutôt limité : les plus petits modèles de la firme font à peu près la taille... d'une armoire normande. Une équipe spéciale est donc mise sur pied afin de concevoir des machines d'envergure plus modeste. Pour arriver à ses fins, la compagnie choisit ce qu'il y a de mieux sur le marché : le processeur Intel 8088 (4.77 MHz, une fréquence incroyable pour l'époque), une mémoire de 16 Ko extensible à 64, un lecteur de disquettes (hormis l'Apple II, la plupart des modèles concurrents utilisent encore des cassettes magnétiques), et enfin un écran de 320*200. Bref, un appareil "révolutionnaire" (l'expression a fait florès, parfois à mauvais escient), même s'il n'intègre pas le disque dur, dernière innovation des laboratoires de recherche de Big Blue. A quoi bon, en effet ? A l'époque, IBM ne voit encore aucune raison de développer cette technologie de pointe pour des utilisateurs personnels. "Personnel" : le grand mot est enfin lâché, il ne tardera pas à passer à la postérité sous sa forme anglophone, puisque IBM baptise son premier micro-ordinateur du nom de PC, pour Personal Computer.

Bien évidemment, ces premiers PC ont besoin d'un système d'exploitation, mais les développeurs de Big Blue ne se sentent pas franchement concernés par un produit aussi éloigné de leurs hautes préoccupations. Les responsables du projet décident donc de faire appel à des compétences extérieures. Après un rendez-vous manqué avec les créateurs de CP/M, IBM se tournera vers une jeune société de Seattle, dont le langage Basic est réputé et qui vient de modifier son nom en le débarrassant d'un trait d'union disgracieux. Microsoft, IBM, Intel... Les principaux acteurs d'une guerre économique sans précédent sont désormais en place. Le combat va pouvoir commencer : il sera global, sans merci et laissera de nombreuses victimes sur le carreau dans les années qui suivront. Mais ceci est une autre histoire...

L’ère du PC

Les années 80 sont marquées par le développement de la micro-informatique grand public et professionnelle. D'un côté, Apple, de l'autre, IBM. Entre les deux, une multitude de petits constructeurs entendent bien profiter des miettes du banquet. Tout au long de cette période, le standard PC prend forme.

IBM prépare donc un grand coup : la sortie du micro-ordinateur pour tous. Le PC de Goliath est prêt à écraser l'Apple II de David. Techniquement, tout semble parfait, mais il manque une "petite" chose : un système d'exploitation, c'est-à-dire une interface efficace et complète entre le processeur, les périphériques et l'utilisateur. Pour cela, IBM se tourne vers le pionnier du logiciel pour micro, Microsoft, dont le langage MS-Basic représente alors le summum de la convivialité. Mais à Seattle, on n'a rien de prêt dans ce domaine. IBM tente alors de se procurer le système CP/M auprès de Gary Kindall, fondateur de Digital Research. Le jour où les représentants de Big Blue se rendent chez Kindall, celui-ci est absent, coincé dans un avion en retard et sa femme refuse de signer !

Après le succès de son langage Basic (souvent imité, il faut bien le dire), Bill Gates pressent le besoin de développer un système d'exploitation. La requête d'IBM conforte donc son analyse. Plutôt que de se lancer dans un coûteux développement, Microsoft va trouver la réponse à ses besoins dans les travaux d'un certain Tim Paterson. Meilleur développeur qu'homme d'affaires, ce dernier a créé au tout début des années 80 un système baptisé Q-DOS (pour "Quick and Dirty Operating System", "une saleté de système d'exploitation"). Conçu en deux mois à peine, le petit ensemble logiciel de Paterson séduit aussitôt Microsoft, qui en achète les droits pour "seulement" 50 000 $. Et Gates change le "Quick and Dirty" en "Microsoft Disk Operating System". MS-DOS est né, juste à temps pour répondre aux attentes d'IBM, revenu à la charge après l'échec des discussions avec Digital Research. MS-DOS représente un contrat de licence en or pour la firme, qui touche quelques dollars sur chaque PC vendu. Evidemment, personne ne prévoit encore à l'époque le montant des royalties...

Le PC arrive donc sur le marché et connaît un assez beau succès. Un succès qui ne vient pas de son prix (50 000 F), ni de sa capacité mémoire (l'Apple II dispose alors de 48 Ko, soit 32 de plus que la version de base), ni même de MS-DOS, qui rebute parfois les utilisateurs en raison des nombreuses commandes à maîtriser. En fait, c'est la marque qui fait vendre : le nom du géant de l'informatique lourde rassure les entreprises. Car paradoxalement, ce succès repose sur un malentendu marketing : l'ordinateur "personnel" d'IBM, livré avec Visicalc et le traitement de texte Easywriter, séduit les professionnels. Il faut bien reconnaître la réactivité impressionnante de Big Blue. L'entreprise confirme son offensive sur le marché de la micro en lançant le PC XT en 1983 : une machine dotée du même processeur Intel 8088 (porté à 8 MHz), mais avec 128 Ko de mémoire et un disque dur de 10 Mo. En 1984, c'est au tour du PC AT.

Sur le marché des ordinateurs familiaux, la réaction ne se fait pas attendre, c'est la foire d'empoigne : ce segment de marché est encombré de très nombreuses machines, certes bien moins performantes que le PC (elles sont, en effet, toutes incompatibles entre elles), mais avec un atout incontournable : des prix qui les mettent à la portée du plus grand nombre. C'est l'époque du Commodore 64 ou 128, avec lecteur de disquettes. Le ZX 80 de Sinclair évolue vers le ZX 81, puis s'oriente vers le Spectrum. Le CPC d'Amstrad s'impose comme un succès impressionnant. Dans l'Hexagone, Thomson se lance aussi dans l'aventure avec le TO7, équipé d'un microprocesseur Motorola, que le gouvernement décide d'imposer dans les milieux de l'éducation. Cette concurrence effrénée fait des victimes, et elles sont nombreuses, notamment chez les fabricants de consoles de jeux qui ont essayé de se reconvertir à la micro en raison de la crise qui les frappe. Atari y réussit un temps avec ses séries ST, mais toutes ces marques disparaissent du marché à la fin de la décennie.

La foire d’empoigne

Même le pionnier Apple prend peur : si l'Apple II et ses évolutions ont toujours un réel succès, il est peu à peu relégué au rang de machine réservée aux fondus d'informatique : trop cher pour les familles, pas assez puissant pour les entreprises. Il faut contre-attaquer. Tout d'abord avec l'Apple III, un produit bâclé en vitesse pour fournir une réponse au PC d'IBM. La réputation de la marque vacille, mais elle conserve deux projets dans ses cartons et compte bien les mener à terme. En 1981, en visitant les laboratoires de Xerox, Steve Jobs tombe sur l'Alto. C'est le coup de foudre ! Jobs décide de s'inspirer du vieux prototype pour frapper le géant. Dès lors, Apple va se concentrer sur le développement de deux machines. Non sans difficultés d'ailleurs, Jobs ayant tendance à imposer ses idées à ses collaborateurs et à faire fi de toute remarque désobligeante. C'est ainsi que le Lisa, un ordinateur dans lequel la firme faisait reposer beaucoup d'espoirs, est pratiquement torpillé un an après sa sortie (1983) par le micro dont Jobs revendique la paternité : le Macintosh, du nom d'une variété de pommes canadiennes.

Ce dernier est une révélation : souris et interface graphique (adieu aux lignes de commandes DOS !), boîtier compact et léger... La stratégie marketing d'Apple ne lésine pas sur les moyens : un spot publicitaire pour le Mac va même jusqu'à présenter IBM comme un nouveau "Big Brother" (nous sommes en 1984 !). Hélas, après un très bon départ, les ventes du Mac stagnent. En effet, même s'il est plus sympathique que les PC, il lui manque l'essentiel : les logiciels ! Car à l'exception d'un traitement de texte et d'un logiciel de dessin, le Mac ne dispose de rien. Apple se tourne donc tout naturellement vers un spécialiste du problème : Microsoft. Une erreur que Jobs va regretter longtemps ! L'éditeur de Seattle fournit à Apple le tableur Multiplan. Mais cela ne suffit pas à relancer le Mac. Wozniak, en désaccord complet avec la politique maison, claque la porte. Jobs n'a pas cette chance : John Sculley, nouveau directeur d'Apple, lui ôte toute responsabilité, à tel point que Jobs démissionne en octobre 1985 pour aller fonder sa propre entreprise, NeXT. Le départ de Jobs permet à Apple de se remettre au travail. Le Mac 512 sort des chaînes en 1985, suivi l'année suivante par le 512e. Ces versions améliorées (Excel remplace Multiplan) sont plus efficaces. Les ventes repartent.

C'est au tour d'IBM d'avoir peur. D'abord à cause du succès commercial du Mac, qui commence à disposer d'une logithèque et qui joue la carte de la simplicité d'utilisation. Mais surtout à cause de Microsoft, qui distribue ses produits aux concurrents, notamment le système d'exploitation MS-DOS. Cela permet à ces concurrents (à qui Intel fournit également des processeurs) de s'inspirer de la philosophie du PC pour élaborer des produits pudiquement baptisés "compatibles", mais qui sont en fait des clones. L'offensive vient d'abord d'Asie du Sud-Est, notamment de Taiwan, avant d'atteindre les Etats-Unis, avec la naissance de sociétés comme Compaq ou Dell (premier assembleur à vendre ses micro-ordinateurs sur mesure par correspondance). L'épidémie se répand ensuite dans le monde entier, du Japon à l'Europe. La première riposte d'IBM est d'ordre juridique. Entre 1983 et 1985, Big Blue tente de protéger tout ce qui peut l'être, notamment le BIOS (propre à chaque machine). Mais devant la déferlante des compatibles, IBM est forcé de renoncer à cette stratégie. Le colosse déplace le combat sur le terrain commercial, mais ne peut empêcher son déclin sur un marché qui bénéficie pourtant d'une croissance exponentielle.

Le système d'exploitation MS-DOS règne alors en maître incontesté sur plus de 70 % du marché de la micro, grâce à IBM et aux compatibles. Mais Microsoft doit frapper encore un grand coup pour écarter Apple, dont le système d'exploitation maison offre une convivialité sans commune mesure avec les écrans noirs et l'ésotérique C:\> des PC. Et c'est là que l'accord entre les firmes de Gates et Jobs se révèle une erreur pour ce dernier. Gates n'a pas oublié les interfaces graphiques qu'il a vues à San Francisco. Il décide de s'en inspirer pour le "nouveau" système qu'il va proposer à IBM et ses concurrents. Un système à base d'icônes et de fenêtres, qu'on baptisera tout simplement Windows. Lancé en 1985, il déçoit par sa lenteur et n'est sauvé de la corbeille que par Word, le premier traitement de texte de Microsoft à offrir un affichage Wysiwyg. Mais Gates ne renonce pas et prépare des évolutions. Comme tout le monde, d'ailleurs. Car en cette seconde moitié des années 80, la situation est la suivante : Apple développe sa gamme Mac (512e puis Mac II, sans oublier les évolutions de l'Apple II jusqu'en 1989). Les constructeurs de PC – le nom du produit d'IBM est devenu le standard pour tous les autres fabricants – utilisent les nouvelles puces d'Intel 286, 386 et 486. Enfin, Microsoft profite de sa position dominante pour équiper les machines avec ses systèmes d'exploitation et ses logiciels de bureautique, tout en développant son interface utilisateur, avec une version 2 guère plus convaincante que la première.

En 1990, enfin, c'est la sortie de Windows 3, version fonctionnelle et réellement graphique. Son succès provoque la crainte chez Apple, qui traîne Bill Gates en justice pour plagiat du système Mac. Malheureusement pour John Sculley, sa société perd le procès. Apple abandonne tout espoir de devenir le numéro 1 mondial de la micro. L'ergonomie de Windows 3 (devenu 3.1 en 1991) et la bibliothèque de logiciels professionnels de Microsoft placent le groupe en position de force. A tel point que certains pensent développer leurs propres systèmes pour échapper à l'emprise de Seattle. Novell cherche une alliance avec Apple pour convertir le Mac OS sur PC, mais la société à la pomme préfère investir dans d'autres projets. IBM tente de se démarquer en proposant d'une part son PS/2, un nouveau concept de PC (vite copié par les concurrents), et d'autre part son propre système d'exploitation, baptisé OS/2. Ce dernier, pour efficace et simple qu'il soit, doit tout de même s'effacer devant Windows. Il est vrai que les accords entre IBM et Microsoft permettent à la société de Bill Gates de tout connaître des développements d'OS/2. Surtout, les utilisateurs ne connaissent pratiquement plus que les logiciels bureautiques de Microsoft (Word ou Excel), ce qui rend difficile toute mutation vers un autre environnement. Malgré des investissements colossaux, IBM ne parvient pas à imposer l'OS/2 comme une alternative. En dix ans, les performances des micro-ordinateurs ont progressé à vitesse exponentielle, mais seules quelques sociétés ont réussi à conserver une place sur le marché. La maîtrise des logiciels est la clé de la domination économique, dans un environnement de moins en moins concurrentiel.

Windows 95, le rouleau compresseur

Côté logiciels, ces différentes évolutions ouvrent un immense marché aux éditeurs multimédias. Tout en restant un outil professionnel incontournable, le PC devient simultanément une plate-forme de jeux (capables de rivaliser avec les consoles dédiées) et un support ludo-éducatif. On voit également se développer l'aspect créatif, avec des logiciels et des périphériques permettant, par exemple, la photographie, la vidéo numérique ou le mixage de musique. En fait, les seules victimes sont les éditeurs de logiciels bureautiques. L'intégration des solutions Microsoft avec Windows et le rouleur compresseur marketing sont tels que les éditeurs phares disparaissent les uns après les autres. Lotus est racheté par IBM et repositionné sur les outils de productivité de groupe, Borland (Quattro Pro, Paradox) ne survit pas à l'ingestion d'Ashton Tate (dBase), WordPerfect, seul concurrent sérieux de Word sur le marché du traitement de texte, est racheté par le canadien Corel. Ne parlons pas des systèmes d'exploitation : OS/2 disparaît, Novell perd ses parts de marché sur le créneau des réseaux, Unix ne parvient toujours pas à sortir du débat liberté/propriété.

Logo du système d'exploitation Microsoft Windows 95

Apple est touché de plein fouet par l'engouement du public envers le nouveau système d'exploitation. Les campagnes de promotion, basées sur la simplicité d'utilisation des Mac, n'ont plus vraiment de raison d'être. Même si plus d'un million de Power Mac se vendent en moins de deux ans, la vente de licences de fabrication fait du tort à la pomme. Spindler est remercié en décembre 1995, il est remplacé par Gilbert Amelio. Celui-ci fait le ménage : licenciements, arrêts de nombreux programmes de recherche, fin de la production du Newton (encore un flop !). Et surtout, recherche de compétitivité pour les futurs produits. Pour cela, Amelio a besoin d'un système d'exploitation plus efficace : Copland, développé en interne, n'est qu'une baudruche. Alors on va chercher ailleurs. Et ailleurs, c'est OpenStep, un système éprouvé et fiable créé par NeXT, la firme de... Steve Jobs ! La boucle est bouclée, Apple achète NeXT en décembre 1996. Pour 400 millions de $, elle hérite de son nouveau système d'exploitation et de son directeur, qui compte bien reprendre du service dans la maison mère. Et 1997 va voir beaucoup de changements. Le départ d'Amelio en juillet laisse le champ libre à Jobs : ce dernier augmente de façon vertigineuse le tarif des licences Mac, étouffant ainsi ses concurrents directs. Les nouveaux produits se font remarquer, comme le Power Mac 9600 qui atteint la cadence record de 350 MHz. Le dernier Mac OS 8 est également un succès. Apple commence à redresser la tête... Mais la grande révolution survient le 6 août à Boston : lors de l'Apple Expo, Jobs annonce théâtralement la signature d'un partenariat avec... Microsoft, l'ennemi juré ! La firme de Seattle prend contrôle de 6 % du capital d'Apple, un accord de partenariat de développement est signé : échange de technologies, support et développement de logiciels en commun. Bill Gates n'a jamais été aussi puissant. Mais Jobs, qui a retenu les erreurs du passé, veut éviter une prise de contrôle totale. Il installe au conseil d'administration d'Apple le PDG d'Oracle, Larry Ellison, farouche adversaire de Microsoft et fervent partisan de ce qui va révolutionner (encore une fois !) la micro-informatique : Internet...

La révolution internet

En manipulant son "mulot", Jacques Chirac découvre les arcanes de l'informatique. La France prend conscience de son retard dans le domaine. Il s'agit de ne pas manquer le train de la nouvelle révolution post-industrielle : celle de l'information.

Evitons les lieux communs : la fin du XXème siècle n'est pas caractérisée par l'explosion des nouvelles technologies (pas plus que les autres siècles, en tout cas). Internet n'est pas plus révolutionnaire que l'imprimerie de Gutenberg ne le fut en son temps. Par contre, les enjeux culturels, politiques et surtout économiques qui entourent ce moyen de communication en font le centre d'intérêt majeur de ce début de troisième millénaire. Rappelons également que, contrairement à une idée très répandue, Internet n'est pas une invention récente. C'est une idée ancienne, apparue bien avant l'invention de la micro-informatique. En effet, le concept d'un réseau de communication non centralisé (la base d'Internet) est évoqué dès 1937. Il connaît un regain d'intérêt durant la Guerre froide, les militaires américains y voyant la possibilité de conserver les capacités de transmission en cas d'attaque nucléaire massive. Mais à l'époque, cela reste bien abstrait, les moyens techniques ne permettant pas de mettre en œuvre un tel système avant les années 60.

En revanche, les universitaires au courant du projet se montrent d'emblée très intéressés par la possibilité tout à fait pacifique de s'échanger des informations. C'est la naissance du courrier électronique : le réseau Arpanet apparaît aux Etats-Unis en 1969, en Angleterre quatre ans plus tard. Mais les faiblesses des matériels (lenteur des modems, surtout) ne plaident pas en faveur du développement de ce moyen de communication cher et compliqué. En 1989-90, Tim Berners-Lee et Robert Cailliau, chercheurs au Centre Européen de Recherche Nucléaire (CERN) inventent un procédé de mise en réseau et de liens hypertexte : eh oui, c'est le Web, qui n'a que peu changé depuis. Ajoutons à cela l'explosion du numérique en vidéo, photo et son... Un nouveau chapitre de l'histoire de l'informatique va pouvoir s'écrire.

Les Etats-Unis, l'Europe du Nord, puis le reste du monde découvrent ce nouveau moyen de faire circuler l'information. Envoyer un courrier à l'autre bout du monde en quelques secondes, visiter les plus grands musées, tout semble possible. Bien évidemment, Internet représente pour le monde de l'informatique une clientèle potentielle considérable, un marché dont il faut s'emparer au plus vite. Bien avant les opérateurs téléphoniques ou les fabricants de mobiles, les industriels de la micro-informatique sont parmi les premiers à prendre conscience de cette mutation. Ils changent alors toutes leurs stratégies de communication : Internet devient le centre de toutes les attentions. L'ordinateur individuel étant en passe d'équiper un maximum de foyers, les éditeurs se préparent à fournir les outils nécessaires à la navigation. On peut évidemment s'interroger sur cette prise de conscience soudaine des possibilités offertes par un réseau imaginé près de 40 ans auparavant. Il n'est pas interdit de penser que le revirement stratégique de l'ensemble des acteurs du marché tient aussi à la volonté de repartir au combat sur un terrain où la position de Microsoft n'est pas aussi outrageusement dominante. Les grands concurrents de la firme de Bill Gates (IBM, Oracle ou Sun) sont d'ailleurs les premiers à se ruer dans la brèche.

C'est au milieu des années 1990 qu'Internet commence à intéresser sérieusement le grand public américain, mais il faut attendre 1998 pour que le monde entier soit "contaminé". Les sites de tout poil fleurissent : culture, tourisme, vente aux enchères, éducation et... sexe, bien sûr ! La réputation sulfureuse du réseau attire plus d'un internaute et a sans doute participé au développement du Net (exactement comme pour la télévision à péage, le Minitel ou la vidéo...). Dans le même temps, les ordinateurs commencent à sortir des boutiques et des revues spécialisées pour s'afficher sans complexe dans les grandes surfaces et les magazines grand public. Grâce à Internet, la micro-informatique devient enfin un marché de masse, même si beaucoup de consommateurs se connectent sans vraiment savoir de quoi il s'agit. Cet enthousiasme donne un nouveau souffle à l'industrie informatique et les grands acteurs du marché veulent tous en profiter.

C'est Apple qui frappe le premier. Partant du principe que le micro-ordinateur va bientôt devenir aussi banal que la télévision, le fabricant californien dévoile son nouveau petit bijou lors d'un de ces shows dont seul Steve Jobs a le secret : l'iMac est né. Simple, efficace et surtout équipé pour le Net, il séduit d'emblée le public, avec son look acidulé qui le fait ressembler à tout... sauf à un PC. Les iMac partent comme des petits pains : il s'en vend 300 000 les deux premiers mois, 2 millions en deux ans. Apple peut enfin relever la tête, les bénéfices recommencent à grimper. Côté PC, le changement est moins radical. Certes, personne n'ose envisager de commercialiser un PC sans modem et ensemble logiciel assurant l'accès au réseau, mais cela ne se traduit pas vraiment par un changement d'habitude : la course à la puissance est toujours de mise.

Epilogue

Toujours en butte à ses concurrents (notamment AMD, de plus en plus incisif), Intel sort presque simultanément les processeurs Pentium II (évolution du précédent) et le Celeron : un modèle moins puissant et surtout bien moins cher, mais très suffisant pour les applications multimédias et, a fortiori, le Web. Sorti en 1999, le Pentium III est éclipsé par le dernier-né d'AMD : un processeur qui parvient à la cadence vertigineuse de 1 GHz ! Les constructeurs font aussi les frais de l'évolution multimédia. Les acheteurs sont plus exigeants sur les matériels, le triptyque unité centrale/écran/clavier ne suffit plus : il faut un graveur de CD (au grand désespoir des éditeurs de logiciels, piratés à merci), une carte vidéo, des périphériques audio. Les constructeurs d'accessoires s'engouffrent dans ce nouveau marché, obligeant les fabricants à composer avec eux. Les réseaux internes, inventés dès 1977, se répandent dans les entreprises ou les universités.

A ses débuts, Internet intéresse moins les constructeurs de matériel que les jeux et le multimédia. Mais c'est un marché de services créé ex nihilo, une manne inespérée d'emplois à la sortie d'une crise économique de vingt années. On assiste à l'apparition des start-ups, les nouvelles entreprises de la Net économie qui poussent comme des champignons... parfois vénéneux. En effet, beaucoup de financiers ne veulent pas commettre les mêmes erreurs qu'au début de la micro-informatique. Ils sont prêts à investir en masse dans ces nouvelles technologies, persuadés qu'il y a de l'argent à gagner, sans comprendre exactement comment. Si les garage companies des années 80 peinaient parfois à convaincre les "capital risqueurs" et autres business angels, les sociétés dot com ne sont pas confrontées au même problème. D'autant que les jeunes pousses qui s'introduisent en Bourse voient le cours de leurs actions grimper de manière exponentielle. Les adolescents fondateurs deviennent millionnaires, ainsi que leurs heureux investisseurs. L'euphorie est de mise, mais au bout de deux ans, la fièvre retombe. Les premiers échecs apparaissent (Boo.com est le plus célèbre), les investisseurs se montrent plus circonspects.

Pendant cette période, Microsoft reste au centre de toutes les polémiques. Pas particulièrement à cause de Windows 98, qui n'est finalement qu'une version un peu moins boguée et plus grand public de Windows 95. Ni même de Windows 2000, version professionnelle remplaçant NT, qui taille son bonhomme de chemin sur le marché des serveurs (malgré la concurrence croissante de Linux, qui s'est imposé comme une solution fiable et économique, en particulier auprès des fournisseurs d'accès et des hébergeurs de sites). En fait, le vrai problème de Microsoft, c'est sa relation avec Internet. Ou plus exactement, son abus de position dominante sur le marché des navigateurs, qui lui a permis de s'imposer comme acteur majeur dans le monde des nouvelles technologies de communication. Revenons un peu en arrière : en 1994, un ingénieur du nom de Jim Clark fonde Netscape, un éditeur de logiciels dont le produit phare est Navigator, un outil permettant de surfer sur le Web. Evidemment, Netscape est payant, comme la plupart de ses concurrents. Que propose alors Microsoft dans la version Windows 95 ? Son propre navigateur, Internet Explorer, gratuit. Dès lors, les utilisateurs n'ont plus aucune raison d'acquérir un autre navigateur. Grâce à cette manœuvre plus ou moins loyale, Microsoft balaye purement et simplement un concurrent gênant. Cela n'est pas du goût du gouvernement américain, qui a horreur des monopoles. Pour la justice fédérale, Microsoft fait ouvertement entrave à la concurrence, grâce à sa position dominante. Gates soutient au contraire que sa politique marketing ne fait que respecter les règles du marché. La série de procès intentée à la société de Bill Gates s'enlise en démarches judiciaires, entre condamnations et appels.

Aujourd'hui, l'avenir de Microsoft n'est pas totalement compromis. Mais avec ces procès à répétition et le succès grandissant de Linux, la première start-up historique a de quoi s'inquiéter. Ces trente années de micro-informatique ont changé notre vision du monde. De la première puce Intel destinée aux calculettes de poche au processeur AMD à 1 GHz (une vitesse multipliée par 10 000 en trente ans !), du garage de Steve Jobs à l'iMac, il y a eu autant de coups de génies que d'erreurs tragiques. Fille du Flower Power et du rêve californien, la micro est devenue un enjeu économique (et donc politique) mondial. La vitesse d'évolution des matériels interdit d'imaginer l'avenir à plus de cinq ans, mais une chose est sûre : tout est possible ! Les gourous de la technologie affirment que le PC ne sera plus au centre du débat. Mais ces visionnaires vont peut-être un peu vite en besogne. Le PC a encore de belles années devant lui. Quelle autre machine peut associer, à moindre coût, le traitement de données multimédias complexes et l'ouverture sur le monde, grâce à des connexions toujours plus rapides à un réseau mondial toujours plus étendu ?

Pour terminer ce dossier, nous pouvons évoquer d'énormes succès tels que Google, inventé par deux étudiants californiens, Larry Page et Sergey Brin, et qui est devenu le premier moteur de recherche sur Internet, ou bien le site de vente aux enchères le plus visité au monde eBay, créé en 1995 par Pierre Omidyar. La Silicon Valley de Californie demeure la terre promise de la micro-informatique et de la Net économie.

Plus d'informations sur wikipedia : informatique

Vers le Haut