Logo de la société Intel

Les débuts du monde informatique

Les premiers ordinateurs, qui ressemblent à l'époque plus à des machines à calculer qu'à nos outils polyvalents d'aujourd'hui, sont programmés en langage machine. La question de la portabilité ou de l'universalité ne se pose même pas. Mais quand l'informatique commence à percer dans le monde de la gestion et de l'industrie, des problèmes inconnus jusqu'alors font leur apparition. Il devient soudainement nécessaire qu'un même programme puisse fonctionner sur différents types de matériels, qu'il soit possible de contrôler le fonctionnement de la machine afin de la rendre réellement universelle. Bref, il faut intercaler entre le hardware et le software un élément supplémentaire, qui deviendra ce qu'on appelle aujourd'hui dans le jargon de l'informatique un système d'exploitation (OS).

Les OS tels qu'on les connaît apparaissent dans les années 60. Les chercheurs du MIT (Massachusetts Institute of Technology) pensent à l'époque développer l'informatique à l'image du réseau électrique : une prise dans chaque pièce où il suffirait de brancher une console pour utiliser la puissance de calcul fournie à l'abonné. Le projet Multiplexed Computing System (Multics) a même pour sujet de développer pareil concept à l'échelle de la ville de Boston. Multics est réellement un projet révolutionnaire : un système d'exploitation multitâche, muti-utilisateurs, sécurisé et surtout écrit dans un langage de haut niveau, et non en Assembleur. Mais Multics est aussi un échec retentissant : ses concepteurs se heurtent à de nombreuses difficultés imprévues et l'inefficacité notoire du langage d'implémentation choisi, le PL/1, rend le système inutilisable. Multics entre dans l'histoire de l'informatique en tant que concept théorique très intéressant, mais apparu trop tôt.

Dans les laboratoires Bell, Ken Thompson et Dennis Ritchie rêvent de Multics... en vain. La configuration nécessaire pour le faire tourner est simplement hors de prix. Frustrés, ces deux excellents programmeurs mettent en chantier leur propre système. Empruntant beaucoup d'idées à Multics, leur principale préoccupation est de veiller à ce que le nouvel OS soit avant tout performant. Un certain sens de l'humour aidant, le bébé est baptisé Unics, pour devenir plus tard Unix. Bien que théoriquement inférieur à Multics, Unix ressemble sur de nombreux points à son grand frère, tout en apportant son lot de nouveautés. A quelques rares exceptions près, les systèmes développés par la suite s'inspireront plus ou moins directement d'Unix.

Parmi tous les petits disciples d'Unix, le CP/M de Gary Kildall, conçu dans les laboratoires de Digital Research, connaît un véritable succès sur micro-ordinateur. Mais c'est le MS-DOS de Microsoft, directement inspiré du CP/M, qui marquera une époque et bâtira la fortune de Bill Gates, homme doté d'un sens aigu des affaires. Dès la version 2, MS-DOS récupère les répertoires hiérarchiques et les fichiers périphériques, concepts clés sous Unix. A ce moment, l'intention de Microsoft est même de faire converger rapidement MS-DOS vers Unix. C'est en ce sens que naît le projet OS/2, co-développé avec IBM. Le principe d'OS/2 est an fait d'appliquer quelques idées d'Unix et de Multics à MS-DOS. Mais après avoir rompu avec IBM, Microsoft replace son système dans le sillage d'Unix dont il se veut désormais le concurrent. Ironie du sort, ce croisement dans tous les sens s'appellera New Technology, en abrégé NT.

Parallèlement, chez Apple, naît une machine qui va vraiment simplifier l'usage de la micro-informatique : le Macintosh. La philosophie du Macintosh diffère des autres machines, car il est développé autour du concept d'un système d'exploitation axé sur une interface graphique évoluée, et non l'inverse. Si le résultat se révèle on ne peut plus concluant pour l'utilisateur, qui n'a pas besoin de suivre un apprentissage rigoureux pour parvenir à maîtriser la bête, ce système assez hermétique laisse perplexe les bidouilleurs dans l'âme. Ceux-ci se tourneront plus volontiers vers l'univers des PC, plus aptes pour le "bricolage", "perte de temps" diront d'autres.

Mais Microsoft doit frapper un grand coup pour écarter Apple, dont le système d'exploitation maison offre une convivialité sans commune mesure avec les écrans noirs et l'ésotérique C:\> du MS-DOS. Gates n'a pas oublié les interfaces graphiques qu'il a vues à San Francisco. Il décide de s'en "inspirer" pour le nouveau système qu'il va proposer à IBM et ses concurrents. Un système à bases d'icônes et de fenêtres, qu'on baptisera tout simplement Windows. Lancé en 1985, il déçoit par sa lenteur et n'est sauvé de la corbeille que par Word, le premier traitement de texte de Microsoft à offrir un affichage Wysiwyg (What You See Is What You Get). Mais Gates ne renonce pas et prépare des évolutions, et en 1991 enfin, c'est la sortie de Windows 3.1, version fonctionnelle et réellement graphique. Son succès provoque la crainte chez Apple, à juste raison. L'ergonomie (discutable) de Windows et surtout la bibliothèque de logiciels professionnels de Microsoft placent le groupe en position hégémonique.

Andy Grove prend la présidence de sa firme en 1985, alors que sort le 80386, premier processeur 32 bits, multitâche et multimédia. C'est probablement le succès d'Intel qui marquera le plus les années 80, davantage même que l'irrésistible ascension de Bill Gates. Pour l'anecdote, Bob Noyce, cofondateur d'Intel, finança le développement d'une petite société juste après la naissance d'Intel : Advanced Micro Device, alias AMD. C'est le président d'AMD qui convint Noyce, son ancien collègue chez Fairchild Semiconductors, de l'aider financièrement. Mais depuis, AMD et Intel sont devenus frères ennemis et se livrent une bataille commerciale sans merci.

Intel continue son bonhomme de chemin avec en octobre 1989 la sortie du 80486, cadencé à 25 MHz, puis en 1993 le microprocesseur Pentium, qui ne sera que le premier représentant d'une longue lignée.

Plus le parc de PC augmente, plus Intel assure logiquement sa longévité. Mais le gâteau des microprocesseurs est trop tentant pour deux seuls fondeurs : Cyrix s'invite dans la danse. A trois, le ménage ne dure guère longtemps : Cyrix en raison de processeurs aux performances décevantes, malgré un prix attractif, se retire de la compétition en 2001, laissant AMD et Intel s'affronter seuls. Intel connaît cependant un léger accroc lors de la mise sur le marché des premiers processeurs Celeron, ces derniers étant bridés par une fréquence de bus limitée à 66 MHz et sans mémoire cache de deuxième niveau. AMD ne se prive pas de ce léger faux pas pour ne pas commettre la même erreur avec sa nouvelle gamme Duron, gamme qui remporte un succès indéniable. Il faudra attendre début 2001 pour un changement de stratégie chez Intel, décidé à redevenir une marque synonyme de haute qualité. La déception réapparaît à l'occasion de la sortie du Pentium 4, pas assez novateur et performant vis à vis de son prédécesseur le Pentium III. La firme californienne redresse la pente au fur et à mesure, jusqu'aux récents Pentium 4D et Extreme Edition (ce dernier coûtant lors de sa sortie plus de 1 000 € !), quand bien même ces derniers processeurs ne sont-ils toujours pas exempts de critiques.

Intel dorénavant se concentre plus sur la technologie du dual-core que sur la hausse de fréquence de ses processeurs, nouvelle technologie qui devra faire ses preuves car obligeant les programmeurs à se plier à des obligations particulières en matière de programmation parallèle.

Mesure récente des quasi-frères siamois : l'intégration d'une architecture 64 bits sur tous leurs processeurs depuis mi-2005, Intel ayant pris l'initiative le premier, avant d'être suivi par AMD. Du reste, ce dernier, en retrait en terme de parts de marché, est décidé à ne pas se laisser faire non seulement sur le plan technologique (ce qu'il a déjà prouvé) mais aussi judiciaire comme l'atteste un rapport diffusé sur son site accusant nettement Intel de position anti-concurrentielle. Action supportée désormais par plusieurs grandes marques de l'informatique telles que Gateway, Sony ou encore Lenovo (anciennement IBM), ce qui peut à terme porter préjudice à la société à l'origine des premiers microprocesseurs grand public.

Quant aux fameux partenariats stratégiques, un coup de tonnerre sur la micro-informatique résonne en juin 2005, lors de la World Wide Developper Conference à San Francisco, lorsque Steve Jobs, le patron d'Apple, annonce qu'il confiera désormais la production des prochains processeurs pour ses machines à Intel ! IBM est le grand perdant de la journée, son PowerPC G5 ayant fait les frais du forcing technologique et financier d'Intel. Le fondeur américain est pourtant loin d'être euphorique: les avanies se sont accumulées au milieu de l'année 2006. En premier lieu, son partenaire dans le domaine des cartes graphiques, le canadien ATI, a été racheté par AMD en juillet 2006, rendant quasiment caduc certains projets communs. Ensuite, la Commission Européenne est décidée à poursuivre son enquête initiée en 2004 quant aux pratiques jugées anticoncurrentielles de la compagnie en Allemagne et Italie. Enfin, en perte de compétitivité, Intel a annoncé en septembre 2006 son intention de se séparer de 10 % de ses effectifs, en vue d'économiser cinq milliards de dollars sur les deux prochaines années.

En savoir plus

L'histoire de la société Intel

L'histoire de la société Microsoft

Vers le Haut