Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Une illustration de la concurrence monopolistique :
Intel, le déclin ?
Article mis en ligne le 8 novembre 2024
dernière modification le 3 décembre 2024

par Laurent Bloch

Premières années, premier déclin, première remontée

Intel est une entreprise au passé prestigieux : créée en 1968 par Gordon Moore (de la loi du même nom, chimiste), Robert Noyce (physicien, co-inventeur du circuit intégré), tous deux issus de Fairchild Semiconductor, et Arthur Rock (investisseur en capital risque), elle invente en 1970 le microprocesseur (Ted Hoff, Federico Faggin, Stanley Mazor et Masatoshi Shima), commercialisé en novembre 1971 (modèle 4004).

Le microprocesseur (un seul circuit intégré qui comporte l’unité arithmétique et logique et l’unité de contrôle d’un ordinateur) va bouleverser l’industrie informatique en divisant par un facteur 1000 la taille et le prix des ordinateurs, et ainsi déclencher la troisième révolution industrielle. Mais en 1971 le 4004 d’Intel est trop rudimentaire pour que les grandes entreprises informatiques en prennent conscience. Quelques années plus tard elles lui achètent bien ses microprocesseurs, mais elles ne veulent pas dépendre d’un fournisseur unique et exigent qu’Intel concède des licences de fabrication en seconde source à d’autres industriels, comme AMD et surtout des entreprises japonaises telles que NEC, Toshiba, Hitachi ou Fujitsu, moins inventives et moins créatives que les firmes américaines, mais plus efficaces en fabrication.

La concurrence des entreprises licenciées va faire tomber Intel au huitième rang du secteur qu’il avait lui-même créé.

En 1975 Intel lance un projet révolutionnaire qui débouchera en 1981 : l’iAPX 432, un microprocesseur conçu pour être programmé uniquement en langage évolué, doté du système d’exploitation iMAX 432 entièrement écrit en Ada. Ce projet visait sans doute les applications du Département de la Défense américain, à l’origine du langage Ada. Mais les performances insuffisantes des technologies électroniques de cette époque et le caractère embryonnaire des premiers compilateurs Ada n’ont pas permis d’atteindre des performances acceptables et le projet fut un échec.

Mais c’est alors qu’Andrew Grove va réorienter l’entreprise sur une nouvelle voie, qui sera un succès :

 lancement en 1985 du nouveau processeur 80386 (ou i386) aux caractéristiques analogues à celles des « gros » ordinateurs, surtout mots mémoire de 32 bits ;
 pour pouvoir mettre toutes les forces sur le 80386, abandon de la production de mémoires dynamiques (DRAM), jusque là principale source de revenus de la firme ;
 décision de ne pas concéder de licences de seconde source à d’autres industriels pour le 80386.

On voit qu’Intel brûlait ses vaisseaux, en risquant de rebuter ses clients, mais cela va marcher, notamment grâce au succès phénoménal du micro-ordinateur Compaq Deskpro 386 bâti autour du 80386. Au passage ce tournant va provoquer l’éviction d’IBM du leadership des micro-ordinateurs. Voici la suite de l’histoire (et pour la période plus récente, cf. l’article) :

La rançon des actionnaires

Pour créer une entreprise, surtout pour une activité d’une telle intensité capitalistique que la microélectronique, il faut des actionnaires. Dans ses livres fameux (à juste titre) John Kenneth Galbraith décrivait le monde des années 1960, quand les entreprises étaient plutôt dirigées par des managers technocrates, et quand les actionnaires suivaient assez volontiers leurs recommandations.

Mais depuis les années 1980 et surtout 1990 les actionnaires sont devenus plus exigeants, encouragés dans cette voie par la dérégulation des activités financières permise par leur informatisation (trading haute fréquence par exemple). Pour satisfaire leur appétit, les actionnaires ont placé à la tête des entreprises des financiers souvent pauvres en compétences techniques, et pour les inciter à « créer de la valeur pour l’actionnaire », ils les ont rémunérés en actions (je simplifie mais c’est l’idée).

Pour dégager plus de plus-values et de dividendes on peut penser à réduire les dépenses, et les activités de recherche-développement, à la rentabilité hypothétique et à moyen ou long terme, sont une cible toute trouvée. À moyen ou long terme, justement, cela crée surtout des catastrophes, comme on le voit par exemple aujourd’hui avec Boeing, mais beaucoup d’exemples moins spectaculaires peuvent être cités : ainsi Microsoft sous le règne de Steve Ballmer et jusqu’à ce que Satya Nadella redresse la barre à partir de 2014, ou Apple après l’éviction de Steve Jobs en 1985 par John Sculley et jusqu’à son retour aux commandes d’une entreprise au bord de la faillite en 1997. Ces deux dernières entreprises sont aujourd’hui en tête du classement mondial des capitalisations boursières, parfois au coude à coude avec Nvidia. Je me range à l’avis de Jean Tirole : la capitalisation boursière donne un bon pronostic du succès à venir d’une entreprise, mieux que son chiffre d’affaires, parce qu’elle consolide les opinions d’un grand nombre d’acteurs indépendants les uns des autres, et aussi parce que le chiffre d’affaires donne une indication sur le présent, la valorisation boursière une agrégation d’espoirs pour l’avenir.

Le déclin par la faute d’une gestion trop orientée vers la rémunération à court terme des actionnaires est un peu ce qui est arrivé à Intel, avec une circonstance atténuante : l’entreprise a été victime du succès de ses processeurs 80386 et de leurs successeurs nommés de façon générique x86. C’est pendant les années 1980 qu’a commencé à se répandre une famille de processeurs plus efficaces, dite RISC (pour Reduced Instruction Set Computer), qui procurait de meilleures performances pour une consommation électrique moindre. Mais Intel a pu maintenir la prééminence de ses processeurs x86 sur le marché des ordinateurs grâce à l’énorme base installée de logiciels écrits pour eux, et qu’il aurait fallu convertir pour passer à la nouvelle architecture.

Tout a changé avec l’arrivée des téléphones mobiles : pour ces nouveaux appareils il fallait de toute façon de nouveaux logiciels, et là les questions de poids, d’encombrement et de consommation électrique devenaient décisives. Le marché des téléphones mobiles est actuellement le monopole des processeurs RISC conçus par la société ARM et fabriqués sous licence par TSMC ou Samsung, ce sont actuellement, et de loin, les processeurs les plus répandus dans le monde (et, par voie de conséquence, le système d’exploitation le plus répandu est Android, à noyau Linux, loin devant Windows). Intel reste accroché à la technologie x86 périmée, parce que c’est ce que ses clients achètent, ce que ses ingénieurs et techniciens savent fabriquer et ce pour quoi leurs usines sont construites, mais ainsi ils compromettent l’avenir, et c’est ce qui est en train d’arriver.

Cette succession de hauts et de bas est une illustration parfaite des mécanismes de la concurrence monopolistique : le régime des rendements croissants confère un monopole temporaire à une entreprise, ici Intel, jusqu’au jour où une innovation de rupture dégrade sa prospérité au profit d’un autre marché, ici celui des processeurs d’architecture ARM, incorporés à des Systems on Chip (SoC) conçus par Apple, Qualcomm, Samsung, AMD, Amazon, etc., et fabriqués par TSMC ou Samsung.

Ce qui s’est passé

En 1998 le conseil d’administration d’Intel a choisi de remplacer Andy Grove, l’ingénieur visionnaire qui l’avait sauvé en 1985, par le financier Craig Barrett qui allait en être le PDG jusqu’en 2009. Le marché des semi-conducteurs est cyclique, Barrett a dû faire face à la crise de 2000 et à la récession qui a suivi, il n’est pas certain qu’une meilleure politique eût été possible, mais en tout cas Intel a vu sa position hégémonique (90% du marché des processeurs pour PC à la fin des années 1990) contestée à partir de cette crise.

À partir de 2001 Intel s’associe à Hewlett-Packard pour développer une nouvelle gamme de processeurs, Itanium, basée sur une architecture différente des architectures RISC et de l’architecture traditionnelle x86 : EPIC (Explicitly parallel instruction computing). En fait Itanium sera un fiasco total malgré des investissements considérables des deux partenaires, ce qui me dispense d’expliquer les principes (compliqués) d’EPIC, mais Intel surmontera les pertes financières de cet échec grâce à la rente x86 (et HP grâce à la rente des imprimantes laser).

À partir de 2005 Paul Otellini prend les opérations en main et redresse (temporairement) la compagnie, ce qui permet quelques succès techniques, comme l’architecture Core et son adoption par Apple. En 2006 Intel se défait de l’architecture XScale à base ARM qu’il avait conçue : c’était abandonner une technologie d’avenir à plus long terme que x86, mais pouvait-on le savoir en 2006 ? Et, de toutes les façons, même avec la connaissance de l’avenir, si la direction d’Intel avait voulu prendre le virage de l’architecture ARM, elle se serait heurtée à de fortes résistances internes de structures hiérarchiques au pouvoir assis sur la technologie existante, sans parler des investissements antérieurs à passer par pertes et profits et des investissements futurs à financer.

Retard technique

En effet, et c’est le plus grave, Intel à partir de cette époque s’est laissé distancer sur le plan technique. La technologie utilisée pour fabriquer des circuits électroniques à base de semi-conducteurs est caractérisée par la finesse du dessin, c’est-à-dire par la taille d’une porte logique, et plus précisément par la longueur de la grille du transistor mesurée en nanomètres (nm, milliardièmes de mètre). Les leaders actuels de la fabrication, TSMC et Samsung, produisent en 3 nm et s’attaquent au 2 nm. Intel peine à obtenir des taux d’erreur acceptables en 7 nm.

Pour expliquer l’importance de cette course à la miniaturisation : quand on passe de la technologie 7 nm à 5 nm, on divise par 2 la surface de silicium capable de contenir un nombre donné de circuits, parce que cette différence de surface est le carré des rapports des côtés, et parce que le rapport 7/5 est presque égal à la racine carrée de 2 ; ce faisant on divise approximativement par deux la consommation électrique et on multiplie par deux, toujours approximativement, la vitesse de calcul. Passer d’une technologie à la suivante demande plusieurs années de travail pour des centaines d’ingénieurs et des milliards d’euros d’investissements. Le retard d’Intel est donc considérable et irrémédiable à moyen terme ; son nouveau patron depuis 2021, Pat Gelsinger, a décidé de remettre la technique au poste de commande et de pallier les faiblesses actuelles par des alliances avec des entreprises qui sont en fait des concurrents, ce qui peut sembler risqué.

D’autre part, AMD, le concurrent traditionnel d’Intel qui n’avait jamais dépassé les 10 % de part de marché, le surclasse désormais dans le segment haut des processeurs pour serveurs, avec la gamme Epyc fabriquée par TSMC en 3 nm.

Procès avec les actionnaires

À l’été 2024 des actionnaires ont attaqué Intel en justice par une class action en accusant l’entreprise de leur avoir dissimulé des difficultés qui ont provoqué l’effondrement du cours de l’action, jusqu’à 32 milliards de perte de valeur en une journée. Les actionnaires ont découvert leur déconvenue lorsqu’Intel a annoncé la suspension des dividendes et le licenciement de 15 000 employés, en expliquant que l’activité de fabrication (fonderie) pour des clients extérieurs, lancée pour renflouer les finances, ne donnait pas les résultats espérés. La chute du chiffre d’affaires au second trimestre 2024 serait de 99 % selon Reuters, soit une perte nette de 1,61 milliard de dollars.

Modules multi-chips pour sauver la mise

Devant son incapacité à combler son retard technique dans un délai raisonnable, Intel s’est résolu à utiliser une technique qu’il avait tournée en dérision lorsque son concurrent AMD l’avait adoptée : les modules multi-chips (MCM), qui consistent à assembler sur un même support plusieurs circuits intégrés spécialisés, éventuellement de technologies et de conceptions (blocs de propriété intellectuelle, IP) différentes, connectés entre eux par une interface électrique dite interposeur qui leur permet de communiquer presque à la même vitesse que s’il s’agissait d’un circuit intégré unique. Les différents circuits sont nommés des chiplets ou tiles (tuiles). Ainsi, le dernier SoC d’Intel, Lunar Lake, comporte-t-il une tuile de calcul produite par TSMC en 3 nm, une tuile de contrôle et d’entrées-sorties par TSMC en 6 nm, et une tuile d’interposition par Intel en 22 nm. Cet assemblage où TSMC fabrique tout ce qui est compliqué a accrédité la rumeur selon laquelle Intel abandonnerait l’activité de fabrication (la fonderie), mais alors on ne voit plus vraiment ce qui le distinguerait d’AMD qu’il abreuve de ses sarcasmes, sans parler du sort réservé à ses 21 usines et à leurs dizaines de milliers d’employés.

Un avenir sombre ?

Les péripéties rapportées ci-dessus et les enseignements de la théorie de la concurrence monopolistique nous portent à présager pour Intel un avenir assez sombre, mais après tout Apple et Microsoft ont bien réussi à sortir brillamment de situations tout aussi périlleuses. L’essor extraordinaire de l’industrie microélectronique-informatique permet peut-être des miracles.