Pendant longtemps, la fréquence d’un processeur était l’indicateur principal de performance. Dans les années 1990 et au début des années 2000, chaque nouvelle génération affichait des MHz, puis des GHz toujours plus élevés. La progression semblait linéaire et presque inévitable. Certains industriels évoquaient même des puces à 10 GHz avant 2010. Pourtant, en 2026, la situation est très différente. La plupart des processeurs grand public plafonnent autour de 5 GHz en fréquence maximale, parfois un peu plus en mode turbo, mais rarement au-delà. Ce plafond dure depuis près de vingt ans. Mais pourquoi une telle stagnation ?
Sommaire :
L’âge d’or de la montée en fréquence
À l’origine, l’augmentation de la fréquence était la solution la plus simple pour améliorer les performances. Un processeur cadencé à 1 GHz pouvait, en théorie, effectuer deux fois plus de cycles qu’un modèle à 500 MHz. Le gain était facile à comprendre et à valoriser commercialement.
Cette progression reposait sur deux piliers. Le premier est la loi de Moore, qui décrivait le doublement régulier du nombre de transistors sur une puce. Plus de transistors signifiait plus de capacités de calcul. Le second pilier, moins connu, est la loi de Dennard. Formulée en 1974 par Robert Dennard chez IBM, elle expliquait qu’en réduisant la taille des transistors, on pouvait également réduire leur tension d’alimentation. Résultat : davantage de transistors, mais sans augmentation proportionnelle de la consommation ni de la chaleur.
Pendant plusieurs décennies, cette combinaison a permis d’augmenter à la fois la densité et la fréquence.
VOIR AUSSI : Mediatek Dimensity : les puces 9500s et 8500 arrivent pour booster les flagship killers
Nous avons franchi le mur thermique
Le problème est apparu au milieu des années 2000. La réduction de la tension ne pouvait pas continuer indéfiniment. Un transistor a besoin d’une tension minimale pour fonctionner correctement. Descendre en dessous d’un certain seuil le rend instable.
En parallèle, la miniaturisation extrême a introduit des phénomènes physiques nouveaux à cette échelle, comme l’effet tunnel quantique. Concrètement, même lorsqu’un transistor est censé être « éteint », une petite fuite de courant subsiste.
Ces fuites se traduisent par une dissipation d’énergie sous forme de chaleur. Or, la puissance dissipée augmente fortement avec la fréquence et la tension. Continuer à pousser vers 7, 8 ou 10 GHz aurait entraîné une explosion thermique. Les systèmes de refroidissement classiques, air ou même watercooling, n’auraient pas suffi.
Ce phénomène est souvent résumé sous le terme de mur de puissance : au-delà d’un certain point, la chaleur devient le facteur limitant.
Changer de stratégie plutôt que forcer la physique
Face à cette contrainte, les fabricants ont changé d’approche. Plutôt que d’augmenter la fréquence d’un seul cœur, ils ont multiplié le nombre de cœurs. L’idée n’est plus d’exécuter une tâche unique toujours plus vite, mais de traiter davantage de tâches en parallèle.
Aujourd’hui, les gains de performance proviennent surtout :
- de l’augmentation du nombre de cœurs
- de l’amélioration des architectures internes
- de la spécialisation (cœurs haute performance / cœurs basse consommation)
- de l’ajout d’unités dédiées à l’IA ou au chiffrement
La fréquence, elle, progresse à la marge grâce à des optimisations ponctuelles et à des modes turbo temporaires, mais elle ne constitue plus le moteur principal de l’évolution.
Un plafond durable
La barrière des 5 GHz n’est pas un choix marketing. C’est une limite imposée par la thermodynamique et la physique des semi-conducteurs.
Augmenter massivement la fréquence nécessiterait soit une rupture technologique majeure dans les matériaux, soit un changement radical de paradigme informatique. En attendant, l’industrie optimise autrement : parallélisme, efficacité énergétique, accélérateurs spécialisés.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






