L’overclocking, ou parfoissurcadencement[1], ousurcadençage[2] est une manipulation ayant pour but d'augmenter la fréquence dusignal d'horloge d'unprocesseur au-delà de la fréquence nominale afin d'augmenter les performances de l'ordinateur.
Le processeursurcadencé exécute davantage d'instructions par seconde, d'où la réduction du temps d'exécution des programmes. La production de chaleur étant proportionnelle au cube de la fréquence du processeur[3], il chauffe aussi davantage, ce qui peut être source d'erreurs ou d'auto-bridage (throttle) du processeur. Si elle est trop faible, sa tension d'alimentation le rendra instable. Si elle est trop forte, le composant peut casser prématurément parfatigue.
Le surcadençage implique l'augmentation de fréquence du circuit d'horloge. Dans les années 1980, il nécessitait une intervention matérielle (par exemple en remplaçant un composant du circuit oscillant[4], ou en changeant le quartz). Depuis les années 1990, la plupart des processeurs sont cadencés par une fréquence multiple de celle d'une horloge de base : il y a uncoefficient multiplicateur entre la fréquence du CPU et la fréquence du quartz, coefficient qui peut être modifié au niveau de l'UEFI[5]. Le surcadencement des processeurs de PC se fait donc généralement aujourd'hui en modifiant ce coefficient, mais il est aussi possible d'agir en augmentant la fréquence de l’horloge du bus.
Le terme d'overclocking est à l'origine un nom anglais composé d'over (« plus, au-dessus ») et declocking dérivé du verbeto clock (« chronométrer ») que l'on peut comprendre par « cadençage ». Traduit littéralement, l'overclocking est une technique consistant à « aller au-dessus du cadençage » du processeur.
Des francisations ont été tentées : « surfréquençage », « surcadencement » où, chezIntel, surcadençage[6]. Cependant, le terme original anglophone reste grandement utilisé.
LesCore 2 Duo d'Intel (et dans une moindre mesure lesCore 2 Quad, du fait de leurdissipation thermique élevée), comme la majorité des processeurs du même fabricant exploitant l'architectureCore, se distinguent par leurs capacités de surcadençage considérables : elles atteignent +30 % pour la majorité[8] (25 % pour les Core 2 Quad), jusqu'à +50 % en optimisant les paramètres (FSB, coefficient, Vcore...), et plus encore en utilisant des systèmes de refroidissement plus évolués (radiateurs haut de gamme et ventilation,refroidissement à eau voireà azote liquide permettant de doubler la fréquence initiale du processeur[9], grâce aux propriétés desupraconductivité des matériaux). Le célèbre Q6600 montait facilement à la fréquence de 3,2 Ghz en laissant la tension en automatique, soit 33 % de gains, mais chauffait beaucoup et un bonventirad devenait indispensable.
Augmenter la fréquence du processeur augmente en réalité la vitesse du bus de données principal de la machine (FSB), donc accélère tous les composants connectés à lacarte mère. La fonction PCI-Lock, introduite en 2003 parNvidia[10],[11] et présente sur toutes lescartes mères depuis 2010, permet d'éviter ce problème et limite l'augmentation de fréquence au processeur et à la mémoire ; un mauvais réglage peut au contraire conduire à une réduction des performances[12].
Le but de l'overclocking est d'obtenir des performances supérieures à moindre coût, en poussant un composant à des limites supérieures à ses spécifications techniques.
La pratique concerne en général lemicroprocesseur central (CPU) et/ou leprocesseur graphique (GPU), mais concerne également d'autres composants, tel que la mémoire (sur certains ordinateurs, la fréquence de la mémoire est directement liée à la fréquence du microprocesseur).
Cette pratique engendre un dégagement thermique qu'il faut évacuer grâce à desventirads performants (ici un Cooler Master V8).
Le problème le plus important de l'overclocking est le refroidissement du processeur :
le système le plus couramment utilisé est le ventilateur monté sur un radiateur (le radiateur est une plaque de métal comportant des ailettes qui permet d'améliorer les échanges de chaleur entre le processeur sur lequel il est monté et l'air ambiant). Le ventilateur peut aussi être monté directement sur le processeur, mais le refroidissement sera moins bon ; parfois une petite plaque de métal intercalée entre le ventilateur et le processeur aide à dissiper la chaleur du processeur. Le ventilateur doit être le plus volumineux possible pour permettre un brassage d'air important qui contribuera aussi à la ventilation du boîtier ;
l'aération est, elle aussi, très importante car c'est le brassage de l'air du boîtier qui va permettre d'évacuer la chaleur, que les éléments ont fournie à l'air, à l'extérieur. C'est pour cela qu'un boîtier « ordonné » permet de minimiser les obstacles à la ventilation. En effet les nappes desdisques dur, avec par exemple les nappes PATA (IDE), qui sont très larges, si elles sont situées devant un élément qui chauffe (devant le processeur par exemple) vont nuire à la circulation d'air et risquent de provoquer une surchauffe (même pour un processeur non overclocké) ; ce problème est rendu négligeable par l'utilisation de nappes Serial-ATA très fines (de 0,5 à 1 cm).Récemment[Quand ?], des nappesPATA « rondes » ont fait leur apparition, améliorant la ventilation dans les boîtiers encore équipés en IDE. Depuis quelques années est apparue une discipline dérivée dite « cable management » (que l'on pourrait traduire par « gestion du câblage »), qui consiste à bien agencer les différents câbles dans le boitier afin de dégager de l'espace pour un effet esthétique mais également pour améliorer la circulation de l'air entre les divers éléments ;
on peut trouver de plus en plus de systèmes de refroidissement de processeur par liquide (refroidissement à eau). Ces systèmes ont l'avantage de mieux refroidir lesprocesseurs, ils sont surtout utilisés lors d'overclocking et sont aussi plus silencieux que les modèles dits « plus classiques » qui utilisent la ventilation. Cependant, ils sont généralement plus coûteux, peuvent être plus difficiles à installer et potentiellement dangereux et/ou dommageable pour l'ordinateur, vu la cohabitation de l'eau et de l'électricité dans un même espace. Attention à la place nécessaire dans l'unité centrale, certains kits de fabricants proposent même de pouvoir refroidir divers éléments de l'ordinateur (carte graphique,mémoire vive, etc.).
L'overclocking ajoute un risque de faute de calcul ou d'apparition d'artefacts durant un traitement, ce qui peut avoir diverses conséquences suivant l'utilisation du processeur au moment de l'apparition de l'artefact, on peut citer :
Apparition de taches sur des images ;
Déclenchement intempestif d'une alarme ;
Instabilité/Blocage/Destruction dusystème d'exploitation à la suite d'écritures corrompues ;
Unoverclocking mal réalisé peut altérer le fonctionnement du matériel de manière plus ou moins grave, allant d'une simple surchauffe du composant overclocké (il perd alors en stabilité) à la destruction d'un ou plusieurs éléments de la configuration. Les constructeurs configurent toujours leurs ordinateurs à des fréquences moindres que les fréquences limites (afin de se laisser une marge de sécurité évitant un trop grand nombre de retours sous garantie), ce qui permet une marge d'overclocking.
Pour pallier l'augmentation de température provenant des composants overclockés, l'utilisation de système de refroidissement à air avec ou sanscaloducs ou de système derefroidissement à eau est préconisée. Dans la pratique extrême de cette discipline, les spécialistes utilisent des refroidissements à l'azote liquide (−195,79 °C) et/ou des refroidissements à changement de phase (Montage simple étage :direct on die ou montage multi-étages : cascade). L'un des dangers de l'emploi de ces systèmes de refroidissement extrêmes, aussi désignés « sub-zero/sub ambient cooling systems » (systèmes de refroidissement en dessous de la température ambiante/en dessous de zéro), est l'apparition de condensation sur les éléments ainsi équipés, ce qui peut causer des problèmes majeurs si cette humidité atteint certains éléments du CPU ou de la carte-mère (l'humidité de l'air ambiant se condense au contact des éléments très froids). Pour ces raisons, les systèmes à azote liquide sont utilisés seulement de manière très occasionnelle, étant quasi exclusivement vus lors de tentatives de records ou lors demeetings spécialisés.
L'overclocking ne nuit pas à la stabilité du processeur si l'on reste dans des fréquences supportables par les composants. Il est souvent nécessaire de modifier légèrement les tensions de fonctionnement pour aider le processeur à « tenir » la nouvelle cadence sans instabilité.
Le bruit des ventilateurs devenant peu acceptable pour les applications gourmandes, on recourt parfois à l'ajustement inverse (le sous-cadencement ouunderclocking) afin de diminuer les besoins en dissipation thermique, et donc permettre le sous-voltage du ventilateur de refroidissement ou du CPU (undervolting), ou le passage en refroidissement passif, pour diminuer le bruit.
Unoverclocking « normal » risque de diminuer la durée de vie du processeur (ou des processeurs), car ce dernier chauffe et risque de fonctionner au-dessus de la température pour laquelle il est conçu. Une ventilation homogène est un des éléments cruciaux de l'overclocking et le contrôle de cette température est fortement souhaitée. Certains constructeurs (par exempleASUS[13]) fournissent un logiciel permettant le contrôle des températures du CPU et de l'alimentation.
Cette technique répond à la demande des micro-ordinateurs modernes qui doivent faire face à des programmes de plus en plus gourmands. Elle cherche à obtenir la puissance maximale à partir d'une configuration existante. On peut l'insérer dans une recherche plus générale de la performance des systèmes informatiques.
La plupart des ordinateurs fonctionnent de manière synchronisée en utilisant un signal d'horloge CPU (clock) à fréquence constante (lafréquence d'horloge, exprimée en hertz, égale l'inverse de la période — durée d'un cycle d'horloge — exprimée en secondes).
Une instruction d'ordinateur est un ensemble d'opérations élémentaires ou micro-instructions dont le nombre et la complexité dépendent de l'instruction, de l'organisation et de l'implémentation exacte dans le CPU. Unemicro-opération est une opération matérielle élémentaire qui peut être exécutée en un cycle d'horloge. Cela correspond à une micro-instruction dans un CPU micro-programmé. Par exemple, les opérations sur lesregistres, les décalages, les chargements, les incréments, les opérations de l'unité arithmétique et logique : addition, soustraction, etc.
Cependant une instruction machine peut prendre un ou plusieurs cycles pour être entièrement traitée ; c'est le nombre de cycles par instruction ou, en anglais,cycles per instruction (CPI).
Une instruction-machine = 1 ou N micro instructions = 1 ou N CPI.
Voici un extrait de la documentation fournie aux développeurs decompilateurs ou de programmes. On peut y voir une liste d'instructions du micro-processeurAMD A64 et de leur nombre de cycles. La colonne des latences fournit les attentes pour une exécution statique de l'instruction. L'exécution statique est le nombre de cycles que prend le traitement séquentiel, jusqu'à son terme, des micro-opérations composant l'instruction. Ces valeurs sont données à titre indicatif.On suppose que :
l'instruction est immédiatement disponible dans le cache L1 et que l'opération peut être exécutée avec les autres opérations du planificateur de tâches ;
il n'y a pas de contention avec les autres ressources.
Les deux instructions suivantes :
Call pntr16 16/32, qui correspond à un appel à uneroutine et qui dure 150 cycles,
CLC, qui correspond à un effacement de registre et qui dure un cycle,
montrent l'étendue que peut avoir le CPI pour des instructions différentes. Cette documentation est disponible chez AMD sous le titresoftware optimization guide for AMDAthlon 64 and AMD Opteron processors.
Certains fabricants decartes mères comme MSI intègrent des logiciels simplifiant l'overclocking sous le BIOS deWindows, OC-Génie etAsus intègrent des logiciels simplifiant l'overclocking sous Windows, le logiciel AI-suiteII permettant même de contrôler les températures ainsi que le fonctionnement et la vitesse des ventilateurs, entemps réel[13].
Il existe aussi la possibilité de mesurer les températures et de visualiser toutes les informations relatives à l'overclocking avecCPU-Z, si la carte mère le permet. D'autres logiciels permettent de tester la stabilité de la machine, une fois celle-ci overclockée :OCCT, LinX (test de la stabilité, vérification des températures, tensions, etc.).
Le premier concours français d'overclocking ouvert au grand public a été laSOC Overclocking Competition, première édition en[14]. Elle a réuni20 participants s'affrontant sur une plate-forme identique afin d'en déterminer le meilleur "overclockeur" du concours. Depuis, l'équipe de l'association loi de 1901 Syndrome OC réitérait plusieurs fois l'expérience pour arriver à une4e édition qui s'est déroulée à Brest du au.
En 2011 et 2012,Asus, en partenariat avecIntel,Cooler Master et Syndrome OC, a organisé leNoob Overclocking Challenge, compétition destinée à initier les débutants aux rudiments de l'overclocking[15],[16]. Des marques commeMSI etGigabyte organisent leur propre concours d'overclocking, appelés respectivementMaster Overclocking Arena (MOA) etGigabyte Open Overclocking Championship (GOOC).
↑Les calculatrices programmables comme lesTI 57, 58 et 59 utilisaient un oscillateur RC au lieu d'un quartz. Pour surcadencer (on disait alors « débrider ») sa calculatrice, il fallait souder une résistance différente de celle fournie par le fabricant : cf. par ex.(en) DrDnar, « Guide to TI-84 Plus and TI-89 Ti Overclocking Using a Pencil », surTI Planet,.