L'overclocking, qu'est-ce, pourquoi, et comment ? (bis)
L'overclocking, qu'est-ce, pourquoi, et comment ? (bis)
Introduction
Après un premier article sur l'overclocking , il nous a paru normal, au vu de sa date de parution, de le mettre à jour. Ainsi, voici un nouveau dossier qui vous incitera très certainement à vous lancer dans ce sport quelque peu atypique...
Nous allons y aborder plusieurs points. D'une part, l'overclocking des processeurs, et d'autre part, celui de la mémoire, des chipsets, et bien entendu aussi celui des cartes graphiques.
Mais pour rappel, qu’est-ce que l’overclocking ? Pourquoi le pratique-t-on et surtout comment ?
Pour reprendre certaines explications de mon premier article sur le sujet, en fait l’overclocking est une manière de se démarquer et de se faire plaisir en augmentant la puissante d’un matériel défini. En fait, c’est considéré même comme un sport par certains, ou tout simplement une mode ou un moyen de faire tourner un matériel plus vite que pour ce qu’il a été prévu initialement, soit par besoin, soit par passion.
Dans le premier cas, c’est destiné à une machine qui prend de l’âge et qui va suite à un overclocking plus ou moins poussé, prendre une seconde jeunesse et permettre par exemple de jouer plus facilement à des jeux qui passaient mal au départ, et deviennent de fait plus fluides.
Dans le deuxième cas, c’est un sport, une passion, un petit grain de folie même pour certains, qui ne peuvent s’empêcher de faire tourner leur matériel plus haut, pour grappiller encore et encore quelques points à tel benchmark, souvent pour le plaisir personnel, moins souvent par métier, encore que certains overclockers sont bien connus pour participer à des challenges spécifiques nationaux ou même internationaux.
2 - Mais dans la définition overclocking, que doit-on retenir ? ![]() |
Mais dans la définition overclocking, que doit-on retenir ?
Mais dans la définition overclocking, que doit-on retenir ?
En fait, c’est un surcadencement, ou une manipulation qui a pour but d'augmenter la fréquence du signal d'horloge d'un processeur au-delà de la fréquence nominale pour laquelle il a été initialement prévu, afin d'augmenter les performances de l'ordinateur. Cela s’explique par le fait que lors de la fabrication des processeurs, les galettes de silicium étant la base de ces derniers, peuvent contenir un certain nombre d’impuretés pouvant nuire à certaines caractéristiques finales du produit. Bien évidemment, la finesse et la qualité de la gravure y contribuent aussi, mais également les matériaux utilisés. Ainsi, pour une même série de processeurs, il n’est pas rare d’en trouver certains qui sont très moyens, d’autres très inférieurs, et d’autres très supérieurs. C’est ainsi que les fréquences finales des différents processeurs sont définies en gardant une certaine marge de sécurité, leur permettant de garder une certaine stabilité malgré l’environnement dans lequel ils sont prévus de fonctionner (humidité, chaud, froid, variations rapides de températures, …).
Ainsi, il arrive parfois que certains processeurs aient passé au travers d’échantillonnages en fin de fabrication, et aient un potentiel bien supérieur à d’autres, ou du moins, une propension à monter assez facilement en fréquence avec très peu de modifications externes (refroidissement, vcore, …), mais nous y reviendrons par la suite.
Ainsi, les processeurs, qui a un moment donné étaient facilement overclockables, ont fait la joie d'overclockers comme nous, puis les fondeurs ont limité l'overclocking en bloquant certains paramètres. Depuis qu'AMD a sorti ses processeurs "Black Edition", c'est à dire avec le coefficient multiplicateur débloqué, les différents overclockers de tous genres s'en sont donné à cœur joie. Intel, de son côté, a suivi quelques temps après en proposant avec ses séries très haut de gamme, des coefficients débloqués mais uniquement pour l'élite ou pour les plus fortunés. Par la suite, et en comprenant l'engouement de l'overclocking, le fondeur a aussi proposé ses séries "K", plus abordables, permettant également de jouer sur ce fameux paramètre.
Mais attention, l’overclocking ne se pratique pas comme ça, sans notions préalables !
Mais attention, l’overclocking ne se pratique pas comme ça, sans notions préalables !
En effet, il faut savoir que lorsqu’un processeur est amené à être surfréquencé, il dégage plus de chaleur, donc s’échauffe plus vite, et les calories ainsi recueillies doivent être dissipées sous risque d’arriver à la température critique de non-retour, qui va le détruire irrémédiablement, en partie ou même entièrement, pouvant par là-même entraîner également la destruction du matériel qui l’entoure !
De la même manière, pour le faire tourner plus vite encore, le vcore, ou la tension à appliquer à ses bornes, va être augmenté, et provoquer également un dégagement de chaleur encore plus important. Il n’est même pas nécessaire de dire que la partie alimentation prévue pour gaver le processeur, doit elle aussi être taillée et correctement dimensionnée, afin de pouvoir suivre… …ou griller si elle n’est pas suffisante ! Cette partie est généralement découpée en plusieurs phases, et plus il y en a, et plus il y aura la possibilité de bien faire monter la fréquence du processeur sans risquer de griller par exemple la carte mère !
De fait, si la chaleur dégagée par le processeur augmente, il faut prévoir un système de refroidissement plus adéquat et plus performant, voire carrément exceptionnel pour certains cas !
Sans cette condition sine qua non, il y va sans dire que l’overclocking d’un processeur est à oublier !
Mais attention, car tout ceci induit forcément et inéluctablement également une surconsommation électrique !
Il est alors ainsi évident que derrière tout ce matériel, l’alimentation de l’ordinateur doit aussi pouvoir suivre, et délivrer la puissance nécessaire au bon fonctionnement de tous les éléments qui y sont branchés. Si cette dernière n’est pas suffisante, ou de mauvaise qualité (tensions trop instables, puissance trop optimiste par rapport à la puissance réelle pouvant être réellement délivrée, mauvais filtrages, …), il y a alors aussi de fortes chances de tout faire griller !
Une grosse alimentation et un gros refroidissement pour l'overclocking !
Mais alors que faut-il pour se lancer dans l’overclocking ?
Mais alors que faut-il pour se lancer dans l’overclocking ?
Dans un premier temps, il faut un matériel qui permette un tant soit peu de modifier certains paramètres grâce au BIOS. Le BIOS, ou encore Basic Input Output System, est un système élémentaire d'entrée/sortie, qui gère un ensemble de fonctions contenues dans la mémoire morte (ROM) dans une puce spécifique de la carte mère d'un ordinateur. Ce dernier lui permet d'effectuer les opérations élémentaires lors de sa mise sous tension, par exemple prendre le contrôle de la fréquence du processeur, sa tension, mais aussi d’autres fonctions comme la lecture d'un secteur sur un disque dur ou un SSD. Ainsi, le BIOS va charger tous les périphériques de base et effectuer un test du système. Cette phase de démarrage est appelée POST (Power On Self Test).
Grâce au BIOS, certains paramètres vont alors être modifiés puis enregistrés dans ce fameux micrologiciel. Actuellement même, le BIOS fait place à l’UEFI (Unified Extensible Firmware Interface), qui est beaucoup plus indépendant de la plateforme matérielle. Ceci étant, son rôle à la base est le même, à savoir la gestion de la carte mère et ses périphériques au démarrage.
Ainsi, il y aura la possibilité de modifier le coefficient multiplicateur, la fréquence du bus, et bien d’autres choses encore !
À gauche, un BIOS classique, à droite un BIOS UEFI
Le coefficient multiplicateur ? La fréquence du bus ? Quèsaco ?
Le coefficient multiplicateur ? La fréquence du bus ? Quèsaco ?
En fait, le processeur a une fréquence définie par le fondeur. Cette dernière est dépendante d’un coefficient multiplicateur et d’une fréquence de bus. Pour faire simple, la fréquence du bus est déterminée par la fréquence qui sert de base à celle de la mémoire vive. Cette dernière, multipliée par le fameux multiplicateur, donne la fréquence du processeur. Ainsi, certaines technologies d’économies d’énergie permettent d’abaisser ou même d’augmenter le coefficient et donc de faire varier la fréquence finale du processeur. La fréquence de la mémoire reste quant à elle toujours la même.
Pour overclocker, et suivant la génération du processeur, il est alors possible de faire varier ce coefficient vers le haut, et/ou voire même d’augmenter la fréquence du bus. Le résultat final tient alors compte du produit des deux paramètres.
Et le reste du matériel sur la carte mère ?
Il est évident que le reste du matériel de la carte mère va suivre proportionnellement l’élévation de la fréquence du bus. Entre autres, les deux composants qu’il faut alors surveiller sont le chipset nord (NB) et le chipset sud (SB). Heureusement, de nos jours, les cartes mères bien faites permettent alors d’agir également sur un coefficient multiplicateur afin de limiter leur montée en fréquence. Le mieux au départ est donc d’essayer d’approcher le plus possible les fréquences de fonctionnement normales de ces deux composants. Les overclockers avertis pourront ensuite jouer sur ces fréquences pour grappiller encore quelques précieux points dans les benchmarks.
Quelques écrans de paramétrages sous UEFI
Mais alors comment procéder ?
Mais alors comment procéder ?
Tout d’abord, comme je l’ai expliqué, un bon overclocking ne se fait pas sans qu’il y ait la certitude que le matériel ne va pas trop chauffer et donc risquer de griller. Il va donc falloir prévoir de changer le système de refroidissement d’origine par un système beaucoup plus performant. Il existe dans cet objectif actuellement une multitude de systèmes différents, et sans aller dans l’excès, avec par exemple les systèmes à azote liquide, des systèmes déjà bien pensés pour un refroidissement par air, ou mieux encore, par eau. Il y va sans dire, que pour un débutant, il vaut mieux qu’il s’essaie d’abord avec un système de refroidissement par air, et par la suite, si l’envie lui vient, il pourra se jeter à l’eau si je puis dire, avec un watercooling pour remplacer l’aircooling.
Ces systèmes existent non seulement pour les processeurs, mais également pour les cartes graphiques, et même les chipsets et refroidisseurs pour mémoires !
Mais le but n’est pas de vous amener aujourd’hui à un système hyper perfectionné, mais bien pour vous aider à réaliser et obtenir vos premiers overclockings.
Dans un premier temps donc, concentrez-vous sur le composant que vous voudrez overclocker. Puis renseignez-vous sur les différentes manières possibles de mieux le refroidir, en tenant bien évidemment compte de votre portefeuille !
Une fois ceci fait, il faudra le monter. Et là justement, il faudra être méticuleux, et ne pas le faire à la va vite, car vous pouvez endommager le matériel avec de mauvaises manipulations !
La première chose à éviter, c’est l’électricité statique, très nuisible à ces chères petites puces qui se trouvent un peu partout. Donc évitez absolument les vêtements synthétiques lorsque vous devrez manipuler votre matériel. Il existe même des bracelets spécifiques qui se relient à la terre et évitent les décharges statiques sur le matériel.
Evitez également les surfaces qui risquent elles aussi de générer de l’électricité statique par frottement. Les meilleurs matériaux pour éviter ceci sont par exemple le métal, le bois, même le carton ou le papier. Et fuyez tous ceux qui vous paraissent suspects !
La deuxième chose à éviter, ce sont les outils bon marché. Ce sont eux qui risquent d’endommager le matériel, les têtes de vis par exemple, et vous regretterez alors l’achat de ce type de matériel. Investissez dans du bon matériel, sur lequel vous pourrez compter pendant des années !
La troisième, c’est d’éviter d’être pressé. Prenez votre temps, ne risquez pas d’oublier quelque chose, et vérifiez si nécessaire à plusieurs reprises ce que vous avez fait !
Et que privilégier comme paramètres dans un overclocking ?
Et que privilégier comme paramètres dans un overclocking ?
En fait il faut savoir qu’une fois toutes les conditions requises pour monter en fréquence sont ressemblées et respectées, il n’en reste pas moins qu’une fréquence ne ressemble pas à une autre en performances.
Quèsaco ?
Pour expliquer et donner un exemple, si vous montez votre processeur initialement cadencé à 3.2GHz à une fréquence de 4.0GHz, juste en modifiant le coefficient multiplicateur, il ne sera pas aussi véloce que si vous arrivez à la même fréquence finale, mais en gardant le même coefficient multiplicateur, mais en augmentant la fréquence du bus. Certains processeurs avec une fréquence plus faible étaient par exemple plus véloces que d’autres avec une fréquence plus élevée. C’était lié directement au Front Side Bus (FSB) ou fréquence bus. Des exemples nombreux venaient étayer ces résultats comme à l’ère des Pentium III ou autres Athlon XP, qui avaient des fréquences de bus différentes en fonction des versions. Ainsi par exemple, un Pentium III EB à 800MHz était plus véloce ou au pire équivalent en fonction des applications à un Pentium III E à 850MHz ! La raison ? Le Pentium III EB à 800MHz fonctionnait à 6 x 133.33MHz alors que le Pentium III E à 850MHz fonctionnait à 8.5 x 100MHz ! Comme la fréquence de la mémoire était inférieure pour le Pentium III E à celle de la mémoire du Pentium III EB, elle était moins performante, et le fait de travailler à un coefficient plus grand ne suffisait pas à rééquilibrer les performances !
En d’autres termes, prenons par exemple au départ une fréquence de processeur de 3.2GHz avec une fréquence de bus de 200MHz. Cette dernière multipliée par un coefficient de 16 nous donne effectivement 200 x 16 = 3200MHz ou 3.2GHz.
Deux solutions peuvent donc se présenter pour augmenter ses performances, ceci étant, et pour l’instant, on ne parle pas encore de la tension (vcore) à appliquer au processeur pour garantir une certaine stabilité, mais on y reviendra par la suite :
- soit on monte le coefficient multiplicateur par exemple à 20 et on garde la fréquence du bas à 200MHz, on obtiendra bien 4000MHz ou 4.0GHz.
- soit on garde par exemple le coefficient multiplicateur à 16 et on monte cette fois-ci la fréquence du bus, à 250MHz au lieu des 200MHz initiaux. On obtient cette fois-ci aussi 4000MHz ou 4.0GHz.
Dans le premier cas, nul besoin de toucher à tous les autres paramètres que le coefficient multiplicateur. C’est simple, rapide, mais le gain en performances est bien moindre que dans le deuxième cas.
Dans le deuxième cas, il faut cette fois-ci toucher à beaucoup de paramètres, car il ne faut pas oublier que toutes les fréquences du chipset nord et du chipset sud sont liées au bus, et donc vont monter proportionnellement avec la fréquence du bus !
Prenons pour exemple une fréquence initiale pour le chipset nord de 2000MHz, et une fréquence d’échange avec le chipset sud de 2000MHz également. Si le bus est initialement de 200MHz, le coefficient multiplicateur pour le chipset nord et la fréquence d’échange entre le chipset nord et le chipset sud, appelé communément l’Hyper Transport (HT) chez AMD, est à chaque fois de 10.
Dans le premier cas, ces deux fréquences ne bougeront pas, car la fréquence du bus de 200MHz reste la même.
Dans le deuxième cas, en montant par exemple la fréquence du bus de 10MHz, et donc au final de 210MHz, les fréquences des chipsets nord et Hyper Transport vont aussi augmenter dans les mêmes proportions et vont alors se retrouver à 2100MHz.
Il est certain qu’à force de monter ainsi, par exemple à 250MHz de fréquence de bus, les fréquences des chipset nord et Hyper Transport vont aussi augmenter dans les mêmes proportions et vont alors se retrouver cette fois-ci à 2500MHz, ce qui est beaucoup, surtout si on ne corrige pas les tensions de fonctionnement des chipsets. Dans le cas de 250MHz, il va falloir modifier les deux coefficients en les descendant à 8 (8 x 200) pour se retrouver à 2000MHz pour le chipset nord et l’Hyper Transport.
Dans certains cas bien sûr, et pour les overclockers expérimentés, ces fréquences sont revues à la hausse pour gagner en performances, mais évidemment, et toujours pour garantir la stabilité des chipsets, il faut modifier leurs tensions d’alimentation, ce qui revient à dire qu’il y a échauffement de ces derniers, et le refroidissement doit alors aussi être adapté ou revu !
Les deux fréquences de 200MHz et 250MHz ont été prises spécifiquement pour expliquer les modifications apportées au matériel, mais il n’est pas certain que vous arriviez à 250MHz, vous pouvez par exemple être limité à une fréquence bien inférieure, comme au hasard 222MHz.
À cette fréquence, vous obtiendrez alors 2220MHz pour le chipset nord et l’Hyper Transport, auquel cas, il est alors possible de rectifier en y mettant un coefficient de 9 par exemple. La fréquence ainsi corrigée retombe à 1998MHz, très proche de la valeur de base. Tant que la valeur trouvée ou corrigée se retrouve dans une fourchette ou une tolérance de +/- 5%, à savoir de 1900MHz à 2100MHz, votre matériel n’aura logiquement pas à en souffrir. En dessous de la valeur minimum, vous allez ensuite perdre en performances, et au-dessus de la valeur maxi, il faudra penser à corriger avec la tension d’alimentation pour garder une certaine stabilité à toutes épreuves.
De même, la fréquence PCI-Express va aussi augmenter dans les mêmes proportions. Cette fois-ci, c’est plus simple, car la correction peut se faire directement en affichant cette dernière dans le bios, pas besoin de compter sur un coefficient multiplicateur ! En général, il suffit de corriger cette dernière en restituant la fréquence d’origine de 100MHz.
Voilà donc le principe de l’overclocking. Bien sûr, comme démontré ci-dessus, le gain sera bien supérieur en modifiant le bus qu’en modifiant bien sûr que le coefficient multiplicateur. Il est aussi possible de travailler avec les deux, dans le cas par exemple où la mémoire n’arrivait pas à suivre la fréquence du bus. En bon overclocker, c’est aussi un des paramètres alors à changer pour monter plus haut encore ! Il n’est donc pas rare de voir certaines barrettes de ram largement supérieures à la demande initiale de la carte mère, tout simplement pour bien monter ensuite en fréquence !
Le principe pour overclocker.
Le principe pour overclocker.
Il y va sans dire qu’il va falloir essayer de trouver la fréquence maximale que peut tenir le processeur, et au départ sans avoir à toucher à son vcore (tension d’alimentation de ce dernier).
Le principe va donc être de monter progressivement le coefficient multiplicateur et de tester à chaque fois la stabilité du processeur avec des logiciels comme OCCT ou encore Prime95. À chaque fois, il faudra aussi surveiller de très près le température pour éviter d’arriver à celle maximale conseillée par le fondeur (AMD ou Intel) pour la série du processeur. Une fois la fréquence trouvée, il est ensuite possible de la redescendre, et cette fois-ci monter le bus.
Cette méthode permet de trouver quelle sera la valeur maximale du bus applicable en fonction des barrettes de mémoire qui sont utilisées. Si arrivé à la fréquence maximale du processeur, elles peuvent continuer à monter, il faudra alors baisser d’un point le coefficient multiplicateur du processeur pour pouvoir continuer à trouver leur maximum. L’opération est alors à recommencer jusqu’à ce que le bus maximum soit trouvé. Il ne faut pas non plus oublier de travailler avec les coefficients multiplicateurs cités précédemment pour le chipset nord et l’Hyper Transport, afin de ne pas rendre le système instable et imputer ceci à la ram !
Ensuite, et en faisant des essais, ce sera un savant mélange des deux qui permettra de trouver la fréquence finale la plus performante pour la plateforme !
N'oubliez pas qu'il faudra à chaque fois monter petit à petit, et tester à chaque fois la stabilité de l'ensemble. Quelques tutoriels seront disponibles par la suite pour que vous puissiez affiner vos réglages en fonction de votre matériel.
OCCT et Prime95
Le refroidissement.
Le refroidissement.
Il n’est jamais trop tard de parler de refroidissement. En fait, le refroidissement de la puce à overclocker est très important, mais ce n’est pas tout !
En fait, lors de l’overclocking d’un composant, voire même plusieurs (processeur, carte graphique, …), une multitude de composants va chauffer plus, et il va falloir évacuer toutes ces calories. Le principe est simple à la base, mais la mise en pratique s’avère généralement beaucoup plus délicate !
Les boîtiers actuels sont généralement bien faits et ne ressemblent plus beaucoup à ceux qui se faisaient il y a encore 10 ans en arrière !
En fait, les fabricants l’ont bien compris, s’ils veulent pouvoir vendre leurs produits, ils doivent conjuguer performances de refroidissement et silence ! Une équation pas toujours facile à mettre en œuvre ! Et comme ils ont compris que de plus en plus d’utilisateurs potentiels se lancent dans le watercooling (refroidissement par eau, voir plus loin), ils proposent aussi de plus en plus de boîtiers prévus pour accueillir de telles solutions !
Outre le fait qu’un bon ventirad (système de refroidissement par air pour processeur) puisse déjà faire beaucoup pour réussir un overclocking, il ne fera pas grand-chose si l’intérieur de la tour reste chaud !
Le principe de la circulation de l’air dans les tours actuelles est généralement basé sur celui de la conduction naturelle thermique dans l’air, à savoir que l’air réchauffé va monter, alors que l’air frais va descendre. Ainsi, les ventilateurs sont généralement placés de la manière suivante :
- à l’avant de la tour et sous la tour, ils fonctionnent en aspiration pour amener de l’air frais dans la partie inférieure, qui sera ensuite acheminé vers les composants chauds et à refroidir.
- à l’arrière et au-dessus de la tour, ils fonctionnent en extraction, c’est-à-dire qu’ils évacuent l’excédent des calories, et permettent ainsi un échange thermique correct dans l’intérieur de la tour.
Attention néanmoins, car bon nombre d’overclockers en herbe tentent de rajouter encore et encore des ventilateurs dans la tour, pour essayer de favoriser encore plus cet échange thermique. C’est en général un très mauvais choix, car ils perturbent le flux naturel de l’air chaud du bas vers le haut, en générant des genres de vortex ou flux parasites allant à l’encontre du bon écoulement de l’air, et mélangeant air chaud et air froid dans la tour, provoquant une élévation de la température dans cette dernière !
De même, il faut être très prudent sur le volume d’air rentrant et le volume d’air sortant ! Il faudrait logiquement vérifier le débit de chaque ventilateur (données constructeur) et vérifier un équilibre presque parfait entre les flux entrants et sortants !
Si un déséquilibre s’avère, il est certain qu’il y aura forcément élévation de la température dans la tour et mauvais refroidissement !
Donc si vous avez bien compris, pour réussir un overclocking, une des conditions sine qua non est d’avoir déjà un bon refroidissement interne de la tour.
Ensuite, le refroidissement du ou des composants à overclocker est tout aussi important !
Il existe d’ailleurs à ce sujet une multitude de refroidissements différents, mais ici seront abordés uniquement ceux qui sont utilisés le plus couramment, à savoir l’aircooling et le watercooling, exit ceux qui font appel par exemple à du matériel spécifique et parfois très couteux comme entre autres l’azote liquide utilisé dans la recherche des records mondiaux.
Pour l’aircooling, ou plus communément appelé refroidissement à l’air, ce sont des systèmes appelés ventirads, généralement à base de cuivre et d’aluminium et faisant appels bien évidemment à des ventilateurs toujours plus sophistiqués, alliant généralement silence et performance.
Il est possible d’en trouver de toutes sortes, mais il est très conseillé de faire attention aux tests sur la toile, afin de pouvoir apprécier les différences de températures des uns par rapport aux autres. Mais il n’y a pas de secret, plus chers ils sont, plus performants ils sont généralement aussi !
Deux très gros ventirads, très performants mais aussi assez onéreux ! (Les performances se paient !)
À gauche, une Radeon HD 7970 normale, et à droite, une Radeon HD 7970 avec un refroidissement plus optimisé !
Pour le watercooling, ou plus communément appelé refroidissement à l’eau, cette fois-ci c’est un circuit avec un liquide spécial qui va refroidir le composant, puis va être redirigé vers un radiateur, lui-même refroidi par un ou plusieurs ventilateurs, un peu à la manière du système de refroidissement du moteur d’une voiture.
Il existe des systèmes tout faits, sans entretien, avec pompe incorporée, prêts à être posés, mais sont en général inférieurs en rendement et refroidissement aux meilleurs ventirads actuels. Les systèmes les plus compétitifs, sont par contre composés d’une pompe séparée, d’un réservoir, d’un système de tuyaux adaptables aux différentes configurations, d’un radiateur pouvant être énorme et refroidi par plusieurs ventilateurs, et de water bloc qui permet l’échange de calories avec la puce. Ces derniers sont en général très compétitifs et peuvent allègrement dépasser en performances les meilleurs ventirads actuels. Par contre, leur mise en œuvre et leur entretien en repoussent en général plus d’un, sans compter le coût de l’ensemble qui n’a en général plus rien à voir avec celui d’un ventirad, même de très haut de gamme !
Deux systèmes de watercooling prêts à poser, avec pompes intégées.
Un exemple de watercooling bien plus complet, mais à monter soi-même !
À gauche, une Radeon HD 5970 normale (refroidissement à air) et à droite, une Radeon HD 5970 watercoolée, comme quoi, il n'y a pas que les processeurs qui peuvent être sous watercooling !
Un petit trio watercoolé, avec à gauche dans le détail, et dans l'ordre d'en haut vers le bas, le refroidissement du processeur, puis du chipset, et enfin de la carte graphique, puis à droite l'ensemble monté et fonctionnel.
Un exemple de kit individuel de watercooling pour carte graphique.
Et pour terminer, quelques exemples de refroidissements ultimes à l'azote liquide !
Et les modifications des tensions ?
Et les modifications des tensions ?
Nous rentrons dans un sujet un peu particulier. Expliquons d’abord ce qu’est par exemple un vcore sur un processeur, et comment il a été attribué par le fondeur et pourquoi. La définition du vcore, c’est la tension appliquée au cœur du processeur pour le rendre stable en toutes circonstances (contraintes de temps, température, humidité du socket qui est le support sur lequel se fixe le processeur, refroidissement, …), et qui a été testé en laboratoire pour obtenir un rapport puissance/consommation somme toute raisonnable. Nous avons pu voir que lors de la fabrication des processeurs, le wafer (galette de silicium) utilisé peut varier en qualité et la gravure aussi. Ainsi, le fondeur va ensuite faire des échantillonnages sur les différentes séries pour savoir quelles fréquences peuvent être atteintes avec une certaine tension minimum. On imagine bien que qui peut le plus peut le moins, mais pas l’inverse, et donc les puces qui peuvent atteindre les fréquences les plus hautes sont forcément les moins nombreuses, mais également les plus chères. C’est ainsi par exemple que dans une même série de processeurs, certains ont une appellation spécifique pour aller à très haute fréquence, et d’autres une autre appellation pour tourner un peu moins vite. Certaines sont même déclassées pour faire des processeurs avec des cores (cœurs) en moins et/ou de la mémoire cache en moins (mémoire de différents niveaux pour les instructions, intégrée au processeur). Vous l’avez compris, on ne jette rien, et les meilleures puces donnent les processeurs les plus puissants.
Une fois que les différentes séries sont repérées, et toujours par échantillonnage, ces dernières sont testées dans des environnements divers, et par exemple, lorsqu’elles sont soumises à des températures plus importantes (comme dans les pays chauds), ont tendance à devenir instables. Le fondeur leur applique alors une tension légèrement plus élevée pour garantir leur stabilité, quelle que soit ensuite la destination de ces puces, et en gardant une tolérance suffisante pour leur assurer un fonctionnement optimal. C’est alors ce qui est appelé le vcore. De plus, en fonction de la fréquence et du vcore, le processeur va avoir ce qu’on appelle une enveloppe thermique TDP (Thermal Design Power) limitée à une certaine valeur maximale en Watt. Ainsi, lorsque le processeur fonctionne en économie d’énergie, il va consommer très peu, lorsqu’il va fonctionner à sa fréquence normale, il aura une consommation en rapport et proche du TDP maximum, et lorsqu’il fonctionnera à des fréquences plus hautes mais avec seulement un certain nombre de cores sur l’ensemble, cette technologie augmentera encore le vcore de ces cœurs pour leur assurer leur stabilité, tout en restant au maximum à la limite du TDP désigné (technologie Turbo Core chez AMD ou Turbo Boost chez Intel).
Ainsi, le vcore appliqué reste à chaque fois en corrélation avec la fréquence de fonctionnement des cores du processeur. Dans l’overclocking, le même principe est appliqué, mais avec des dimensions bien plus importantes.
On l’a vu, chaque processeur a ses limites et n’est pas comparable à autres d’une même série y compris si ses caractéristiques de base restent les mêmes. Lorsque sa fréquence va être augmentée, il va vite devenir instable à partir d’une certaine limite, et pour parer à ce problème, il faudra augmenter ce fameux vcore. Bien sûr, d’une part il va y avoir un dégagement de chaleur bien plus important, et donc une enveloppe thermique revue à la hausse, et de ce fait, la modification du vcore devra se faire avec une certaine parcimonie, pour éviter d’aller dans les excès. Et à chaque fois, il faudra tester la stabilité sous OCCT ou Prime95, et bien entendu, vérifier sa température !
C’est ainsi que l’overclocking se fera par paliers, et au fur et à mesure, en testant à chaque fois, et en recommençant autant de fois que nécessaire. Bien sûr, à un moment donné, il va y avoir une augmentation exponentielle du vcore par rapport au gain en fréquence, et vous arriverez alors à la limite du possible avec le refroidissement que vous aurez (d’où l’importance de ce dernier !).
Il en va donc de même avec d’autres puces comme par exemple celle du chipset nord, lorsque vous augmentez sa fréquence de fonctionnement ! À la seule différence près que très souvent ce dernier devra se contenter du refroidissement d’origine, à savoir en général un radiateur passif !
Vous comprendrez donc vite qu’il vaut alors mieux limiter l’augmentation de sa tension ou alors qu’elle devra aussi se faire avec beaucoup de parcimonie, et une certaine prudence pour éviter de griller la puce !
Quelques tutoriels seront disponibles par la suite pour que vous puissiez affiner vos réglages en fonction de votre matériel.
Et les autres composants comme par exemple les cartes graphiques, la mémoire, … ?
Et les autres composants comme par exemple les cartes graphiques, la mémoire, … ?
En définitive, pour les autres composants, c’est exactement la même chose. Les cartes graphiques peuvent aussi bien s’overclocker, il en existe d’ailleurs des séries overclockées d’origine, d’autres prévues pour être overclockées, et d’autres encore en séries spécialement prévues pour l’overclocking ! Il existe d’ailleurs aussi des refroidissements spécifiques pour ces dernières, et aussi des refroidissements à eau (watercooling) !
La même chose se retrouve pour les barrettes de mémoire, qui peuvent aussi s’overclocker, et même aussi être refroidies à l’eau ! Et dans ce cas, vous pouvez aussi jouer avec les latences de ces dernières, qui sont des paramètres de pré charge, de commande, …, afin de grappiller encore quelques MHz ! Et comme toujours, la tension peut être modifiée !
Un watercooling pour Radeon HD 7970.
Un module de watercooling pour mémoire.
Une fabrication artisanale de watercooling pour plusieurs barrettes de mémoire.
Et les risques de l\'overclocking ?
Et les risques de l’overclocking ?
En fait, tout overclocking comporte un certain nombre de risques et même d’effets secondaires !
Si dans la pratique, un overclocker raisonnable saura s’arrêter à une valeur définie par le fondeur, un overclocker plus ou moins fou va monter et monter encore, pour dépasser très souvent les limites définies initialement. Et le risque est là !
En fait, toutes les puces comme les processeurs, les GPU (puces graphiques sur les cartes graphiques), chipsets et autres encore ont normalement des tensions de fonctionnement définies avec logiquement des valeurs maximales à ne pas dépasser. Mais pourquoi ?
En fait, au fur et à mesure que la technologie évolue, la gravure évolue aussi devient à chaque fois plus fine. C’est ainsi que sur la même surface, alors qu’autrefois on pouvait y mettre quelques transistors, aujourd’hui ce sont des millions de transistors qui occupent la même place !
Et les interconnexions entre eux sont évidemment devenues plus fines et plus fragiles. La tension qui est appliquée au niveau de ces transistors et de ces interconnexions fait qu’une fois une valeur dépassée, il va y avoir des arrachements d’atomes de la connexion provoquant jusqu’à une rupture d’une interconnexion par exemple ou d’un transistor.
Un autre effet lié à la chaleur peut être ce qu’on appelle l’emballement thermique et peut provoquer jusqu’à la mort du transistor si le courant est mal maîtrisé.
Il y a aussi l’effet de vieillissement du transistor qui est accéléré lorsque qu’il ne fonctionne plus dans la fourchette des valeurs normales de tension et/ou de courant. Ainsi par exemple, un circuit prévu pour fonctionner normalement pendant 5 à 10 ans peut rapidement voir sa durée de vie limitée à par exemple à peine un an si l’overclocking n’est pas maîtrisé.
Ainsi, et en reprenant tout ceci, il est évident que l’overclocking va pouvoir permettre de gagner en performance, mais parfois à quel prix !
S’il est mal maitrisé, le matériel va devoir plus travailler encore pour corriger le nombre d’erreurs physiques liées aux tensions trop conséquentes et à la migration des électrons, voire des atomes.
Les conséquences qui en découlent peuvent alors être les suivantes :
- la dégradation globale ou partielle du processeur liée aux erreurs qui doivent être calculées et recalculées et corrigées, parfois même non gérées et provoquent alors le plantage pur et simple du système
- la dégradation progressive du processeur liée à l’augmentation de sa tension et donc de l’énergie transformée en chaleur qui doit être plus et mieux dissipée
- l’augmentation de la chaleur qui va inéluctablement impacter sur le fonctionnement du circuit et des transistors, et provoquer aussi certaines destructions si la température n’est pas maîtrisée
Voici deux exemples de dommages, l'un largement agrandi du détail miniature d'une puce où une piste a été coupée suite à un courant trop fort ou une migation d'atomes, l'autre d'un processeur maltraité où les contacts ont été brûlés par un courant trop fort !
Trois exemples de processeurs endommagés suite à un overclocking trop poussé et/ou mal ou insuffisamment refroidis !
Alors, toujours envie d'overclocker votre matériel ?
Si vous êtes toujours partants, nous allons pouvoir vous proposer par la suite quelques tutoriels sur l'overclocking de différents processeurs actuels, ou même de cartes graphiques !
Bon overclocking !
Sachez néanmoins, qu'en aucun cas nous ne pourrons être considérés comme responsables s'il devait vous arriver une quelconque mésaventure lors de l'overclocking de votre matériel, car vous ferez maintenant ceci en connaissance de cause !