Aller au contenu

Guide d’overclocking du processeur : comment (et pourquoi) modifier votre processeur

    1652400122

    Introduction

    L’overclocking était autrefois le domaine des passionnés avec un savoir-faire matériel supérieur à la moyenne et un peu de bravoure. La communauté était composée de concurrents de référence désireux de repousser les enveloppes de fréquence du processeur, de joueurs essayant de tirer la dernière goutte de performances d’une plate-forme vieillissante, ou simplement d’utilisateurs expérimentés qui voulaient tracer les limites non documentées et non annoncées de leur système. Un exemple classique du genre d’esprit autour de l’overclocking/modding était le « DIY Cooking Oil PC » que nous avons présenté ici chez Tom’s Hardware en 2006.

    Les temps ont changé. Comme pour de nombreux autres «ajustements» de niche aux performances du système comme le refroidissement liquide, les fournisseurs ont adopté l’overclocking, promouvant avidement les capacités de leur matériel, fournissant des outils logiciels et micrologiciels pour rendre l’overclocking beaucoup plus facile et, pour un prix élevé, fournissant pré-construit , des systèmes overclockés avec des spécifications qui auraient fait pâlir beaucoup d’entre nous dans les années 2000.

    L’adoption généralisée de l’overclocking a également été poussée par une pléthore de nouvelles applications ; pas seulement les jeux, mais l’extraction de devises et le calcul scientifique décentralisé comme BOINC et le repliement des protéines. Et bien que le processus réel d’overclocking ait été considérablement simplifié ces dernières années, il n’est pas aveugle. Souvent, l’overclocking consiste à considérer la construction d’un système dans son ensemble et à éliminer les goulots d’étranglement, et pas seulement à pousser un composant à sa limite.

    Par exemple, vous pouvez exécuter certains Core i7-3770K à plus de 5,1 GHz (attendez-vous à un réglage de tension d’environ ~ 1,45 V), mais si le système est utilisé pour le calcul scientifique (ou toute autre application nécessitant la manipulation de grands ensembles de données) , les débits de données de la mémoire peuvent devenir votre goulot d’étranglement en termes de performances.

    Nous nous concentrons sur les processeurs dans cet article, mais la mémoire système et les processeurs graphiques sont également overclockables. Et de nombreux amateurs débutants peuvent se rendre compte qu’au lieu d’overclocker le processeur pour de meilleures performances, ils peuvent simplement mettre à niveau le refroidissement du système pour empêcher la limitation thermique intégrée du processeur de se déclencher sous une charge importante.

    Malgré les récents changements dans les capacités matérielles, le concept de base derrière l’overclocking reste le même. Les composants avec une horloge – un oscillateur – ont une marge de performance (fréquence) que nous appelons la marge, qui est disponible au-delà des paramètres par défaut annoncés. Une partie de la marge existe en raison des marges de sécurité conçues pour le matériel, basées sur les performances thermiques et les contraintes de tension disponibles d’un système nominal. C’est-à-dire qu’un composant grand public ne doit pas émettre autant de chaleur que seuls les 5% des meilleurs PC ont la capacité de refroidissement pour le gérer. C’est ce qu’on appelle une « bande de garde intentionnelle ». L’overclocking extrême ronge la bande de garde ainsi que le conservatisme dans la conception du processus de fabrication du matériel et du silicium.

    Une autre partie de la marge existe parce que la valeur du stock est un point de consigne stable déterminé lors des tests du fabricant. Par exemple, une configuration de processeur et de système donnée peut tomber en panne moins souvent lorsqu’elle fonctionne à 2,5 GHz en dessous du maximum disponible.

    Enfin, les fabricants répugnent à distribuer ce qui est essentiellement une augmentation gratuite des performances aux overclockeurs sans la facturer ; Les processeurs multiplicateurs verrouillés et déverrouillés d’Intel sont d’excellents exemples, où des puces identiques sont vendues avec et sans plafonds de fréquence artificiels, avec une prime facturée pour la capacité d’overclocker.

    La fréquence d’un composant peut être augmentée par divers moyens, et une tension de composant plus élevée est souvent utilisée pour fournir le signal plus fort nécessaire à cette fréquence plus élevée. Ce guide ne précise pas quel processeur est le « meilleur » pour l’overclocking ; chaque overclocker a une préférence, et les préjugés entrent en jeu lors de la recommandation de processeurs. Nous avons une histoire plus ancienne entre AMD FX-8350 et Intel Core i7-3770K qui traite des goulots d’étranglement, au cas où vous voudriez comparer l’état des meilleurs processeurs il y a quelques années, cependant.

    Considérations relatives à la chaleur, à la stabilité, aux dommages et à la garantie

    La performance par rapport au stock obtenue en overclockant un système n’est pas seulement un ajustement mineur ; Just_nuke_em, membre de HWBot, a overclocké l’AMD FX-8120 à quatre modules relativement bon marché avec une fréquence d’horloge de 3,1 GHz à 8,3 GHz, soit une augmentation de plus de 250 % par rapport aux spécifications publiées par AMD.

    Alors que la plupart des overclocks seront plus modestes que ce record du monde, toute amélioration des performances s’accompagne de certaines limites imposées par la physique. Au fur et à mesure que la fréquence d’horloge et la tension d’une puce augmentent, la production de chaleur perdue du système augmente également rapidement, et cette chaleur doit être évacuée d’une manière ou d’une autre. Souvent, la capacité de refroidissement d’une construction atteint son maximum bien avant la fréquence maximale théorique du composant. Et le refroidissement du processeur continuera de devenir moins efficace, pas plus, au fil du temps ; chaque génération de CPU a une densité de transistors plus élevée que la précédente. Intel est passé de la matrice Nehalem 45 nm en 2008 à une matrice 14 nm dans Skylake en 2015, et Cannonlake (dont la sortie est prévue en 2017) va être construit sur un processus 10 nm. AMD suit une progression similaire.

    Alors que le nombre de transistors a tendance à augmenter avec chaque nouvelle architecture, la taille de la matrice ne le fait pas, ce qui rend beaucoup plus difficile pour les solutions de refroidissement conventionnelles de suivre la vitesse à laquelle l’énergie thermique est générée. En fait, à mesure que les matrices deviennent plus petites, la surface totale de contact entre le processeur et son dissipateur de chaleur diminue, ce qui rend le refroidissement moins efficace. Tout cela contribue à une prédilection beaucoup plus élevée pour les « points chauds » dans les puces actuelles. Bien sûr, à mesure que vous augmentez la tension pour (espérons-le) stabiliser des overclocks plus agressifs, la consommation d’énergie augmente très rapidement. Les températures centrales ont tendance à sauter pour de petites augmentations de fréquence incrémentielles.

    La stabilité du système est souvent une autre victime de l’overclocking. Les passionnés doivent parfois vivre avec plus de plantages du système et des performances moins constantes. Cela ne veut pas dire que chaque système overclocké est moins stable que le stock ; de nombreux overclockeurs ont signalé avoir trouvé de nouveaux et meilleurs points de fonctionnement à des fréquences d’horloge supérieures à celles du stock. Cependant, les processeurs fonctionnant au-delà de leurs spécifications d’usine sont plus susceptibles d’avoir une durée de vie plus courte en raison des contraintes qui leur sont imposées.

    Causer des dommages et annuler les garanties sont deux raisons souvent citées pour lesquelles les gens hésitent à overclocker. Endommager des composants dus à des surcharges de chaleur ou de tension était facile autrefois, et c’est toujours possible aujourd’hui. Mais les fabricants intègrent un certain nombre de sécurités, y compris l’étranglement thermique, et la vérité est qu’il est beaucoup plus probable qu’un système devienne instable et tombe en panne avant qu’il n’y ait des dommages permanents causés par un test à court terme.

    L’overclocking réduira cependant la durée de vie des composants du système; pas seulement le processeur, mais la carte mère, la mémoire et d’autres pièces qui ont été sollicitées au-delà de leurs points de fonctionnement conçus aux côtés du processeur overclocké. En électronique, la plus grande source d’usure est un phénomène connu sous le nom d’électromigration, par lequel les ions sont lentement transférés d’une structure à la structure adjacente sous la force du courant électrique. Les principaux facteurs contributifs incluent l’augmentation de la chaleur et de la tension, mais les limites de chaleur et de tension varient selon les différents matériaux, les différentes technologies de production et la durée de vie prévue des composants. Les charges thermiques en particulier ont tendance à accélérer l’électromigration dans les circuits intégrés.

    En termes de garantie, alors que les fabricants de GPU et de cartes mères sont devenus plus favorables à l’overclocking ces derniers temps, les garanties Intel et AMD sont annulées si la fréquence d’horloge de leurs processeurs est modifiée. Intel propose un « plan de protection du réglage des performances » qui remplacera un processeur éligible qui ne respecte pas les spécifications d’Intel, mais AMD ne couvrira pas un processeur qui a été utilisé en dehors des spécifications publiées, même lorsque le propre logiciel Overdrive d’AMD est utilisé pour l’overclocking.

    0 0 votes
    Rating post
    S’abonner
    Notification pour
    guest
    0 comments
    Commentaires en ligne
    Afficher tous les commentaires
    0
    Nous aimerions avoir votre avis, veuillez laisser un commentaire.x