Aller au contenu

Change
Photo

Overclocking GPU : Quelles fréquences augmenter et pourquoi ?


  • Veuillez vous connecter pour répondre
10 réponses à ce sujet

#1
Xidus

Xidus

    Geek padawan

  • Membre
  • 3 271 messages
Salut à tous,

Quelques petites questions.
Pour un OC du Gpu, quelles sont les fréquences à augmenter et pourquoi ?
On a trois fréquences, quel est le rôle de chacune d'elles ? Une astuce sur l'augmentation de telle ou telle fréquence pour augmenter les perf. tout en limitant la chauffe ?
Quelles sont les plus facilement augmentable ?

Comment bien réussir un OC GPU ?

Je pose ces questions car j'ai déjà OC des GPU, mais c'était un peu à l'aveugle, j'augmente simplement les fréquences jusqu'à ce que sa foire, mais je ne sais pas vraiment lesquelles influent sur quoi, etc.

Merci pour vos réponses, qui, je suis sur, serviront aussi à d'autres. ;)

++
  • 0
Macbook Pro 13" - OSx Lion - i5 2435M - 4 go DDR3 - DD 500 go

#2
mahousensei

mahousensei

    Lécheur fou

  • Membre
  • 5 955 messages
  • LocalisationBelgique
Ben c'est un peu comme pour un proco, tu as le core (processeur graphique), la mémoire (RAM de la CG en quelque sorte) mais les shaders je ne sais pas.

Modifié par mahousensei, 24 juillet 2010 - 18:35.

  • 0

D4G: P8Z68-V PRO Gen3, >i5-2500k< 4,6GHz 1,3v, MSI >SLI GTX 670 PE<, Co&Ge 16Go, Fractal Core 3k, S. 830 SSD 64Go + Sea. 1To 7,2kTr/mn, C.TX850M. FS10629.

ASUS G46VW-CZ078H: HD+, >i7-3630QM<, C.Vengeance 8Go, >GTX 660M OC<,  750Go. FS2297. Sony VAIO VGN-FE21H: 1er portable/secours. M15x: vendu.
Bureau: Asus 3xVE228H, Razer Mamba 4G, Leviathan et Sabertooth, Steelseries QcK, G430, G27, CM QuickFire TK, etc. "Consoles": OnePlus 2, Gear VR 2 + S6.


#3
toto63

toto63

    Geek diplomé

  • Membre
  • 2 874 messages
Bonjour,
Alors c'est une bonne idée pour gagner des FPS de gratter les fréquences du gpu. Pour cela il y a effectivement 3 valeurs mais fais attention, souvent la fréquence du core et des shaders est liée : exemple sur une 8400M GS fréquence shaders = 2 fois fréquence core, sur une GTX 260M fréquence shaders= 2,5 fois fréquence core. Si tu ne gardes pas (généralement), l'oc ne marche pas. La mémoire, il n'y a pas de lien. Pour bien faire un oc, il faut monter la fréquence du core et de la mémoire par paliers et faire tourner un logiciel comme occt ou furmark, un jeu (gourmand de préférence) et surtout vérifier les températures.

Bonne soirée.
  • 0

Desktop : HP Omen 870-025 nf, GTX 1080, i5 6400
Calcul distribué avec BOINC : 210 000 000 PTS (GPU GRID, World Community Grid)


#4
Xidus

Xidus

    Geek padawan

  • Membre
  • 3 271 messages
Ok, donc si je comprends bien, le mieux est de calculer le rapport shaders/core, et de l'augmenter proportionnellement pour garder un maximum de stabilité ?
Et ensuite, un fois le maximum des ces fréquences trouvées, augmenter la mémoire ?

Donc peu donc dire que le core se charge des calculs, la mémoire de transférer les données, et le shader alors ? :eyes2:

A+
Merci à vous deux.
  • 0
Macbook Pro 13" - OSx Lion - i5 2435M - 4 go DDR3 - DD 500 go

#5
akluin

akluin

    Pur esprit Geek

  • Membre
  • 8 004 messages
  • LocalisationA la croisée des chemins
les shaders gèrent les textures des objets.

Edit sur moi même : Citation : Wikipédia
Un shader est un programme utilisé en image de synthèse pour paramétrer une partie du processus de rendu réalisé par une carte graphique ou un moteur de rendu logiciel.

plus d'info là :

http://www.siteduzer...ux-shaders.html

Modifié par akluin, 25 juillet 2010 - 05:40.

  • 0
retour à l alienware m17x r2 full alu

#6
toto63

toto63

    Geek diplomé

  • Membre
  • 2 874 messages
Bonjour,
Spe2d : on peut faire comme tu le précise : d'abord s'occuper du maximum possible pour le core et les shaders et ensuite la mémoire.
Par contre, il arrive mais c'est rare qu'un oc rate à cause d'une alimentation trop faible.

Akluin : c'est plus compliqué que je le pensait, je croyais qu'on pouvait dire qu'un shader équivalait à un core comme sur un cpu. C'est une sorte de programme exécuté par le gpu, et le nombre de shaders correspond au nombre de programmes que le gpu peut faire tourner en même temps ?

Bonne journée.

Modifié par toto63, 25 juillet 2010 - 07:45.

  • 0

Desktop : HP Omen 870-025 nf, GTX 1080, i5 6400
Calcul distribué avec BOINC : 210 000 000 PTS (GPU GRID, World Community Grid)


#7
Arkh

Arkh

    Geek diplomé

  • Membre
  • 2 259 messages

je croyais qu'on pouvait dire qu'un shader équivalait à un core comme sur un cpu.

C'est presque le cas si on ne confond pas les unités de shading et les shaders. Les premiers sont effectivement des unités de calcul ressemblant à nos CPU. Alors que les second sont des programmes insérés dans le pipeline de rendu pour modifier à la fois la géométrie et le rendu du Frame Buffer (ie. les "couleurs à l'écran" et aussi d'autre information pratiques comme le "Depth Buffer" (permet de connaitre la distance d'un pixel à l'écran dans l'espace virtuel) ou le "Stencil Buffer" (gestion des ombres) ). Les shaders sont donc des programmes distribués et traités par les unités de shading.

Un même programme tourne sur plusieurs centaines de core, chacun traitant un "petit morceau d'écran ou de géométrie".

Ces unités diffèrent cependant de nos CPU à cause de leur architecture spécifique de mémoire cache et de mémoire partagée à travers un certain nombre de paquet de core (Warp). Aux niveaux des algorithmes hautement parallélisables, ils sont extrêmement performant (le rendement GFLOP sur puissance consommé est de l'ordre de cent fois supérieur à un processeur quad core). Cependant, inutile de penser qu'il remplaceront les CPU car ils sont incapable de traiter un algorithme non-parallélisé lourd aussi rapidement que les CPU.
  • 0

D900F : I7 950 (8x3.1Ghz) /// 6GB DDR3 1333MHz (3x2Go) /// GTX 280M (128CC/1GHz/1Go) /// 2x320GB 7200Trs/min /// WUXGA Non-Glare Screen 1920x1200 /// Razer Abyssus /// NC-2000 /// By PcSystems-EvolutionX /// Powered by Debian!

> Get Process Explorer


#8
FabM17x

FabM17x

    Touriste

  • Membre
  • 281 messages
  • LocalisationSavoie
Vu que çà parle Shader, j'ai une petite question: Pourquoi GPU-Z (dernière version) n'indique pas les Shader de mon crossfire de 4870, mais seulement pour la 9400M, c'est un problème GPU-Z/ATI ou les Shader n'existent pas chez ATI :P ?
  • 0

masignature2.jpg
1040-5.png


#9
Arkh

Arkh

    Geek diplomé

  • Membre
  • 2 259 messages
Si les cartes ATI ne pouvaient pas gérer les Shaders alors personne n'aurait d'ATI...
C'est, sans doute, un problème de CPU-Z...
  • 0

D900F : I7 950 (8x3.1Ghz) /// 6GB DDR3 1333MHz (3x2Go) /// GTX 280M (128CC/1GHz/1Go) /// 2x320GB 7200Trs/min /// WUXGA Non-Glare Screen 1920x1200 /// Razer Abyssus /// NC-2000 /// By PcSystems-EvolutionX /// Powered by Debian!

> Get Process Explorer


#10
Barnabe6_1_9

Barnabe6_1_9

    En attente de Visa

  • Membre
  • 55 messages
C'est vrai que sur les cartes ATI on ne voit pas la fréquence des shaders, seulement le core et la mémoire. Peut être que les shaders s'adaptent à la fréquence du core.
  • 0
GX640 => Intel Core i5 430m, Radeon 5850 full: 625/1000@0.95 Idle:100/100@0.65, DD 500GB 7200trs/m, DDR3@ 1033mhz

#11
akluin

akluin

    Pur esprit Geek

  • Membre
  • 8 004 messages
  • LocalisationA la croisée des chemins
Pour info ta ati gère les shaders 4.0 donc oui il y a les sm sur ta carte
  • 0
retour à l alienware m17x r2 full alu




0 utilisateur(s) li(sen)t ce sujet

0 membre(s), 0 invité(s), 0 utilisateur(s) anonyme(s)