Aller au contenu

Change
Photo

Politique Nvidia?


  • Veuillez vous connecter pour répondre
9 réponses à ce sujet

#1
solitaire

solitaire

    NoLife P4G

  • Membre
  • 28 463 messages
  • LocalisationBordeaux
Salut à tous, je voudrais votre avis sur la politique de Nvidia pour les GPU mobiles.

Je suis un peu perdu car ils sortent des GPU comme GTX 480M, 470M ou 485M qui ne sont pas intégré dans les portables du commerces car ils demandent une alimentation de folie.

Il y a que Clevo qui intègre ces cartes dans leurs portables pour l'instant car on dirai que Alienware à une dent avec nvidia pour ces GPU.

Donc la seul GPU que les portables disposent à l'heure actuel est la GTX460M.

Je voudrais votre avis sur le sujet.

Pour ma part, cela provient d'un manque travail en commun entre Nvidia et les constructeurs de portables, un manque d'envie de fabriquer une alimentation suffisamment puissante.
  • 0

Ex P4G: M980nu (x9100 +sli gtx280m), M15x(720qm +gtx260m), Macbook Air 11"
P4G actuels: M17xR3 2820qm + 6970m

T4G: I7 4770 et gtx 970 AMP Edition.


#2
LeNerevarine

LeNerevarine

    Grand Geek

  • Membre
  • 861 messages
  • Localisationa Ald'Ruhn, Vvardenfell
Je pense comme toi, mais aussi que l'architecture utilisée actuellement par NV, sur desktop comme sur P4G, demande une grosse puissance. Pour une tour gamer, ça ne pose as beaucoup de problème, mais pour un portable, c'est très limitant. NVidia, sur les cartes haut de gamme, vend bien plus en fixe qu'en portable, donc pour eux, il doit être plus intéressant de développer la puissance brute de leurs cartes au détriment de leur consommation. Ati, au contraire, mise plus sur le rapport puissance/prix/consommation, donc les variantes mobiles sont plus adaptées aux P4G.
Voila ce que je pense sur la question.
  • 0
Image IPB
Image IPB

#3
Guest_Plouffy_*

Guest_Plouffy_*
  • Visiteurs
Le marché des portables gamers les intéressent peut être pas tant que cela.. donc ils sont pas " à fond dedans" ^^

A mon avis c'est plus la flemme qu'autre chose, pour eux c'est peut être pas une niche assez rentable alors il préfère le desktop
  • 0

#4
solitaire

solitaire

    NoLife P4G

  • Membre
  • 28 463 messages
  • LocalisationBordeaux
Ils sont peut être aussi anti portable.
  • 0

Ex P4G: M980nu (x9100 +sli gtx280m), M15x(720qm +gtx260m), Macbook Air 11"
P4G actuels: M17xR3 2820qm + 6970m

T4G: I7 4770 et gtx 970 AMP Edition.


#5
ilyon

ilyon

    Rédacteur

  • Redacteur
  • 1 862 messages
  • LocalisationA.K.A Anthony
Pas rentable !

Vu le nombre de fanboys qui bavent d'impatience pour un SLi de 485M à 1600 € au bas mot juste le dual-GPU, je ne m'inquiète pas plus que ça.

Non, le problème est bien FERMI, cette archi est trop orientée "Pro", pas assez "Gamer". Ils s'en mordent les doigts aujourd'hui avec le nombre important de refresh de leur archi qu'ils sont obligés de sortir.

Pendant qu'AMD use la même archi depuis quasiment 5 générations (HD2xxx, etc ...). Je m'entends, des améliorations conséquentes ont été apportées. Ils connaitront surement d'autres problemes quand ils sortiront eux-aussi une archi toute nouvelle.

Modifié par ilyon, 17 janvier 2011 - 20:20.

  • 0
Image IPB

#6
akluin

akluin

    Pur esprit Geek

  • Membre
  • 8 004 messages
  • LocalisationA la croisée des chemins
ou peut etre ques les limitation techniques du pci-e 2.0 ne leur permettent pas de faire ce qu'ils veulent mais avec le pci-e 3.0 ça va changer.
  • 0
retour à l alienware m17x r2 full alu

#7
Arkh

Arkh

    Geek diplomé

  • Membre
  • 2 259 messages
Personnellement, je pense qu'ils essaient de tirer leur architecture vers "autre chose", notamment en la pensant pour qu'elle développe non plus de puissance "graphique" mais de la puissance tout court... notamment pour l'édition (vidéo, images, etc.) mais aussi pour les calculs en cloud (et donc, un partage de technologie avec des cartes Tesla, pour limiter les coûts?).

Bref, graphiquement, on demande à un GPU d'avoir les points suivants :
De la mémoire (pour les textures)
Des cores, pour les fragment shaders, comprenez des programmes qui modifient les pixels en destination du buffer (parfois, = l'écran).
Des cores rapides pour les shaders (donc leur fréquences quand vous OC).
Du débit CPU => GPU (2.5Go/s sur ma GTX280m, c'est déjà pas mal...)
Du débit GPU => GPU (pour le remplissage des buffers et la vitesse de maintiens des shaders : env. 48Go/s)

Un petit point aussi sur ce que traite le GPU : ce qui est le plus lourd pour lui, ce n'est pas la géométrie mais bien les textures...

Sur ce plan, AMD/ATI s'en sort très bien (regardez leur nombre de cores par carte comparé à NVidia, vous comprendrez pourquoi...).

Par contre, là où est NVidia est extrêmement performant c'est dans la puissance de calcul pour les pros, avec par exemple des cartes de traitement des flux vidéos, la gestion de quad-buffers sur les Quadro, mais surtout CUDA, qui soyons honnête est loin devant toutes les autres API concurrentes (OpenCL, puis ATI stream, puis CG...). Le gros point fort c'est que vous pouvez coder facilement pour votre GPU et exploiter toute sa puissance, qui, ramenée au prix du KW/h, donne un rendement bien supérieur à n'importe quel CPU pour peu que le code se laisse paralléliser tranquilement...

Bref, NVidia ne fait plus seulement des cartes graphiques mais bel et bien des centres de calculs intégré et à moindre coût, c'est se qu'il est différencie de ATI.

Autre point, NVidia mise beaucoup ces temps-ci sur l'embarqué alors qu'ATI... pas du tout!
ça peut expliquer les différences de résultat aux benchs dans les domaines réservés aux "gamers"
  • 0

D900F : I7 950 (8x3.1Ghz) /// 6GB DDR3 1333MHz (3x2Go) /// GTX 280M (128CC/1GHz/1Go) /// 2x320GB 7200Trs/min /// WUXGA Non-Glare Screen 1920x1200 /// Razer Abyssus /// NC-2000 /// By PcSystems-EvolutionX /// Powered by Debian!

> Get Process Explorer


#8
toto63

toto63

    Geek diplomé

  • Membre
  • 2 874 messages
Bonsoir,
Sans mon point de vue sera génral mais bon.
Je rattacherai cette politique à des raisons de couts.
1) Je pense que Nvidia concentre ses recherches et développements sur les gpu pour desktop pour ce qui est des hauts de gammes car la plupart des gamers et amateurs de puissance brute se tournent vers une solution fixe.
2) Pour un pc de bureau, la consommation danc la puissance thermique rejetée n'est pas un critère fondamental car on trouve des solutions double slot sur toutes les gpu hauts de gamme et maintenant asus fait du triple slot sur la 470. Donc on arrive à des cartes consommant près de 300 W à elles seules.
3) Pour ce qui est du marché mobile, sur le très haut de gamme (gtx 460M et plus), déjà, ces gpu représentent une infime partie des ventes. Donc Nvidia doit chercher à réduire les couts de fabrication de ces cartes et de développement.
4) Donc pour répondre à ces critères, c'est reprendre des pgu de desktop existants et pour "passer dans des limites raisonnables de TDP" baisser la fréquence et arrêter quelques shaders.
5) On se retrouve avec des gpu mobiles dérivés de desktops mais au regard des performances, c'est sur, les 580 desktop laminent les mobiles (environ 45% de moins pour la 480M vs 480). Mais sur les portables, la dissipation thermique doit être limitée.
6) Mais alors, on peut penser que Nvidia se dit que 100 W doit être une limite (déjà haute). Mais comment faire consommer seulement 100 W à un gpu qui en demande 300 W ? => Gros bridage des fréquences + shaders en moins. Mais si possible, pour des raisons coûts, limiter seulement les fréquences est la solution la plus "rentable" car une même chaîne produira un gpu desktop à des fréquences X et un mobile à fréquence Y avec X < Y mais en process frabrication, c'est exactement les mêmes.
7) Mais maitenant apparaît une autre limite : à trop vouloir limiter le TDP, on risque de se retrouver avec un gpu mobile trop faible alors les TDp des gpu mobiles hauts de gammes sont élévés au regard des gpu mobiles pour "Mr tout le monde".
8) Maitenant, plaçons nous du coté des frabricants de pc : pour du gammer, les frnacants conventionnels (HP, Toshiba...) ne veulent pas réinvestir des sommes astronomiques sur des études, nouveaux moules... pour finalement toucher qu'une infime partie des potentiels acheteurs. Dans seuls des marques ciblées exclusivements gamers et qui se disnet : on fait un pc gamer ET AVEC BUDGET PRESQUE NO LIMIT donc si on veut voir les gpu mobiles hauts de gammes employés, il faut payer cher.
Exemple : Toshiba propose des X500 avec 460M mais hormis les coouleurs, le chassis est le même pour le P300, un 18,4 nettement moins puissant, et en plus avec le même reffrroidissement, la 330 M du P300 est reffoidit comme sur le x500, avec sont propre ventilateur.
X500 => gamers, peu d'acheteurs
P300 => grand public
Même châssis = économies.
Mais le châssis a montré ses limites puisque la GTX460M est la plus puissante proposée sur le X500.
9) limites techniques liées au dimensionnement des radiateurs puisque qu'il faut tout caser dans le portable sans en faire un parpaing de 15 kg.

Bonne soirée.
  • 0

Desktop : HP Omen 870-025 nf, GTX 1080, i5 6400
Calcul distribué avec BOINC : 210 000 000 PTS (GPU GRID, World Community Grid)


#9
Eurny666

Eurny666

    Geek confirmé

  • Membre
  • 1 042 messages
Salut tout le monde!

Pour se faire une idée il faudrait aussi avoir des chiffres sur les ventes de P4G contre les ventes de PC portables tout court.
  • 0

- Alienware m17x R2 Stealth Black + 17" WXGA + 1x 4go DDR3 1333Mhz Gskill + 1x 2go Samsung + i7 840qm @1,96Ghz + CrossfireX 2x HD5870 @ 900/1200 (13.2) + Raid 0 2x Scorpio Black 500go 7200rpm + Wifi intel 6300
=> 3Dmark06 = 20398pts => 3Dmark11 = P4877

http://www.3dmark.com/3dm11/6913330

- Clevo W230ST + 13,3" FullHD + 2x 4go DDR3 1600Mhz Gskill SK + i7 4700MQ + SSD 120Go Crucial M500 + 1To 5400rpm + GTX765m + Intel N6235


#10
Botsu

Botsu

    Petit Geek

  • Membre
  • 641 messages
J'en pense que la GTX 460M est une bonne carte graphique mobile, pas loin de la limite de ce qui peut être fait en gardant un TDP raisonnable avec le 40nm, et c'est d'ailleurs la seule qu'on retrouve dans un grand nombre de laptops à un prix raisonnable (maintenant en tout cas). Les GTX 485M & co sont vendues à des prix délirants parce que ce sont des puces triées sur le volet (power-gating etc) selon des critères sévères, en gardant à l'esprit que leur consommation est déjà énorme.

Attendez de voir la consommation de la GTX 560, et imaginez ensuite qu'ils ont du faire rentrer ça dans un TDP annoncé de 100W rien qu'en jouant sur les fréquences : je pense qu'elles coûtent très chèr à produire et sont surtout là pour satisfaire un petit nombre de passionnés d'où le prix.

Globalement je n'aime pas la politique de prix de nvidia ni sur desktop ni sur laptop. J'ai l'impression qu'ils cherchent toujours à tirer un max en attendant d'être véritablement dos au mur pour vendre à un prix raisonnable (sous le poids de la concurrence). Of course AMD fait la même chose mais on sent une certaine retenue devant la décision de vendre une carte monopuce 500€ sous prétexte qu'elle est la plus puissante du marché, rien de tout ça chez nvidia.

Modifié par Botsu, 24 janvier 2011 - 01:20.

  • 0




0 utilisateur(s) li(sen)t ce sujet

0 membre(s), 0 invité(s), 0 utilisateur(s) anonyme(s)