Page 1 sur 1
Hardware.fr décortique le patch DirectX 11 de Crysis 2
Posté : 07 juil. 2011, 13:05
par nofrag
Comme à son habitude, Hardware.fr publie un article très détaillé sur le patch 1.9, le mode Ultra et les options DirectX 11 récemment ajoutés à Crysis 2.
Une fois n'est pas coutume, on y apprend que le patch a été développé avec l'aide de Nvidia, d'où la grosse différence de performance lorsqu'on utilise la tesselation. Histoire d'enfoncer le clou, la tesselation est souvent utilisée abusivement, peut-être pour plomber encore plus les benchmarks sur les cartes ATI :
Impact des options Ultra sur les performances
Lire toute la news sur Nofrag.com...
Posté : 07 juil. 2011, 13:39
par golan4x
Apparemment la géométrie de la mer est appliquée sans texture à la fin du rendu. Comme pour plomber le score des cartes AMD.
Posté : 07 juil. 2011, 14:47
par Da_FaNaTiK
C'est un peu lassant ce genre de choses, bientôt on aura des jeux "Nvidia Only" ou "AMD Only" ?
C'est trop compliqué de développer pour 2 types de hardware ou c'est Nvidia qui arrose gentiment les devs à coup de $$$ ?
Posté : 07 juil. 2011, 14:51
par drloser
Ils les arrosent à coup de main d’œuvre : ils envoient des ingénieurs pour les aider à développer et à optimiser le moteur.
Posté : 07 juil. 2011, 14:54
par Netsabes
Pas que : quand t'es dans un programme genre nvidia, t'as accès à des centaines de PC de test différents, ce qui permet de débugger mieux/plus rapidement (et pour beaucoup moins cher, évidemment).
Posté : 07 juil. 2011, 16:17
par odetagowo
J'ai lu ça hier, je trouve ça très limite de la part de Nvidia/crytek. Une utilisation abusive d'un système pas complétement au point et qui bouffe autant de ressource. Si il commence à faire pareil chez ATI, On va devoir acheter 2 cartes graphiques ?
Posté : 07 juil. 2011, 16:34
par fly-diz
Du temps de Crysis premier du nom les carte Nvidia étaient déjà bien avantagées jusqu’à la sortit des HD4800 d'AMD l'année d'après. Ils refont le même coups.
Posté : 07 juil. 2011, 17:23
par Pxel
Je compte ajouter une deuxième HD6870 pour faire un CFX pour BF3, donc autant que ça serve pour Crysis 2, j'aimerai bien voir c'que ça donne avec la tesselation sur Crysis 2.
Posté : 07 juil. 2011, 18:34
par BunnyToon
Da_FaNaTiK a dit :
C'est un peu lassant ce genre de choses, bientôt on aura des jeux "Nvidia Only" ou "AMD Only" ?
Rien de nouveau dans cette pratique, malheureusement. En 2004, Half-Life 2 tournait mieux sur ATI que sur NVIDIA, alors que les GeForce avaient largement l'avantage dans Unreal Tournament 2004. Dans leurs communiqués, les développeurs insistaient bien sur cet état de fait.
Posté : 07 juil. 2011, 18:58
par yeager
Faut quand même faire une nuance que l'article de hardware.fr ne fait pas.
Ati et Nvidia se battent sur la tessalisation et plus exactement sur la manière de l'implémenter dans les jeux. Derrière cela, il y a un choix d'architecture matériel diffèrent entre les deux constructeurs. Nvidia a comme d'habitude privilégié la brute force et cela ne lui pose quasiment pas de problème de traiter des hauts niveaux de tessalisations (et donc les niveaux inferieurs aussi). Ati, comme a son habitude, a préférer optimiser un max les calculs et a décidé qu'ils faillaient optimiser seulement la tessalisation moyenne. La lourde étant pas souvent nécessaire à leur yeux.
La résultante étant que les jeux utilisant des hauts levels de tessalisations tournent mieux sous Nvidia.
La question étant : est-ce que ces hauts levels sont obligatoires ? Amd dit que non, Nvidia dit que c'est pas a eux de le dire mais aux devs des jeux. Et que leur job a eux, c'est de donner une carte qui répondent a tous les besoins et pas seulement a certains.
Posté : 07 juil. 2011, 19:26
par fafalecureuil
C'est quand même autre chose qu'un jeu optimisé pour une marque.
C'est un jeu qui plombe les perfs du concurrent exprès.
cf: la bordure de chemin et l'océan invisible.
Posté : 07 juil. 2011, 20:33
par yeager
L'ocean invisible cela a toujours ete le cas pour les jeux crytek depuis far cry. Quand on regarde un niveau de far cry ou crysis, on voit que l'ocean passe en dessous des terres. C'est le cas de pas mal de moteur. La ca fait mal parce qu'ils tessalisent l'ocean.
La bordure de chemin est sans doute une mauvaise application du a une simplification du travail mais comme je l'explique plutot : le probleme vient pas de la mais bien du fait que Nvidia et Ati sont pas d'accord sur comment leur carte doivent gerer la tessalisation. Nvidia laisse le choix aux devs, Ati non. Si sur leur prochaine generation, ATI corrige ce defaut d'architecture de leur carte, on les entendra plus raler sur la tessalisation haut level.
Posté : 07 juil. 2011, 20:39
par PanzerIV
Wow c'est vraiment scandaleux, c'est clair qu'ils ont du faire exprès mais dire qu'ils ont crus que personnes ne s'en rendra compte.. même pas 1 mois plus tard ils sont déjà démasqué. Au moins j'ai une carte Nvidia mais pareil je désapprouve vraiment cette pratique.
Posté : 07 juil. 2011, 20:59
par LeGreg
blackeagle988 a dit :
Crytek, ils ont toujours été pro-Intel et pro-Nvidia.
Ce qui explique le patch pour FarCry estampillé AMD64, ou encore la démo TheProjekt sponsorisée par ATI.
Posté : 07 juil. 2011, 23:55
par 7thWave
Effectivement, avec une 5870 câblée en PCI-Express 8x 2.0 (et malgré mon char d'assaut derrière), je perds 50% de performances en passant de extreme à ultra, pour une différence visuelle beaucoup moins quantifiable:
http://forum.nofrag.com/forums/threads_ ... cs/3884/92
C'est surtout le syndrome ATI, hélas. Pourtant avec un GPU à plus de deux milliards de transistors, il y aurait de quoi faire.
Posté : 08 juil. 2011, 00:33
par Choum
coconut a dit :
C'est d'autant plus triste que c'est ATI qui avait utilisé la tesselation en premier il me semble, à l'époque ils appelaient ça Dx10.1.
Il appelait ça le Truform et c'est la radeon 8500 qui avait cette fonction.
Dommage qu'il ne teste pas le sli/crossfire dans leur bench.