PhysX : AMD et Nvidia s'envoient des fleurs
Ayant une carte ATI je coupait toujours le physX sans me poser de question, mais avec l'openCL ca pourrait donc changer (je n'ai pas du tout suivit ces histoires ^^)
Faudrait rajouter des propositions sur le sondage :
- Je préfère un jeu qui utilise PhysX (j'ai une carte ATI)
- Je préfère un jeu qui n'utilise pas PhysX parce que j'ai une carte ATI
- Je préfère un jeu qui n'utilise pas PhysX bien que j'ai une carte nVidia
- Je préfère un jeu qui utilise PhysX (j'ai une carte ATI)
- Je préfère un jeu qui n'utilise pas PhysX parce que j'ai une carte ATI
- Je préfère un jeu qui n'utilise pas PhysX bien que j'ai une carte nVidia
Pour physicX ca changera que si Nvidia abandonne Cuda et passe sur OpenCL.Kurdy a dit :
Ayant une carte ATI je coupait toujours le physX sans me poser de question, mais avec l'openCL ca pourrait donc changer (je n'ai pas du tout suivit ces histoires ^^)
Pour les autres moteurs, OpenCL leur permettra l'acceleration GPU sur toutes les cartes. Tout comme ils avaient acces a cette dernier sur les Nvidia via Cuda.
Faut pas trop rever pour Hawok vu que c'est propriete de Intel et que Intel a sa propre techno a mettre en avant a ce niveau la.
Le Glide de 3dfx non plutôt? :)nofrag a dit :
Ils ajoutent que PhysX est une solution propriétaire qui finira comme le Glide de Voodoo.
J'ai viré les messages hors sujet.
Je veux bien croire que c'est de la fainéantise, mais j'aimerais savoir si c'est un choix réel ou plutot un gadget chiant qu'on impose aux dévs au dernier moment. Dans le cas Mirror's Edge, est-ce que vous pensez vraiment que Dice a choisi d'utiliser PhysX pour trois pauvres effets ? Dans le cas contraire, on peut comprendre leur "fainéantise".Le probleme pour nous est que Ati ne fait pas la meme chose (ils en ont pas les moyens et/ou ne veulent pas le faire). Resultat si le jeu est fait par autre chose qu'une bande de faigneant, le jeu tournera bien meme avec les carte Ati. La partie soft de PhysicX ayant bien ete optimise. Dans le cas contraire ...
Et par la suite, pourquoi y'a eu autant de com' pour ces trois pauvres effets ?
Le PhysX consomme enormément de ressource. Dans des condition de AA égale, sur une Nvidia le pysX consomme preque 50% de ressource. Même avec une GTX275 on est limite.... gloups !
Test Batman en 1650*1050 chez revioo

Test Batman en 1650*1050 chez revioo

Eh oui, le rachat d'AGEIA pour "profiter de PhysX avec son unique carte graphique" c'était du pipeau. Au final il faut toujours 2 cartes pour en profiter, sauf que maintenant, ce n'est plus compatible avec ATI (contrairement aux anciennes cartes AGEIA, qui en plus coutaient beaucoup moins cher pour le même résultat)
Le pire, c'est que c'est simplement les drivers qui l'empêche. J'ai lu qu'avec une bidouilles des drivers geforce on pouvais se faire assister avec une ati pour la physx. Mais de base l'accélération physx se désactive pour la seconde à partir du moment ou il y a une ATI dans la configuration. Ça date un peu comment info, c'est toujours le cas ?LaCanaille a dit :
Eh oui, le rachat d'AGEIA pour "profiter de PhysX avec son unique carte graphique" c'était du pipeau. Au final il faut toujours 2 cartes pour en profiter, sauf que maintenant, ce n'est plus compatible avec ATI (contrairement aux anciennes cartes AGEIA, qui en plus coutaient beaucoup moins cher pour le même résultat)
Si on a une carte ATI en affichage principal on ne peut plus activer le support du physx sur une carte nvidia secondaire. Pour recycler une 8800 par exemple.Froyok a dit :
Le pire, c'est que c'est simplement les drivers qui l'empêche. J'ai lu qu'avec une bidouilles des drivers geforce on pouvais se faire assister avec une ati pour la physx. Mais de base l'accélération physx se désactive pour la seconde à partir du moment ou il y a une ATI dans la configuration. Ça date un peu comment info, c'est toujours le cas ?
On peut utiliser un hack mais il ne fonctionne pas avec la dernière version du driver.
Ils ont aussi désactivé le support physx sur les cartes inférieures aux 9500. Avant on pouvait utiliser une 9400 par exemple, plus maintenant.
En résumé, plus le temps passe, plus nvidia fait sa grosse pute.
C'est sans doute un choix reel mais motive par les financiers et non les developpeurs. Le fait d'avoir une aide gratuite ou presque permet d'économiser sur l'emploi de personnes chargées de faire cela.Arnault a dit :Je veux bien croire que c'est de la fainéantise, mais j'aimerais savoir si c'est un choix réel ou plutot un gadget chiant qu'on impose aux dévs au dernier moment. Dans le cas Mirror's Edge, est-ce que vous pensez vraiment que Dice a choisi d'utiliser PhysX pour trois pauvres effets ? Dans le cas contraire, on peut comprendre leur "fainéantise".Le probleme pour nous est que Ati ne fait pas la meme chose (ils en ont pas les moyens et/ou ne veulent pas le faire). Resultat si le jeu est fait par autre chose qu'une bande de faigneant, le jeu tournera bien meme avec les carte Ati. La partie soft de PhysicX ayant bien ete optimise. Dans le cas contraire ...
Et par la suite, pourquoi y'a eu autant de com' pour ces trois pauvres effets ?
Apres le moteur physiques PhysiX ou Hawok, c'est kif kif bouricot niveau CPU. C'est les a cotes qui font la difference.