Bericht Vorschau: ATi Radeon HD 5850

Status
Für weitere Antworten geschlossen.
Das was du mit PPU und Cuda trennst ist ein und die selbe Geschichte, denn das was auf der Grafikkarte berechnet wird ist auch das was auf den alten PPU Zusatzkarten berechnet wird.
Da es aber um die Hardwarebeschleunigte Variante geht kann man es auch durchaus als "Hardware PhysX" bezeichnen oder wie würdest du es von der Variante unterscheiden die durch den Hauptprozessor berechnet wird?
Langsam wird es echt absurd, zumal die

Was du aber nachwirvor nicht verstanden hast ist das es nicht darum geht PhysX durch einen ATI Karte berechnen zu lassen, sondern um die PhysX Berechnung auf einer Nvidia Grafikkarte.

Warum sollte nVidia das plötzlich per openCL zulassen, wenn bereits heute treiberseitig der nVidia Grafikkarte dei PhysX Berechnung verboten wird, sobald das Bild von einer zusätzlichen Grafikkarte eines anderen herstellers ausgegeben wird?
genau das funktionierte ja offenbar bis zu einer bestimmten Treiberversion.
 
Warum sollte Hans Wurst den Wirt nicht erschlagen, um an die Kasse zu kommen, wenn er die Möglichkeit dazu haben wird? Also ist Hans Wurst ein Mörder!

Und wenns nicht darum geht, PhysX auf ATI-Karten zu berechnen, worüber regt ihr euch dann eigentlich auf?
 
Zuletzt bearbeitet:
@ wadenbeißer

Gleicher Vorschlag zurück - deine (Nicht-) Antwort auf meine Frage ist auch irgendwie bezeichnend.
 
Frage 1 war Blödsinn und Frage 2 + dein vorheriges Posting zeigen das du nicht lesen/verstehen willst worum es bei der Nebendiskussion ging...worauf soll ich dann noch antworten?

Somit ist Diskussion, weil sinnlos, für mich erledigt
 
Nö, du verstehst nur nicht, dass dein Absatz: "Das Hardware PhysX setzt eine Grafikkarte mit passenden nVidia Chip vorraus, da es mittels cuda die Berechnungen darauf ausführt. All das ist ja gegeben aber es wird künstlich ausgesperrt sobald das Bild auf einer Grafikkarte eines anderen Herstellers ausgegeben wird und nur die Physikberechnung auf der nvidia Karte durchgeführt wird.
ATIs Stream hat damit rein garnichts zu tuen."
Vollkommen absurd ist. Du hast doch eindeutig den Vorwurf erhoben, ATI-GPUs würden "künstlich ausgesperrt", was vollkommener Quatsch ist, denn wenn ich ein Programm für Linux mit Libs schreibe, die es auf Windows und Mac nicht gibt und dieses dann nicht auf OS X oder Windows läuft, sperre ich diese Systeme eben nicht künstlich aus, sondern spare mir schlicht das Programm dreimal zu schreiben. Hast du mal darüber nachgedacht, warum sich die hersteller auf einen gemeinsamen Standard mit OpenCL einigen?
 
du blickst es einfach nicht, oder?! ich glaub dir muss man es wirklich mit harten worten beibringen.

nvidia verhindert seit einigen treiberversionen, dass man neben einer ati/amd-karte zur grafikausgabe, eine nvidia-karte zu nutzung von physx nutzt. bis vor wenigen revisionen war das noch ohne probleme möglich. nun ist es so, dass sobald ein aktiver ati-treiber gefunden wird physx in den einstellungen der zusätzlich verbauten nvidia-karte nicht mehr aktivierbar ist. nvidia sperrt also nicht einfach ati-karten aus, sondern seine eigene hardware bei verwendung von ati-hardware zur grafikausgabe. nebenbei muss die ati-karte nicht mal zur grafikausgabe genutzt werden. es reicht wie gesagt wenn ein ati-gerät aktiv ist. sprich nutzt jemand eine ati-karte oder onboard-lösung zum anschluss eines 3ten monitors/beamers/whatever und eine nvidia-karte zum gaming, dann kann dieser nutzer kein hardware-physx nutzen. will er dies tun, dann muss er die ati-karte im gerätemanager deaktiviert.

es geht nicht um stream, physx auf amd-hardware oder sonst was. es geht schlicht und ergreifend darum, dass nvidia seine eigenen kunden verarscht. denn um obiges szenario überhaupt gangbar zu machen, muss sich der geneigte kunde eine nvidia-karte zu seiner ati-karte kaufen. tut er dies kann er sie für den vorgesehenen zweck allerdings nicht nutzen, da nvidia sein system willentlich aussperrt.

ich hoffe du hast es jetzt endlich verstanden. langsam gehst du uns nämlich auf die nerven.
 
Zuletzt bearbeitet:
Ich hoiffe doch, dass ihr auch mal das Thema des threads im Kopf behaltet, dann habt ihr vielleicht irgendwann mal weniger Probleme damit, warum ich eure Beiträge auf das Thema beziehe und das steht nunmal die Beschwerde der ganzen ATI-Fans darüber, dass in einem Einzelkartentest ATI-Karten in Cryostasis so schlecht abschneiden und von ATI-fans deswegen gefordert wird, Tests mit PhysX-Spielen auszuschließen.

Wenn ich eure Beiträge nicht mit dem Thema in Verbindung gebracht hätte, hätte ich euch ja wegen Off Topic anzeigen müssen...
 
Nimand ist hier ATI Fan. Zumindest ich nicht. Die Fanboy Unterstellen regen mich echt schon schwer auf.
Es ist fakt, dass dieser Test nich ganz der Performance der Karte entspricht.
Alleineeine HD4890 liegt 15% hinter einer GTX275 overall.
Nomalerweise dürfte das der Abstand zur GTX285 sein.-.-

@ Mount Walker: Hör auf zu trollen. Du weißt genau was Screemer meint. Und genau darauf bist du nicht eingegangen sondern hast irgend nen Senf geschrieben, habs mir ja jetzt mal durchgelesen.

Was macht es für einen Sinn etwas auf einer Karte zu testen, dass die Karte nicht kann, wenn es zudemkein Standard ist.?
Okay Jeder Hersteller will sein Produkt irgendwie auch in den benchmarks haben. Auch ATI, man siehe directx 10.1
Deswegen wiegt man hier Battleforge gegen Cryostasis auf.
Ach Hawx gibts ja auch noch, aber das läuft auf HD Karten viel langsamer. Mir hat der alte Testparcour viel besser gefallen.
Viel ausgewogener.
Bitte ändert das, auch wenn euch die Hersteller im Nacken sitzen.
 
Zuletzt bearbeitet:
@MountWalker
Kein Problem...man hätte Cryostasis ohne zusätzliche Einschränkungen testen und somit eine annähernde Vergleichbarkeit zu den nv Geschossen herstellen können.
Und schon schließt sich der Kreis zum simulierten 5850 Test und einer Diskussion zur Testzusammenstellung im Bezug zum von dir angesprochenen "Anti-PhysX-Bashing".
 
ich kann mir jetzt nicht verkneifen: meine güte gibt es deppen auf der welt...

netiquette wird bei mir eigentlich großgeschrieben, aber das hätte ich dir auch gerne persönlich gesagt.

Schaffe89 schrieb:
Was macht es für einen Sinn etwas auf einer Karte zu testen, dass die Karte nicht kann, wenn es zudemkein Standard ist.?
wenn man es richtig machen möchte, dann sollte in zukünftigen tests battleforge mit dx11 bei ati gegen dx10 bei nvidia antreten. der eine kanns der andere nicht. bei nochmaligem leistungsgewinn von 20-30% will ich mal sehen wie die nvidia-fanboys rumheulen. mir ist es im übrigen völlig wurscht ob cryostasis im cb-benchmarkparcours enthalten ist oder nicht. ich schau mir die einzelltests an und entscheide für mich und nach meiner persönlichen meinung über sinn und unsinn.
 
Zuletzt bearbeitet:
Screemer schrieb:
mir ist es im übrigen völlig wurscht ob cryostasis im cb-benchmarkparcours enthalten ist oder nicht. ich schau mir die einzelltests an und entscheide für mich und nach meiner persönlichen meinung über sinn und unsinn.

Da gehts mir ähnlich, weshalb mir der Test im grossen und ganzen auch gefallen hatte. :daumen:
Ich bin schon auf einen Test der echten 5850 gespannt, vor allem im Vergleich zu diesem hier. :cool_alt:
 
wird sich wohl nicht viel ändern. volker meinte ja schon, dass sie sehr sehr nahe an ihren jetzigen ergebnissen dran waren. freu mich schon auf morgen und bin gespannt.
 
Das wirklich interessante wird dabei der Strombedarf und das Kühlsystem sein.
Was mich persönlich aber noch interessiert ist wie sich die höhere ROP Leistung der richtigen 5850 in den einzelnen Spielen auswirkt...wann hat man schonmal die Möglichkeit zu einem direkten Vergleich? :)
 
und mich interessiert, wie taktfreudig die 5850er werden. sprich verbauter speicher und oc potential der gpu.
 
meiner Meinung nach ein völlig überflüssiger Test den das hier ist irrelevant solange man nicht die Echte 5850 testet:grr:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben