Test Test: Gainward GeForce GT 240 mit DDR3

Unyu schrieb:
1. Dann muss ich mich wohl ebenfalls wiederholen.
Nvidia ist kein Spieleentwickler. Beschwer dich bei denen.
Die Ausnahme ist Batman, da läufts eben wie es üblich ist, bei neuen Effekten, man nimmt soviel davon das es auch ein Blinder erkennt.

Sinnfrei bleibt es, Batman mit PhysX im Allgemeinen gleichzusetzten.

2. Und wo ist das Problem?
Sollte AMDs Radeon durch die Abfrage im Vergleich zum geplannten Auslieferungszustand Leistung verlieren, so ist das zu kritisieren.
Wenn nicht, dann ist alles in Ordnung.

3. Ich bezog mich auf G80 und D3D10.1 und dabei bleibt es.

4. Du bist der, der gerne viele verschiedene Beiträge zerpflückst. Da sollte man erwarten das du auch weisst wovon du schreibst.
Du hast übrigens etwas behauptet, wer Schuld sei, ohne Beweis.

5. Ich sehe, du willst das EOD.
Gut. Übrigens, bei deiner Signatur erinnerst du mich an nagus. Ist das gewollt?


1. Batman ist eben keine Ausnahme.

Ausserdem geht es nicht um PhysX im Allgemeinen, sondern um GPU PhysX.
Und da tut sich bei den anderen Beispielen wie Sacred 2 oder Dark Void auch nicht viel. Mirrors Edge ist wohl einer der wenigen, wenn nicht der einzige erwähnenswerte Titel (und es gibt ja sowieso nur 12) wo man wirklich behaupten kann, PhysX tut das, was die Grundidee dahinter ist.
Selbst bei Cryostasis kann man PhysX in die Tonne hauen.

GPU PhysX ist und bleibt eine überbewertete Demo Technik.

2. Eben das tut diese Änderung ja,
• Eine Device-ID-Abfrage im Code verhindert, dass Antialiasing-Resolve auf Ati-Radeon-Karten durchgeführt wird, nicht jedoch, und das ist das brisante, dass die für den Antialiasing-Code benötigen Z-Buffer-Schreibzugriffe erfolgen. Somit wird Leistung sinnlos verbraten.
obwohl ich es schon bedenklich genug finde, das ein GPU Hersteller, die Konkurenz, mit eigenem Code in Spielen rumwurschtelt, um sie auf IHRE Produkte zu optimieren.


3. Keine Ahnung was du mir damit sagen willst, der G80 unterstützt kein DirectX 10.1, aber hauptsache du weisst wovon du redest (was ich oft bezweifel).

4. Du lenkst schon wieder ab. Gib mir Quellen über minderwertige Raucheffekte oder "und so", oder hast du keine?

5. Das EOD ist schon dadurch eingeleutet, das du immer nur behauptest, aber nie belege dafür lieferst. Du kommst in Threads rein, kackst Großkotzig deine 2-3 Sätze hin, nach der Art "Fresst oder sterbt", aber bleibst den Beweis wie so oft schuldig.

Was meine Signatur damit zu tun haben soll versteh ich nicht, bei anderen ist es doch auch immer egal, ob sie ATI oder Nvidia Avatare haben. Warum darf ich nicht lustigen Vidoes auf da rein packen? Ich find sie nunmal witzig.

Oder ist etwa das tragische, das man ähnliches nicht über ATI verzapfen könnte, weil man nichts hätte woran man anspringen kann?
Ergänzung ()

Unyu schrieb:

Uiuiui, Unyu liefert Quellen nach - nicht schlecht, danke dafür.
Der erste Link ist im Inhalt das Statement von UBI Soft zu dem Thema, das man über all lesen tut. Angeblich gäbe es einen Fehler in der Renering Pipeline, weshalb das Feature deaktiviert und nicht gefixt wird .. warum sie kein Interesse daran haben, liegt ja sehr nahe ;)

Diese Quelle ist also nichts neues.

Die zweite Quelle hingegen ist mir sehr wohl neu, danach habe ich lange gesucht.
Nur leider Unterstützt sie wohl weniger deine Aussage, ich weiss ja nicht ob du das auch gelesen hast.
Ich zitiere mal ein paar Stichproben aus dem Fazit;

- we do have that missing dust that qualifies for that category, albeit we don't know yet if it's simply a driver bug or something wrong with the pathway itself
- there's the more intense lighting, but that actually seems to show that there's a bug with the DX10 pathway
- the dust-bug affects only a few scenarios
we've determined that the performance benefits associated with 10.1 remain: it wasn't a case of the missing effect causing the performance improvements.
- you can safely enjoy running your game through the DX10.1 pathway without fear that you're getting worse IQ
- the dust-bug fix should be trivial to implement
 
milamber! schrieb:
Köstlich - wusstest du das der, den du da verteidigst, aktuelle Karte mit mit 1024MB VRAM als Speicherkrüppel bezeichnet? :D

Es hätte dich keine 2 Minuten gekostet um zu recherchieren das du die 512MB VRAM einer 9800GT problemlos ausfüllen kannst (man beachtet auch die Benches von Crysis, UT3 und COD4 im jeweiligen Klapptext).
Ich habe nirgends behauptet, das VRAM eine Grafikkarte schneller macht, noch das jede Einsteiger Karte mit mehr als 512 MB Sinn macht, jedoch zu behaupten eine Karte (von Nvidia) der Leistungsklasse 9800 GT mit 1GB VRAM wäre überflüssig ist ganz einfach falsch.
Und bei dem Artikel haben sie die 1920x1080 gar nicht getestet.

Die Karte hat genug Rohleistung, um von 1024MB zu profitieren.


jössas meiria. du bist ja wirklich ein hoffnungsloses exemplar

es ist eindeutig aus benchmarks ersichtlich dass nur in wenigen situationen in wenigen spielen 1gb vram einen signifikanten vorteil gegenüber 512mb bereitstellen. in den spielen & qualitätseinstellungen wo das mehr an vram tatsächlich einen unterschied macht bist du auch mit der 1gb version in einem FPS-bereich der eh nicht mehr als spielbar gelten kann

wo ist also der grosse sinn der sache? dass du weisst dass du ja in 1920 mit 4xAA doch 25fps hast statt 10? macht evtl sinn wenn du noch eine zweite karte reinstecken willst und SLI/crossfire fahren willst, aber wieso nicht das geld in eine karte der neuen generation stecken und sich über weniger lautstärke, strombedarf und freiheit von mikrorucklern freuen?

1gb vram machen bei hd5850 und darüber sinn, bei einer gt240 sind sie vollkommen überflüssig, egal wie sehr du es dir rechtfertigen musst dass du dir damals wahrscheinlich eine der gf8 mit 2gb gekauft hast und sie dir jetzt nichts mehr bringt

so unproduktive user wie du sind echt das letzte, schön mit grossschrift und punktuation kompetenz vortäuschen und in jedem einzelnen post sowas von nix zu sagen haben, und wenn dann reinen schwachsinn

google mal "kognitive dissonanz", vll hilft dir das weiter
 
Zurück
Oben