News PowerColor HD 4890 nun auch mit 2.048 MB

Ich setze dagegen - mit diesem Test. In 5 von 8 Spielen bringt der doppelte Speicher der GTX295 respektive der GTX285 in 1.920 und spätestens in 2.560 etwas - bei oft noch spielbaren Fps. Gerade für SLI sind 2x GTX85/2G eine Wucht und die Traum-BQ von 16xS plus 16:1 AF in 1.920 ist bei vielen Titel gut spielbar.

Aber eine Radeon geht sparsamer mit ihrem VRam um.
Außerdem hat man mit einer 4890 bis auf Downsampling unter XP und ArmA II kein Supersampling zur verfügung, weshalb man auch nicht so viel VRam benötigen wird.

MSAA braucht auch kaum VRam, wie es mit den Tent und Edge Detect Filtern ausschaut weiß ich leider nicht; sollte man ja mal testen, wobei ich bezweifel, dass diese viel mehr benötigen - Unschärfe sollte auch so machbar sein ;)
 
Zuletzt bearbeitet:
Du sagst es – eine Radeon braucht kaum viel VRAM, da sie "nur" MSAA, TAA und CFAA (CFAA ist eh ALU-Sache) bietet. Als das schluckt im Vergleich zu SSAA oder xS wenig VRAM.
MSAA braucht auch kaum VRAM
Irrtum, gerade 8x MSAA schluckt viel VRAM!
 
y33H@ schrieb:
Ergo müsste der Hintergrund ja schärfer sein. .... Oder ist das folgende Bild deiner Meinung nach etwa im Vordergrund unschärfer als im Hintergrund?

:rolleyes:

Was soll der Mist? Soll das ne Grundlage einer sinnvollen Diskussion sein?

Aber schon klar, bei Nvidianutzern wird der Hintergrund weder aus performancetechnischen Gruenden noch um dem perspektivisch korekten Bild naeher zu kommen nicht mit einer gewissen Unschaerfe dargestellt.


Danke fuer das Gespraech ....
 
Wer benutzt schon SSAA?

//EditHm da muss ich Great Evil aber recht geben.
 
Ich würde es gerne.

Hatte vor meiner 4870 eine 7950 GT, also gegenüber AF-Sparmaßnamen bin ich relativ unempfindlich, wobei sie mich langsam auch stören :rolleyes:, aber damals konnte ich ältere Spiele sehr gut mit SSAA spielen.
Das Edge Detection ist zwar auch geil, aber SSAA gefällt mir im nachhinein besser.
Daher wird meine zukünftige Grafikkarte auf jedenfall Fall SSAA unterstützen [müssen]!
Aber bis dahin dauert es noch etwa 2 Jahre....
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Wer benutzt schon SSAA?
Jeder der Wert auf BQ legt, es kennt und nutzen kann. Worauf bezieht sich die Frage?
GreatEvil schrieb:
Aber schon klar, bei Nvidianutzern wird der Hintergrund weder aus performancetechnischen Gruenden noch um dem perspektivisch korekten Bild naeher zu kommen nicht mit einer gewissen Unschaerfe dargestellt.
Der Hintergrund ist unschärfer, korrekt - so soll es ja auch sein. Du aber sagtest, der Vordergrund sei unschärfer :rolleyes::
GreatEvil schrieb:
leicht verwaschene Darstellung die im Vordergrund
GreatEvil schrieb:
Was soll der Mist? Soll das ne Grundlage einer sinnvollen Diskussion sein?
Ich gebe die Frage zurück, denn die von dir getätigte Aussage "leicht verwaschene Darstellung die im Vordergrund" ist freilich Bullshit. Vll solltest du deine Posts vor dem Senden noch mal lesen, dann kommt kein Mist wie "Vordergrund unschärfer als Hintergrund" bei raus ...
 
Zuletzt bearbeitet:
Jeder der Wert auf BQ legt, es kennt und nutzen kann. Worauf bezieht sich die Frage?

Darauf dass SSAA ziemlich zwecklos bei hohen Auflösungen ist.
Schafft keine Nvidia Karte da was flüssig darzustellen, außer bei älteren Games, bzw genügsameren.
Und wenn ein Game ohnehin ne schlechte Grafik hat bügelt dass ein SSAA auch nicht aus.
 
Gott, wenn man nicht will, dann will man nicht, schon klar.

Das ganze faellt einem aber nicht an Texturen im Hintergrund auf, weil diese aus genannten Gruenden (durch unterschiedliche Verfahren) gewollt! unschaerfer dargestellt werden.

Und wo in "leicht verwaschene Darstellung die im Vordergrund" eine Aussage ueber den Hintergrund gemacht wurde musst du mir mal erklaeren. Um zu deinem "Vordergrund unschärfer als Hintergrund"zu kommen, muss man schon ne Menge dazudichten.

Auch finde ich es toll, das du Unterschiede zw. einer Ati Karte und einer Nvidia Karte allein auf einem einzigen Bild sehen kannst. Bist du Hellseher im Nebenjob?
 
Schaffe89 schrieb:
Darauf dass SSAA ziemlich zwecklos bei hohen Auflösungen ist.
In 1.680 ist mit 16xS vieles spielbar, u.a. die HL2-Serie, alle CoD-Teile inklusive dem 4ten, die meisten RTS-Titel, RPGs wie Titan Quest oder Spiele wie Trine. Eine GTX260 mit OC muss es freilich sein, aber Qualität kostet eben - egal ob man diese per SSAA, höhere Auflösungen, mehr Details oder sonst was erreicht.

Mir kommt es vor, als versuchst du ständig, SSAA als Praxis-untauglich darzustellen - dies ist aber nicht der Fall.




@ GreatEvil

Bitte erspare mir diesen Unfug! Geforce vs. Radeon:





Im Falle von Fallout ist das Bild nahezu identisch, die Sample-Einsparung der Radeon auf dem Standbild kaum sichtbar - in Bewegung flimmert aber die Textur vor und seitlich der Straße. In Crysis sieht man nach dem Parallax Occlusion Mapping das von den Entwicklern nicht gewollte, in Bewegung stark flimmernde negative BIAS auch auf dem Shot sofort. Siehe auch diese Videos.
Auch finde ich es toll, das du Unterschiede zw. einer Ati Karte und einer Nvidia Karte allein auf einem einzigen Bild sehen kannst.
Ich brauche keine Bilder (mehr).
 
Zuletzt bearbeitet:
Hab ich gar nicht, ich sag nur weil alle immer sagen wie toll SSAA doch ist.
Sone Werbung machst ja auch nur du hier im Forum.^^
 
Und damit sind wir wieder beim flimmernden AF von ATI (was ich nirgends abgestritten habe) und ignorieren das Texturmatschproblem bei Nvidia.

War sehr ergibig die Diskussion. Ich sollte mir in die Signatur sowas reinschreiben wie:

Nvidia ist perfekt. Und wo Nvidia nicht perfekt ist ignorieren wir das und zeigen auf die Probleme von Konkurrenten.


Ich bin bekehrt. Ich werde meine 2 Ati Karten verkaufen und mir gruene Bettwaesche zulegen.

Schoene neue Welt ... :evillol: :evillol:
 
Schaffe89 schrieb:
Wer benutzt schon SSAA?

ich nutze sehr oft SSAA, gerade bei den guten alten spielen, welche ich dir storytechnisch runterbeten kann (HL2 mit CM, die alten Max Payne Teile), oder bei spielen die keine extrem schnellen bewegungen haben, siehe beispiel mit pes.


bei shooter habe ich kaum irgendeine form von AA an, es seitden performancereserven sind vorhanden.
 
@ GreatEvil

Du checkst es nicht! :rolleyes:

NV hat kein Treibermatsch-Problem. AMD hat ein Treiber-Flimmer-Sample-Einsparungsproblem. Nur weil AMD durch die Einsparung und das negative BIOS auf ein subjektiv schärferes Bild erzeugt, wirkt NVs flimmerfreies, technisch korrektes Bild unschärfer.
Nvidia ist perfekt [...] und zeigen auf die Probleme von Konkurrenten.
Nein, NV ist nicht perfekt - aber das AF ihrer aktuellen Karten ist nahezu perfekt und NV hat keine AF-Probleme. Also spare dir dein dämliches Gesülze à la "grüne Bettwäsche".
Schaffe89 schrieb:
Korrekt. Das wird ignoriert.
Schwenkst du dein Fähnchen gerade wie du lustig bist? Mal sagst du, NVs AF ist besser, dann bist du wieder der Ansicht, flimmern sei besser. Entscheide dich mal.
 
Zuletzt bearbeitet:
y33H@ schrieb:
... In 5 von 8 Spielen bringt der doppelte Speicher der GTX295 respektive der GTX285 in 1.920 und spätestens in 2.560 etwas - bei oft noch spielbaren Fps. Gerade für SLI sind 2x GTX85/2G eine Wucht und die Traum-BQ von 16xS plus 16:1 AF in 1.920 ist bei vielen Titel gut spielbar.

... sorry - aber im Zusammenhang mit Crossfire (und natürlich auch SLI) habe ich dem ja schon zugestimmt ;) - und mit Verlaub, eine 2.560er Auflösung gehört für mich momentan immer noch zu den Exoten ... :schluck:
 
30er sind selten, ja. Aber per Downsampling kommt man locker Richtung 25x16, wenngleich DS mit Geforces viel öfters klappt als mit Radeons - leider.
 
y33H@ schrieb:
Schwenkst du dein Fähnchen gerade wie du lustig bist? Mal sagst du, NVs AF ist besser, dann bist du wieder der Ansicht, flimmern sei besser. Entscheide dich mal.

Hab eich jemals geschrieben flimmern sei besser? Du interpretierst mal wieder das hinein was dir gefällt.
Dass Nvidia matschigere Texturen hat ist Fakt. Warum darf das dann nicht als ein Problem betrachtet werden, weil letztendlich mehr Samples das bessere Praxisbild abliefern?
Wenn es nach dir gehe dürfe man bei Nvidia Bildtechnisch nichts kritisieren.
Letzendlich würde ich gerne ein sehr scharfes und flimmerfreies Bild haben, ohne leicht matschige Texturen. Nicht möglich ?
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Dass Nvidia matschigere Texturen hat ist Fakt.
Falsch. NV ist der Standard, AMDs schärfere Darstellung ist die schlechtere. Und nicht AMD Standard und NV unscharf.
 
AMDs schärfere Darstellung ist die schlechtere.

Sicherlich ist das die schlechtere Darstellung, letztendlich aber nur wenn man spielt.
Dass Nvidia matschigere Texturen aufzuweisen hat ist halt einfach so, eben wegen mehr Textursamples. Mehr Textursamples sind mit Sicherheit auch die bessere Alternative, das streitet ja niemand ab.
Wie du aber das oben mit falsch abstempelst, kann ich nicht verstehen. Erkläre doch dann mal warum?
Warum ist es falsch zu sagen, dass Nvidia wegen mehr Textursamples, die Texturen matschiger darstellt als ATI mit weniger Textursamples, meinetwegen auf Screenshots, da du ja immer nur von Ingame/Praxisszenarien auszugehen scheinst.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Standard ist, was die Entwickler vorgeben. Dazu gehören keine Sample-Einsparungen und kein negatives BIAS seitens des IHVs. NV spart keine Samples und erlaubt per default, dass der Entwickler falls er dies wünscht, ein negatives BIAS nutzen kann - was aber praktisch kein Entwickler macht, da es eben flimmert und dies in der Regel nicht erwünscht ist (ebenso wie Sample-Einsparungen). Setzt man per NV-Treiber 16:1 AF, wird das BIAS auf 0.0 "getackert". Reicht dir das als Erklärung?
Schaffe89 schrieb:
Außerdem seh ich dich nicht in der Lage das zu bestimmen.
Ich bestimme nicht wie ein Spiel auszusehen hat und auch nicht der IHV - sondern imo der Entwickler. Oder bist du der Meinung, dass AMD und NV über den Kopf der Entwickler entscheiden sollen "hey, hier machen wir das mal schärfer und flimmriger, hier sparen wir uns mal ein paar Samples"? Der Entwickler dürfte sein Spiel wohl am besten kennen und wissen wie es aussehen soll.
Schaffe89 schrieb:
Warum ist es falsch zu sagen, dass Nvidia wegen mehr Textursamples, die Texturen matschiger darstellt als ATI mit weniger Textursamples
Es ist nicht direkt falsch, allerdings stellt deine bzw. die von Great Evil Art der Formulierung idR so dar, dass NVs "matschige" Darstellung die schlechtere sei. Was aber nicht der Fall ist.
 
Zuletzt bearbeitet:
Zurück
Oben