News PowerColor HD 4890 nun auch mit 2.048 MB

wieder einer, der auf die 2GB Crossfire Marketing "Lüge" heringefallen ist ;)

Nochmal für alle: bei Crossfire/SLI addiert sich der Speicher nicht, sondern beide GPUs müssen die Daten im jeweils eigenen RAM halten!

atari2k

@ Matrox und besser BQ: Ich glaube der TE zielt hier nicht auf die BQ in Games ab, sondern die Quali, die die Karten am analogen VGA Ausgang liefern und da kann man sehr wohl konstatieren, daß die Matrox selbst mit 4MB ein überragend gutes analog Bild liefert. Übrigens waren die Voodoo3 Karten auch für ein sehr sauberes Signal bekannt (wenn wir schon bei alten Schätzchen sind :D ). Jeder ders nicht glaubt kann ja mal nen guten 22" CRT an ne aktuelle Karte hängen und schauen, ne Matrox Mystique kann er von mir haben (wenn er noch nen AGP Port hat). Da sind teilweise Unterschiede, die selbst ein Blinder sofort sieht.

Daß das Ganze in Zeiten von DVI/HDMI/Displayport und entsprechenden TFTs mit Digitaleingang kein Schwein mehr interessiert steht dabei auf einem anderen Blatt :D

atari2k
 
Zitat von Schaffe89

"Ich habe nie was verallgemeinert."

doch hast du, genau 6 zeiler darüber:
"Der großteil der Leute siehts nicht/bzw denen fällt es nicht auf. Ende."


schließ bitte nicht von deiner ansicht auf die allgemeintheit.
ich kenne auch viele denen die BQ sehr wichtig ist, und diese auch sehen
(sehe es als glück oder pech), für mich leider pech, da ich "gezwungen" bin öffter neue kraten zu kaufen, wenn ich nicht aufeine gewisse qualität verzichten möchte.
ich sehe die unterschiede, besonders im texturenbereich/AF, weniger in der auflösung.

aber deswegen schreibe ich doch noch nicht, dass der großteil der leute das genauso wahrnimmt.

und leute als dumm oder fanboys oder beides zu betiteln, weil sie eben anderer meinung sind, ist nicht gerade ein guter baustein für eine angebrachte disskussion.



zum thema:

ich bin mal gespannt, ob die leistung der karte aussreicht um die 2gb sinnvoll auszuutzen, sprich mehr AF, evtl Supersampling bei gleicher framerate wie bei der 1gb karte.
 
usmave schrieb:
ich sehe die unterschiede, besonders im texturenbereich

Ich finds gut, das jemand in dieser Diskussion auch mal den Texturmatsch, den Nvidiakarten verursachen, anspricht. :D
 
Ich hatte bis jetzt die letzten 3 Karten lang immer ATI Karten, jetzt zum erstenmal seit Geforce 250 eine Nvidia und ich muß zu meiner Schande gestehen das ich keinerlei Unterschied sehe. Das einzige was mir auffiel war das FIFA 2009 auf der Nvidia zum kotzen aussah weil AA/AF aufgrund irgendeines Bugs nicht übernommen wurde, was aber sicher nur irgend ein bug ist.

Wenn die Preise so bleiben im Verhältnis zur gebotenen Leistung und vorallem zum Speicher der verbaut ist, dann wird meine nächste Graka warhscheinlich wieder eine ATI Graka.
Da ich eh keinen Unterschied in der Quali wahrnehme (trotz nhancer/ATT) bleibe ich dann bei den billigeren Karten. Noch dazu das ich mit dem Catalyst einfach besser zurecht komme als mit den Nvidia Treibern (was aber reine Gewohnheit ist).

Wie sollte dieses Flimmern bei ATI Karten denn eigentlich aussehen?
Flimmern da alle Texturen die ganze Zeit? Oder nur in ganz bestimmten Situationen? Denn wenn das so offensichtlich ist verstehe ich es nicht, oder hab villeicht irgendeine Treiber einstellung übersehen. Habe bei ATI immer alles max Quali mit AI Off und bei Nvidia das selbe nur halt statt AI OFF halt nhancer.
 
Die 2GB bringen imo nichts , nur in GTA4 wird etwas mehr Vram gebraucht , jeder der eine 1GB
HD4890 hat der kann froh sein , vieleicht werden in 1jahr 2GB standart sein aber bis dahin ist die HD4890 für AA/AFF eh zu schwach .
 
Ich denke für 2 GB ist es noch etwas zu früh bei Singlekarten, für SLI bzw. Crossfire aber durchaus eine Überlegung wert. Das Problem wird schlichtweg sein, dass zu dem Zeitpunkt an dem sich 2 GB Ram lohnen, der Chip der 4890 einfach zu langsam sein wird. Aber genaueres werden wir in ca. 1-2 Jahren wissen.
Mfg
 
Oh man,warum sollte Y33ha sich an seiner 260GTX aufgeilen wenn er doch 2 HD4890 daheim liegen die wovon eine abgeraucht ist:freak:
BTT: Wenn ihr darüber disktuieren wollt in einem extra thread aber nicht hier steht in der Überschrift Flameware freigegeben nein also
 
@ Schaffe89

Ein R5xx bietet (mit AI-off) besseres AF als ein R(V)6xx oder RV7xx :rolleyes: Die BQ hat sich in Sachen AF ergo verschlechtert. Das ist ein unbestreitbarer Fakt.
Außerdem sind die Screenshots einen Tick schärfer, wenn Samples eingespart werden.
Spielst du Screenshots? Ich nicht. Und für Shots kann ich das BIAS auf einer Geforce bewusst und gewollt zugunsten der "Schärfe" ins Negative verschieben. Eine Radeon macht das unabhängig davon, ob ich das will oder der Entwickler sich das so gedacht hat.

@ GreatEvil

Der nicht flimmernde "Matsch" ist die technisch korrekte saubere Darstellung. Hier werden keine Samples auf Kosten der BQ zugunsten von mehr Fps gespart (um die mangelnde Texturfüllrate zu kaschieren) und das BIAS nicht ins Negative verschoben. Letzteres ist Sache des Entwicklers.
 
Zuletzt bearbeitet:
Ob das die "technisch korrekte Darstellung" ist, interessiert dabei nicht. Dann muss Nvidia sich halt einer anderen Technik bedienen, sodas dieser Texturmatsch nicht entsteht.
 
@ GreatEvil

Nvidia muss sich objektiv keiner anderen Technik bedienen. Nvidia rendert (mit HQ) so, wie es die Entwickler vorsehen und nahe am technisch perfekten AF fast ohne Moiree. Das Resultat kein Texturmatsch, sondern die bisher beste Texturfilterung, die es im Desktop-Markt gibt. Jeder, der etwas anderes behauptet, hat entweder keine Ahnung oder leugnet bewusst Fakten.

Du kannst das flimmernde, Sample-sparende AF mit negativem BIAS seitens des IHVs samt teils ausgeprägten Moiree des R(V)6xx/RV7xx subjektiv als besser erachten als das nahezu perfekte, flimmer- und nahezu Moiree-freie AF von G8x/G9x/GT200, objektiv ist ersteres letzterem jedoch überlegen und Menschen, welche wert auf Bildqualität legen, präferieren das nahezu perfekte, flimmer- und nahezu Moiree-freie AF von NVs aktuellen Karten.

Und nun B2T.
 
also für mich sieht nvidias (8800gts512) AF deutlich besser aus als das meiner alten 4870er ati.
schön ruhiges bild ohne zittern und flimmern.
selbst mit allen filtern zum anschlag sieht die ati nicht besser aus, meist sogar schlechter (z.b. bei pro evoloution soccer)

nvidias AF mit nhancers 3x3 supersampling ist schon ne augenweide, zumindest bei pes.
 
Finde zwar, dass die 2GB VRAM allgemein wohl erst bei der nächsten Graka-Generation perfomance-mäßig wirklich was reißen werden, begrüße den Schritt generell aber dennoch, solange die Mehrkosten im angemessenen Rahmen bleiben. Würde mir jedoch wünschen, dass ATi bzw. auch deren Partner sich mehr Gedanken über den "Stromverbrauch" (jaja, Unwort...), speziell im Idle machten und das Problem in den Griff bekämen, dass der GDDR5 bei Takten unter 500 MHz diese meiner Ansicht nach unerträgliche Flackerei produziert.

@y33ha:

Einmal "nahezu perfekt, flimmer- und nahezu Moiree-frei" hätte aber auch genügt. ;) So wirkt's albern...
 
Schaffe89 schrieb:
...
Ingame kann es natürlich sein dass versierte Nutzer Flimmern feststellen können, was aber einen Großteil der Nutzer nicht stört/nicht intressiert, weil mans eh nicht sieht.

... nun ja - wenn man es nicht sehen würde, dürfte es ja eigentlich auch niemanden stören! ;)

Und davon abgesehen, kannst du die Unterschiede schon ganz gut sehen, wenn du z.B. im Alternativ-Treiber DNA Catalyst die Möglichkeit von HQ-AF nutzen würdest.
Doch da man diese unsignierten Treiber nur relativ umständlich in einer 64bit-Umgebung einbinden kann, wird sich die Verbreitung wohl nur in einem ganz begrenzten Rahmen halten.

Persönlich würde ich mir jedenfalls wünschen, dass diese Alternativen wachsen - denn ohne Übertreibung kann man wohl sagen, dass sich diese Bildqualität problemlos mit einem Geforce-Treiber messen kann.


Und was die 2GB Speicher angehen, dürfte dieser Testbericht, und davon gibt es einige im Netz, wohl ziemlich eindeutig sein.

Momentan macht es kaum Sinn (vielleicht von einem Crossfire-System abgesehen) - und wenn es wirklich nötig wird, gibt es sicherlich schon Hardware, die einfach besser sein wird ...
 
Zuletzt bearbeitet:
(ich meine den Sinn solch eines Systems nich die Marke)
Damals war das noch n Renner 2x 8600gts 512mb.^^#

Spielst du Screenshots? Ich nicht. Und für Shots kann ich das BIAS auf einer Geforce bewusst und gewollt zugunsten der "Schärfe" ins Negative verschieben. Eine Radeon macht das unabhängig davon, ob ich das will oder der Entwickler sich das so gedacht hat.

Hm wenn du dir meine Posts mal durchlest, dann siehst du auf anhieb, dass ich keine Screenshots spiele.
Hab ich auch erwähnt, dass es nur bei Screenshots der Fall ist deswegen versteh ich nicht worauf du hinauswillst, es wurde alles gesagt.

ich das BIAS auf einer Geforce

Kann sicherlich nicht jeder.

Du kannst das flimmernde, Sample-sparende AF mit negativem BIAS seitens des IHVs samt teils ausgeprägten Moiree des R(V)6xx/RV7xx subjektiv als besser erachten als das nahezu perfekte, flimmer- und nahezu Moiree-freie AF von G8x/G9x/GT200, objektiv ist ersteres letzterem jedoch überlegen und Menschen, welche wert auf Bildqualität legen, präferieren das nahezu perfekte, flimmer- und nahezu Moiree-freie AF von NVs aktuellen Karten.

Volle Zustimmung.
 
Zuletzt bearbeitet:
Bei der nächsten Graka-Generation (RV870/G300) machen 2Gig bestimt mehr Sinn.;)
 
Thaquanwyn schrieb:
Momentan macht es kaum Sinn (vielleicht von einem Crossfire-System abgesehen) - und wenn es wirklich nötig wird, gibt es sicherlich schon Hardware, die einfach besser sein wird
Ich setze dagegen - mit diesem Test. In 5 von 8 Spielen bringt der doppelte Speicher der GTX295 respektive der GTX285 in 1.920 und spätestens in 2.560 etwas - bei oft noch spielbaren Fps. Gerade für SLI sind 2x GTX85/2G eine Wucht und die Traum-BQ von 16xS plus 16:1 AF in 1.920 ist bei vielen Titel gut spielbar.
 
y33H@ schrieb:
Das Resultat kein Texturmatsch, sondern die bisher beste Texturfilterung, die es im Desktop-Markt gibt. Jeder, der etwas anderes behauptet, hat entweder keine Ahnung oder leugnet bewusst Fakten.

Das Resultat ist eine leicht verwaschene Darstellung die im Vordergrund eines perspektivisch richtig dargestellten Bild nichts zu suchen hat! Und das ist der Fakt der zaehlt.
Und ob das ganze verfahrensbedingt, durch Einsparungen oder durch Bugs entsteht ist mir als Endkunden egal. Mich interessiert nur, was ich am Schuss auf dem Monitor sehe.
 
@ y33H

Ja bei SLI oder CF ist das schon klar. Bei Single-GPU-Cards aber wohl eher nicht. Da meine ich, dass du selbst mal geschrieben hast, dass selbst eine GTX 285 mit 2 GB "oversized" wäre. Wobei man an Hand deines Benchmarks sehen kann, dass zumindest bei 2560*1600 bei Far Cry 2 und Fallout 3 &HD-Pack, die 2 GB im Vergleich zu 1 GB den Unterschied zwischen spielbar und unspielbar ausmachen können.
 
@ Edzard

Da meine ich, dass du selbst mal geschrieben hast, dass selbst eine GTX 285 mit 2 GB "oversized" wäre.
Mit Garantie nicht :D Ich bin der Verfechter von viel VRAM schlechthin - seit Jahren.
Wobei man an Hand deines Benchmark sehen kann, dass zumindest bei 2560*1600 bei Far Cry 2 und Fallout 3 &HD-Pack, die 2 GB im Vergleich zu 1 GB den Unterschied zwischen spielbar und unspielbar ausmachen können.
Jepp. Bei weiteren Spielen mit Texturmods (Crysis, Oblivion, Stalker) ist es genauso.


@ GreatEvil

Wo bitte siehst du "eine leicht verwaschene Darstellung die im Vordergrund"? Ergo müsste der Hintergrund ja schärfer sein. Dies ist weder bei AMDs AF noch bei NVs AF der Fall und auch nicht mit trilinearer Filterung. Oder ist das folgende Bild deiner Meinung nach etwa im Vordergrund unschärfer als im Hintergrund?



GreatEvil schrieb:
Mich interessiert nur, was ich am Schuss auf dem Monitor sehe.
Du siehst Dinge, die gar nicht dargestellt werden.
 
Zuletzt bearbeitet:
Zurück
Oben