Erster richtiger Test HD4870 X2 "von wegen keine Mikroruckler mehr"

Es zeigt sich doch nunmehr seit einigen Jahren das SLI bzw. CF wirklich keine Alternative ist und auch nie sein wird.
Wieviel Jahre machen die Hersteller nun den Problemen wie Mikroruckler, Hitze- und Lautstärkenentwicklung (vorallem bei X2-karten) herum?
Und immernoch nicht haben sie es sinnvoll im Griff.

Langsam sollten sie eigentlich verstehen, dass das der falsche Weg ist.
Und wenn ich bedenke, wieviel Ressourcen für diese unselligen SLI/CF Treiberoptimierungen verschwendet werden.

Die 4870 X2 ist ein Schlag ins Gesicht. Unverhältnismäßg laut, eine Frechheit im Stromvebrauch und der Geschwindigkeitsvorsprung ist gering.
Nein ich bin kein Nvidia-Fanboy, das gleiche habe ich schon bei der 9800Gx2 sagen müssen.

Aber anstatt solche sinnfreien X2-Karten zu machen, sollten Sie lieber die Stromfress-Probleme bei der 4x50ern in den Griff bekommen.

Mit Erschrecken schaue ich da auf Tri und Quad-SLI/CF.
Die Zeiten von Voodoo2-SLI sind leider vorbei. Das hat zumindest 1A funktioniert.

Der Grafikkartenmarkt entwicklet sich in die falsce Richtung. Die Karten werden größer, werden heißer, verbrauchen mehr Strom.
Jaja, sie werden auch schneller. Das ist aber sehr teuer erkauft.
Grafikkarten werden 90 Grad warm und brummen dabei wie ein Kühlschrank, welch ein Irrsinn.
 
Zuletzt bearbeitet:
Wie hieß es noch vor kurzem von gewissen Leuten?
"Multi GPU ist die Zukunft." - Warum auch immer
"1 Miliarde Transistoren sind zu viel, 2x 965 Millionen Transistoren sind viel weniger".
"HD4 µRuckeln nicht, Fraps zeichnet konstante Werte!"
"shared VRAM" - Ja warum dann 2x 1GiB, warum die Bridge, warum die VRAM Anordnung?

Wo bleibt die Erklärung?
 
@Dai6oro: Mikroruckler sind ein heikles Thema. Viele nehmen sie nicht wahr, auch wenn sie da sind. Ich hatte mit meiner HD3870X2 allerdings diesbezüglich solche Probleme im unteren fps-Bereich, dass ich sie wieder zurückgeschickt habe.
 
MixMasterMike schrieb:
Also ich sehe in dem Test, dass die Karte bei fast allen Spielen deutlich mehr Leistung zeigt als eine GTX280, welche ja ähnlich laut ist.

Die meisten Leute übersehen hier, dass dort steht, dass es sich mit den Mikrorucklern stark gebessert hat und viele Leute sie sowieso nicht wahrnehmen. Scheinbar hat sich in diesem Flame Thread der ganze Nvidia Fanclub versammelt ;)

Die 9800GX2 hat auch jeder gekauft und viele die 3870X2, so wird diese Karte für Leistungsfreaks ebenso begehrenswert sein. Was nun so gravierend schlecht dran sein soll weiss ich nicht.

Hier mal ein deutlich Positiveres Review der der 4870X2:

http://enthusiast.hardocp.com/article.html?art=MTUzMSwxMCwsaGVudGh1c2lhc3Q=

Du verstehst es nicht oder? Das ist kein Nvidia Fanboytretten in diesem Threat. Hier geben verschiedene Leute Ihre Meinung wieder. Und wie unter anderem ich auch sind so einige ein bisschen enttäuscht von der X2 weil sie sich mehr erhofft hatten. Einem Nvidia Fanboy wäre scheissegal gewesen was die X2 für Werte bekommt weil er eh immer Nvidia kaufen wird. Aber so mancher, so auch ich, hat eben auf die X2 gewartet um abzuwägen ob es was bringt die X2 zu kaufen oder eine andere High End Karte. Und dass Leute enttäuscht sind das zeichnet sich nicht nur hier ab sondern auch bei den Kommentaren direkt auf der Testseite. Wenn mas was gegen ATI sagt ich man ein NV-Fanboy sobald man was gegen NV sagt ist man ein ATI Fanboy. Das kotzt mich langsam an kann man nicht einfach seine Meinung sagen und nicht immer gleich in eine Schublade gesteckt werden ist das in Deutschland möglich mal vom Schubladendenken weg zu kommen mh?
 
das war nen word!
100% zustimmung
 
Hey ein DXler ...
And if you're not down with that,
we've got two words for ya... ;)
 
Zuletzt bearbeitet:
Zum Stromverbrauch muss ich einfach mal sagen, das ist bei 100%iger belastung beider Kerne. Wann hat man das schon bitte?!
Ich habe momentan eine 3870X2, und laut CB Test braucht sie unter last 374W. Doch wenn ich Crysis auf 1680x1050 Mster Config 3 spiele, braucht meine gesammte PC Ecke (PC, Monitor[max 50W], Soundsystem, Beleuchtung) nur 400W, wenn überhaupt, maximal 450W. Also bitte, nicht immer vom maximalwert ausgehen, genau so wie bei den FPS... denn man sieht deutlich, dass nvidia höhere Min FPS hat als ATI.

Aber der Call of Juarez Test ist schon mehr als beeindruckend. 100% mehr Leistung als die 280GTX, wer das durch seine grüne brille nicht einsehen will ist selber schuld.
nur bei Crysis DX10 und NFS Carbon schwächelt sie noch ganz schön hinterher, bei Crysis sogar langsammer als nur eine 4870, aber das liegt mit sicherheit an den Treibern.

Microrucker habe ich persönlich ach noch nie richtig wahrgenommen, entweder es ruckelt, oder nicht. Es sei denn, man betrachtet das FRAPS diagram auf einem G15 LCD...
 
Ich nehm jede flimmernde Textur und jedes Ruckeln war und es nervt mich
 
So viel werden die neuen Treiber aber auch nicht bringen, hat man ja bei der HD48XX gesehen.

Gruß
 
So siehts aus ich weiss noch wie sie alle rumgetönt haben. Ja die neuen Treiber dann funktioniert PP, der Stromverbrauch geht nach unten und so weiter. Und was war NIX! Auch ein angedachtes Biosupdate um den Stromverbrauch in den Griff zu kriegen kam nicht. Also ich geb auf Aussagen wie "... ja wartet mal auf den nächsten Treiber da wird alles besser und so.." nichts mehr. Ich lass mich zwar gern seitens ATI eines besseren belehren aber ich denke nicht dass man treibertechnisch irgendwelche Wunder erwarten kann.
 
Zuletzt bearbeitet:
Naja, das BIOS gibts ja schon, bloß nur nicht offiziell bzw. man kann es sich in 5 min selbst erstellen.

Und die Treiber werden schon noch nen Leistungsschub bringen - wir reden ja hier von einem Vorabtest, der nur wenige Games beinhaltet und die X2 ist vermutlich im aktuellen Treiber noch nicht implementiert...

Naja, warten wirs ab - der CB Test sollte ja diese Woche noch erscheinen, wenn mich nicht alles täuscht. Dann werden wir es wohl genauer wissen.
 
@ Kellergeist

Natürlich kannst du deine Meinung hier kund tun, nur wenn du schon schreibst das die X2 nicht deine Erwartungen erfüllt, dann stell doch nicht die GTX280, die du dir ja gekauft hast, als makellos und absolut Fehlerfrei dar...

Ich hab halt deine ganzen Beiträge gelesen und es kam so rüber wie: Gut das ich mir doch die nVidia gekauft habe weil die Ati ist ja total der Reinfall... und nochmal zum nachdenken, du hast dir die schnellste single GPU Karte gekauft, jedoch nicht die BESTE! Übrigens sind für mich z.B. beide Karten (X2/GTX280) eher die schlechtesten aufm Markt. Beide sind zu heiß, zu laut, zu teuer und viel zu Stromhungrig. Aber es sind momentan schon die beiden schnellsten Karten die man bekommen kann.

@ HisN

Du weißt schon wie ich es meine ;-) hast aber wie immer auch Recht... sollte jetzt kein Angriff auf die 30" Menschen sein :-)



Weiterhin möchte ich nochmal darauf hinweisen, dass es ein VORABTEST war... deswegen schreiben manche Leute hier auch man soll erstmal abwarten.

Niemand würde auf die blöde Idee kommen nen Erlkönig mit einem Serienmodell zu vergleichen und dann zu schreiben, dass das Design schlecht ist und die Farbpalette miserabel...

gruß
monkey
 
t-kay187 schrieb:
Vorallem soll auch die GTX280 mit den neuen Treibern noch deutlich schneller werden.
GN8 Dual-GPU.

wäre mir bei Nvidia neu? 5-10% max,aber das auch über ein jahr.

t-kay187 schrieb:
V.a. ich zocke AoC auf 1920 * 1200 und da die NVidia Treiber zzt noch nicht der Bringer sind habe ich gedacht die Karte wird gut. Ist zwar kein AoC-Test dabei, aber der ist mir jetzt egal.

naja, auch wenn dus mir net glaubst,für AoC gibts wohl keine bessere karte. sie hat weder speicherprobleme, noch ist CF eine "not"lösung für AoC. bei AoC läuft CF nahezu perfekt.

Unyu schrieb:
Wie hieß es noch vor kurzem von gewissen Leuten?
"Multi GPU ist die Zukunft." - Warum auch immer
"1 Miliarde Transistoren sind zu viel, 2x 965 Millionen Transistoren sind viel weniger".
"HD4 µRuckeln nicht, Fraps zeichnet konstante Werte!"
"shared VRAM" - Ja warum dann 2x 1GiB, warum die Bridge, warum die VRAM Anordnung?

-MultiGPU ist die Zukunft, noch sind wir aber in der Gegenwart.
-1x 1,4milliarden gegen 2x 965millionen ist ein unterschied (danke freyenhofer)
-HD4er microruckeln weniger, was auch der test bestätigt. da ist bei SLI noch nix davon zu sehen. aber viele sehn bei einem dollen SLI system microruckler und verdammen damit au gleich die neue X2.
-wurde doch bereits geklärt.

Player007 schrieb:
So viel werden die neuen Treiber aber auch nicht bringen, hat man ja bei der HD48XX gesehen.

Gruß

ähm, du verwechselst hier was. die Leistungschübe durch neue Treiber bei ATI sind durchaus eine nennung wert, vor allem durch Optimierung der Shaderauslastung ist noch sehr viel Leistung raus zu holen. Der Idle Stromverbrauch ist auch durch eine Treiber zu bessern, man kann sich manuell 2 profile anlegen und schwups verbraucht die 4870X2 im Idle gleich viel wie die GTX280, bei bis zu 80% mehrleistung.

Klar wurde die karte zu sehr gehyped, aber es ist nun mal die schnellste Karte weltweit momentan, und bei Nvidia ist no keine Lösung da,die sie schlagen wird. fertig.


gruß
 
Zuletzt bearbeitet:
Also die Mikroruckler kommen ja so gut wie NIE vor, da man die Karte erstmal soweit belasten muss, wer das hinbekommt, hat sicher genug Ahnung, um noch mehr Leistung aus der Karte zu holen oder sowieso genug Geld um sich noch bessere Hardware zu kaufen.

Die Leistungsaufnahme war ja schon vorher klar, kannte man doch die Single 4870. 2 davon verbrauchen halt ne Menge, aber es ist ja auch keine umweltbewusste Karte sondern High-End, genau wie die GTX280 nicht den Anspruch an den Verbrauch, sondern die Leistung legt.

Die Temperatur gekoppelt mit der Lautstärke: Leute habt ihr schonmal überlegt das die Temperaturen vlt. so gewollt sind, damit die Lautstärke niedrig bleibt? Die ist doch für solch Hitze konzipiert. Andere Rechnerteile werden auch net beschädigt, da die Luft gleich rausgeblasen wird. Ansonsten halt alternative Kühler verwenden. Die Lautstärke ist auch noch Human für solch ein Leistungsmonster. Sie ist sogar etwas leiser als die GTX280, also auch kein Grund zur Aufregung.

Die Leistung der Karte ist überragend, es git momentan keine schnellere Karte und die GTX280 wird halt einfach gezeigt wo der Hammer hängt, nämlich bei ATI.

HardOCP-Test AA Scaling
Für alle die es interessiert, auf der X2 gibt es 8x AA für laut. Die Karte ist also in hohen Auflösungen und Qualitätseinstellungen zuhause und sollte das Objekt für Qualitätsfetischisten sein, welche sich net am Strom, Wärme und Lautstärke stören.

Alles in allem ist mein Fazit, das die X2 die GTX280 im Regen stehen lässt, was die Leistung angeht. Bei der Lautstärke sind sie gleich auf, die Temperatur ist auch ähnlich, bzw. an die Lautstärke gekoppelt. Der einzige wirkliche negativ Punkt ist die Leistungsaufnahme, aber wer viel will muss dafür auch viel hinnehmen.
Die Mikroruckler lass ich mal aussen vor, weil sie einfach noch subjektiver sind, als Leistungsaufnahme, Temps, Lautstärke etc.
 
Schinzie schrieb:
1x 1,4milliarden gegen 2x 965milliarden ist ein unterschied

Du meinst sicherlich Millionen ;) - Ansonsten wäre die X2 verhältnismäßig kühl :lol: !
 
@ Iron_Monkey: ich hab niemals behauptet die GTX wäre makellos oder fehlerfrei.

@ Schinkzie: 80 Prozent mehrleistung gegenüber der GTX? Davon träumst du ja. In gewissen Dinge ist sie wirklich schneller ja aber bei weitem nicht so drastisch wie das hier ATI Fanboys im Internet rumposaunt haben. 80 Prozent von wegen bleibt mal auf dem Teppich.
In Crysis sind es zum Beispiel bei 1650x1050 je nach Qualitätseinstellung zwischen 2 und 4 Frames mehr als bei der GTX 280. Bei NFS Carbon hat die ATi garnichts zu lachen. Bei Call of Jures sind es 30 Frames ok aber das sind auch bei weitem keine 80 Prozent sondern hier stehen 67,9 gegen 37,2. Das sind nicht mal 50 Prozent. Bei TES sind es 28,6 zu 49,1 Frames das sind ebenfalls keine 50 Prozent. Und bei Unreal T. wurde die GTX garnicht mit in die Diagramme einbezogen. Also von 80 Prozent kannst du und andere ATI Fanboys nur träumen. Bleibt mal realistisch und hört auf so Hipeaussagen hier zu verallgemeinern die bisher noch nicht in einem einzigen Test bewiesen wurden.
 
Zuletzt bearbeitet:
Bregor schrieb:
Also die Mikroruckler kommen ja so gut wie NIE vor, da man die Karte erstmal soweit belasten muss, wer das hinbekommt, hat sicher genug Ahnung, um noch mehr Leistung aus der Karte zu holen oder sowieso genug Geld um sich noch bessere Hardware zu kaufen.

Die Leistungsaufnahme war ja schon vorher klar, kannte man doch die Single 4870. 2 davon verbrauchen halt ne Menge, aber es ist ja auch keine umweltbewusste Karte sondern High-End, genau wie die GTX280 nicht den Anspruch an den Verbrauch, sondern die Leistung legt.

Die Temperatur gekoppelt mit der Lautstärke: Leute habt ihr schonmal überlegt das die Temperaturen vlt. so gewollt sind, damit die Lautstärke niedrig bleibt? Die ist doch für solch Hitze konzipiert. Andere Rechnerteile werden auch net beschädigt, da die Luft gleich rausgeblasen wird. Ansonsten halt alternative Kühler verwenden. Die Lautstärke ist auch noch Human für solch ein Leistungsmonster. Sie ist sogar etwas leiser als die GTX280, also auch kein Grund zur Aufregung.

Die Leistung der Karte ist überragend, es git momentan keine schnellere Karte und die GTX280 wird halt einfach gezeigt wo der Hammer hängt, nämlich bei ATI.

HardOCP-Test AA Scaling
Für alle die es interessiert, auf der X2 gibt es 8x AA für laut. Die Karte ist also in hohen Auflösungen und Qualitätseinstellungen zuhause und sollte das Objekt für Qualitätsfetischisten sein, welche sich net am Strom, Wärme und Lautstärke stören.

Alles in allem ist mein Fazit, das die X2 die GTX280 im Regen stehen lässt, was die Leistung angeht. Bei der Lautstärke sind sie gleich auf, die Temperatur ist auch ähnlich, bzw. an die Lautstärke gekoppelt. Der einzige wirkliche negativ Punkt ist die Leistungsaufnahme, aber wer viel will muss dafür auch viel hinnehmen.
Die Mikroruckler lass ich mal aussen vor, weil sie einfach noch subjektiver sind, als Leistungsaufnahme, Temps, Lautstärke etc.

Wenn wir mal von gleichen Ausgangspunkten ausgehen und die X2 gegen eine Multi GPU von Nvidia ran darf dann reden wir mal weiter. Mit einer Multi GPU eine Single GPU Karte zu übertreffen ist weiss Gott kein Kunststück weil jeder wusste dass die X2 wohl schneller sein wird. Jedoch haben sich viele etwas mehr Leistung erhofft.
Wie ich schonmal gesagt habe mit einem 200PS Auto ein 118 PS Auto alt aussehen zu lassen ist nicht schwer.

P.S. Nein, nein, nein Ich bin KEIN, Kein, Kein NV-Fanboy.
Nur manche hier sollten mal realistisch bleiben.
 
Zuletzt bearbeitet:
Kellergeist schrieb:
Mit einer Multi GPU eine Single GPU Karte zu übertreffen ist weiss Gott kein Kunststück weil jeder wusste dass die X2 wohl schneller sein wird. Jedoch haben sich viele etwas mehr Leistung erhofft.

100% agree!
 
Zurück
Oben