Erster richtiger Test HD4870 X2 "von wegen keine Mikroruckler mehr"

Nominell schneller ja - gefühlt aber lahmer :D

cYa
 
Dieser Thread wird immer mehr zum Kampf zwischen Nvidia und ATI-Fanboys. :freak:

Ich sage mal ich hätte etwas mehr von der X2 erwartet aber es ist ja auch eine Highendkarte die meist nur gut für das Image ist, weil nicht viele verkauft werden.
Also ich persönlich merk die Microruckler bei den neueren CF oder SLI Karten sogut wie nicht bei der alten 7950GX2 war es noch gut zu merken.
 
@ Kellergeist

Wenn CF gut skaliert, ist der avg-Fps-Balken der längste, besser spielen tut sichs aber nicht. Schau morgen mal auf PCGH.

cYa
 
Sry für den Ton aber, rafft ihr es nicht? es ist egal ob man die Mikroruckler merkt oder nicht , HAUPTSACHE IST - SIE SIND DA!

Die ATI- fanboys müssen jetzt ati nicht verteigiden, die ruckler sind da ! und das ist der Punkt, egal ob die meisten sie spüren oder nicht
 
Zuletzt bearbeitet:
Commander Alex schrieb:
Der Kühler passt nicht.

Mh welchen müsste ich nehmen der vergleichbar mit dem ist von der Leistung?
 
das hätte man sich auch denken können. diese multi-gpu setups sind nichts halbes und nichts ganzes, nur eine option, um seine karte als die ,,schnellste" vermarkten zu können.
 
terex schrieb:
Mden Ton aber, rafft ihr es nicht? es ist egal ob man die Mikroruckler merkt oder nicht , HAUPTSACHE IST - SIE SIND DA!

Die ATI- fanboys müssen jetzt ati nicht verteigiden, die ruckler sind da ! und das ist der Punkt, egal ob die meisten sie spüren oder nicht

Sie sind da und das kann man nicht wegdiskutieren da hast du Recht. Und genau so würden wir auch argumentieren wenn NV eine X2 rausgebracht hätte und da noch Mikroruckler zu beklagen wären. Da wäre die Situation absolut keine andere.

Nur Wasserkühlung? Naja einen Geldscheißer hab ich leider nicht ;)
Wie warm darf die GTX werden ohne dass ich mit Schäden rechnen muss?
 
Hm, Danke erst mal für die verlinkung des Test. Die Ergebnisse machen auch mich ein bischen stutzig und ich denke das ich somit erst mal bei meinen 2 8800GTX bleiben werde (habe mir einfach mehr erhofft).
Was viele hier negativ anmerken wäre für mich eher positiv - der Stromverbrauch.
Mein Rechner mit einer ähnlichen Konfig wie der von PCG (bis auf den Unterschied 2x8800GTX <-> 4870x2) verbraucht leider im Idle bereits 350W und unter Last auch gerne 500W. So gesehen wäre ich ja fast ein Ökojunkie wenn ich umsteigen würde ;) .
 
Hübsche DVD Sammlung und alles original? :D :D
 
@Kellergeist: die GTX280 throttled bei 105°C automatisch die Taktraten runter, d.h. sie sollte kühler bleiben. Gibt aber leider einige Fälle, wo die Karte die 105°C locker knackt, wohl aufgrund von schlampiger Montage des Kühlers.

Mfg
 
@ Kellergeist

Aha und nur die Nachteile der X2 aufzählen und kein mal auch nur einen Nachteil der GTX280 ist ja auch total was anderes... wer a sagt muss auch b sagen mein Lieber.
 
Dies hier war kein Vergleichsthreat über X2 und GTX 280 sondern es ging lediglich um den Test der X2 und um dessen Ergebnis und nicht um die Nachteile einer GTX 280. Wenn mich jetzt jemand fragen würde was soll ich kaufen würde ich für jede Karte vor- und Nachteile nennen aber das war hier nicht das Thema. Hier gings nur um den Test der X2
 
Kellergeist schrieb:
Wenn wir mal von gleichen Ausgangspunkten ausgehen und die X2 gegen eine Multi GPU von Nvidia ran darf dann reden wir mal weiter. Mit einer Multi GPU eine Single GPU Karte zu übertreffen ist weiss Gott kein Kunststück weil jeder wusste dass die X2 wohl schneller sein wird. Jedoch haben sich viele etwas mehr Leistung erhofft.
Wie ich schonmal gesagt habe mit einem 200PS Auto ein 118 PS Auto alt aussehen zu lassen ist nicht schwer.

P.S. Nein, nein, nein Ich bin KEIN, Kein, Kein NV-Fanboy.
Nur manche hier sollten mal realistisch bleiben.

Wie oft muss man das eigentlich noch erklären. Es ist EINE Karte, wie sie nun aufgebaut ist ist erstmal scheißegal. Es ist eine Karte die 2 Chips hat. Wen interessiert es wieviele Chips auf der Karte sind? Wichtig ist welche Leistung am Ende dabei rauskommt. Und diese übertrifft die GTX280 nunmal das kann hier eigentlich niemand abstreiten, das sie dabei mehr Strom verbraucht ist nunmal nötig um die entsprechende Leistung zu bringen, aber am Ende ist und bleibt es eine einzige Karte, ich brauch also kein teures Mainboard um mit 2 einzelnen Karten (CF oder SLI) die gleiche Leistung zu erzielen (PCIe 2.0 x16 usw.) Das ist es doch was zählt, die Leistung.

Das CF mal funtzt und mal nicht ist auf jedenfall indiskutabel und sollte schnellstens von ATI gelöst werden. Das Powerplay nicht richtig funktioniert ist auch eine Schwachstelle, welche deutlich angemerkt werden muss. Da geb ich jedem hier recht.

Davon abgesehen ist und bleibt die X2 aber nunmal die beste momentane Karte, für High-End-Käufer.


terex schrieb:
Sry für den Ton aber, rafft ihr es nicht? es ist egal ob man die Mikroruckler merkt oder nicht , HAUPTSACHE IST - SIE SIND DA!

Die ATI- fanboys müssen jetzt ati nicht verteigiden, die ruckler sind da ! und das ist der Punkt, egal ob die meisten sie spüren oder nicht


Sehr guter Beitrag, wenn ich nicht schreiben würde, tät ich mir vor die Stirn hauen.
Es ist wohl relevant ob man sie bemerkt oder nicht. Denn jemand der noch nie einen MR gesehen hat, den wird das Thema nicht interessieren, da er eh meist über der kritischen FPS Marke liegt oder einfach nichts von diesem Hype mitbekommen hat und somit auch wenn es sie gibt, nichts davon merkt.
Es ist und bleibt ein Hype, ich hab noch nie MR gesehen auf CF oder SLI, also ist mir dieses Thema egal. Die Leute die daran ihre Kaufentscheidung festmachen, sind berechtigt lieber die Single-GPU-Karte zu kaufen, weil sie dann ein subjektiv besseres Erlebnis haben, denn das ist ihr gutes Recht.

Aber man kann net pauschalisieren an der Stelle. Das ist einfach falsch.
 
was schreibt denn pcgh?

"Mikroruckler werden je nach Ausprägung ab 40 Fps spürbar - aber nicht für jedermann. Um die X2 in solche Gefilde zu pressen, müssen Sie Auflösungen ab 1.920 x 1.200 und mindestens 8x FSAA aktivieren."

also hat man zB auf nem 22er oder auf nem 26er mit 4 fach aa keine microruckler zu erwarten.

abgesehen davon ist mir die pcgh eh zu sehr nvidialastig, da wird immer schön alles rausgesucht, damits für nvidia gut aussieht... die leben halt von deren werbung. jedes printmedium lebt zu mindestens 50% von anzeigen.
 
Zuletzt bearbeitet:
Zurück
Oben