Erster richtiger Test HD4870 X2 "von wegen keine Mikroruckler mehr"

Das weiss keiner wir wissen ja nicht wie ATI arbeitet. Und Bregor nimm mir den Kommentar mit der Uhrzeit net übel ;)
 
Nönö, bin vom pOT härteres gewohnt. ;)

Aber Cosmic, du musst noch bissel dein Fanboying verbessern und zwar mit Quellen, dann würde das hier viel besser laufen und auch für andere interessanter sein.
 
Stimmt, Unyu kann das bedeutend besser :D

cYa
 
Und da meintest du ich wäre Nvidia Fanboy bei dem was der hier ablässt ist bei ihm ja wohl die Diagnose Fanboy echt absolut zweifelsfrei bewiesen oder ;) halt nur für ATI
 
Du bist unsere kleine FanFee ;)

€: Och man ich will noch net pennen, schreibt doch mal was. ^^
 
Zuletzt bearbeitet:
y33H@ schrieb:
Stimmt, Unyu kann das bedeutend besser :D

cYa

:D Was ihr nur immer mit dem Unyu habt überall les ich irgendwas über den wegen NV-Fanboy und so.

Ja pennen will ich ah noch net aber ich muss mich hinlegen. Morgen hat die Tante geburtstag und meine Hardware kommt gar.
Und da ist etwas dabei was darauf wartet MAX übertaktet zu werden ;) ich sag lieber nicht was es ist sonst wäre das das
10 Mal dass ich wieder mal gehaupte ich hätte ***NIX SAG*** gekauft *g*

SPASS MUSS SEIN! Und den hamma doch ;)
 
Zuletzt bearbeitet:
Naja, aber er bleibt dabei sachlich, das mag ich so an ihm. Nur dieses hochloben von SSAA kann ich net verstehen, aber das ist wieder was subjektives. :)

DU HAST NE GTX280 GEKAUFT ZOMG!!!111einself ;)
 
Du hast es erraten woher weisst du bloß? ;) Mittlerweile kömma drüber lachen.

Ja übe subjektive Dinge lässt sich nur schwer streiten weil sie jeder anders wahrnimmt aber im Fall von Mikrorucklern oder flimmernden Texturen kann man zumindest nicht bestreiten dass es sie gibt wenn das Quellen belegen. Aber einer von uns tut das ja trotzdem ;) und wir wissen alle wer das ist. Ich wie gesagt bin a jemand der viel auf die Bildqualität achtet und den Flimmern bzw. Ruckeln nervt daher wüsste ich nicht ob ich mit der X2 glücklich wäre. Fakt ist aber wenn ATI diese Probleme und andere Schwachstellen durch einen Wundertreiber in den Griff bekommen würde und die X2 irgendwann zu einem vernünftigen Preis released wird wäre ich der letzte der keine kaufen würde. Es muss nicht immer nvidia sein.

so jetzt geh ich aber auch pennen Zeit wirds bis denne Gut Nacht alle miteinand
 
Zuletzt bearbeitet:
Da ich momentan noch mit ner x1800XT und nem A64 3800+ rumwerkle ist mir das ganze eh egal. Ich hab mich schon lange damit angefunden, das man net immer jedes Qualitätsgedöns anmachen kann. Aber bei spielen wie Baldurs Gate 2, Diablo II und HL-Games sowie Source-Games, reicht das System voll aus.

Ha Crysis nie selbst gespielt und CoD4 nur aufm Laptop, der mit ner 8600GT und nem 2,2Ghz Dualcore wohl sogar besser als mein Hauptrechner ist. ^^

Fakt ist, GTX280 rockt und wenn die X2 richtig funtzt rockt sie die GTX280 weg. ;)

p.w. Für GW reicht das System auch, aber diesen Herbst gibts nen neues, ohne X2, dafür mit 4870, die reicht dicke aus bei meinem 22''. Würd mir auch sofort nen Phenom kaufen, wenn die net so schlecht wären, ok schlecht nicht, aber ein E8400 ist halt WESENTLICH besser für Games. Schade eigentlich, ich mag AMD sehr, aber was muss das muss. :)
 
Zuletzt bearbeitet:
100% Agree.

Zu Crysis ich weiss nicht was da alle haben. Ich hab das Spiel mal angefangen und dann gleich wieder aufgehört weil mir das garnichts gibt. In meinen Augen langweilig und nichts besonderes. Mit Call of Duty 4 konnte ich ewig beschäften auch mit einem Spiel wie FEAR. Aber Crysis verstehe den Hype um das Spiel nicht. Hat jemand von euch Alone in the dark 5? Ist das Spiel es wert gekauft zu werden?

Etz aber gute Nacht
 
y33H@ schrieb:
Nur um die 80% mal zu zeigen - Call of Juarez. Das sind mehr als 100%. Freilich nicht bei allen Spielen
Eben, das ist ein Spiel. Beim Rest sieht es anders aus. Und aus einem Spiel allgemeine 80% zu machen, wie es gewisse User gern sehen würden, ist doch sehr vermessen.
Da will ich nicht mal damit anfangen, daß die X2 von gut übertakteten GTX 280 versägt wird, ob sie sich auch so gut hochziehen läßt, muß auch erst noch getestet werden. Wobei ich da bei einer Dual GPU Karte so meine Zweifel habe.
 
Bregor schrieb:
Im Forumluxx gabs mal nen guten Thread zu dem Thema, da hat jeder Arsch sein Sli und CF System

gebencht und die Frametimes gepostet...... *Ich bin ein Link zum Microruckerl Sammelthread*
Dazu muss man sagen das:
1. zocker28 ein absoluter Fanboy ist.
2. Durch Fraps aufgezeichnete Frametimes erwiesener massen nicht korrekt sein müssen./selbst wenn die Frametimes im

gleichem Abstand kommen, müssen die Frames nicht gleich alt sein.
3. Da traue ich lieber

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

y33H@ schrieb:
Stimmt, Unyu kann das bedeutend besser
cYa
Oh man lobt mich. ;)

Bregor schrieb:
Und nun sag mir mal bitte wo die Unterschiede genau liegen. Ich sehe keinen.

Bild 1

Bild 2

Quelle

p.s.: Spiele momentan wieder aktiv Diablo II. Gameplay > Grafik
Das ist TSSAA vs EATM.
Ich meinte speziell (OG)SSAA. :)

Aber gut mecker ich über EATM:
http://enthusiast.hardocp.com/image.html?image=MTIxNjUzMjA0NVllSElBYUxjSkRfNV8xNF9sLnBuZw==
Vergleiche das mal, damits einfacher wird nur jeweils das erste Bild.
Gerade die Äste sind bei TSSAA einfach runder. Und trotzdem nicht weichgezeichnet!
Und imho sollte man auch hinten am Quermast Vorteile entdecken.

cosmicparty schrieb:
"Fairerweise müssen wir nochmals anmerken, dass es nur in derart fordernden Einstellungen möglich ist,

die HD 4870 X2 kleinzukriegen."
zitat der pcgh. man man man, neid der besitzlosen. die 4870x2 ist welten besser als ne GTX280, nur das kann man net zugeben
Ja, man kauft sich eine X2, damit man mehr Bildqualität als mit einer 4870 fahren kann.
Wozu würdest du sie holen? Für mehr FPS, obwohls schon mit einer X1 flüssig ist? Sinn? :stacheln:

cosmicparty schrieb:
jetzt, wo es auf gut deutsch, nvidia an den kragen geht, weil keiner mehr das zeug kauft, jetzt kommt

auf einmal son blödsinn.
Jetzt wo AMD konkurrenzfähige Leistung hat, erwartet man auch mal konkurrenzfähige Bildqualität. :rolleyes:

cosmicparty schrieb:
nenen yeeh@: dieser bq schrott in der pcgh kam aufgrund von nvidialeuten, um irgendwie ein argument für

nvidia zu haben, da die verkaufszahlen absolut rückläufig sind und der marktanteil schwindet.
So wie damals beim G7x, das kam auch von Nvidia Leuten? Mensch, PCGH wechselt die Seiten auch wie manch einer die Unterhosen. :D
Da G7x HQ ja wohl scheibar besser ist als RV770 AI-default (du hast mir nicht wiedersprochen), dann können wir ja nachträglich G7x heilig sprechen.
Nicht vergessen, G7x Q wurde von PCGH bemängelt. :eek:

cosmicparty schrieb:
ich hab eine und hab noch nix gesehen von flimmernden texturen.
Dann helf ich dir:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6639791&postcount=21
Nicht vergessen, Coda ist nicht bei PCGH und er hat eine 4870. :eek:

Dir fehlt wohl die Vergleichmöglichkeit oder der Wille oder der passende Bildschirm.

frankpr schrieb:
Und aus einem Spiel allgemeine 80% zu machen, wie es gewisse User gern sehen würden, ist doch sehr vermessen.
Eben, man nehme die höchsten Werte der X2, verschweige µRuckler + Lag, verschweige das CF auch schlechter skalieren kann oder gar nicht und schwups haben wir tolle, wertlose 80% im Raum.
 
Seufz, die Geschichte wiederholt sich einfach: Seit dem Release der 3850 X2 tauchen bei jedem neuen Treiber ein paar Leute in Foren aus, die freudig mitteilen, dass die Microruckler weg sind. Das gleiche Getue kommt bei jeder neuen RV770 Karte (mal ists der neue Treiber, dann der CF Chip, dann die Bridge, dann der Speicher).

Zumindest in dieser Generation bleibt es dabei: Von X2 oder GX2 Karten kann man pauschal abraten.
 
Unyu hat Recht, was geileres als OGSSAA (kein SG) gibts nicht, leider blurt das stellenweise (etwa bei HDR).

Ansonsten ists wie üblich. Multi-GPU überzeugt einfach nicht, die Macken sind unbestreitbar. Jeder, der es ernsthaft aufs Zocken anlegt wird sich wenn er das Geld hat, eine GTX 280 holen und übertakten. Das hat nichts mit Fanboy zu tun, sondern mit Logik und Bequemlichkeit. Schaut euch HisN an, der bleibt auch bei seiner 280er. Geld und Ahnung hat er genug, aber er weiß halt, worauf es ankommt.

cYa
 
Ich finde das Multi GPU Technik noch in den Kinderschuhen steckt und somit diverse Probleme einfach vorhanden sind. Ob sie es mit einem tolle Treiber richten können ist die Frage.

Schlecht ist die Karte trotzdem nicht.
 
frankpr schrieb:
Eben, das ist ein Spiel. Beim Rest sieht es anders aus. Und aus einem Spiel allgemeine 80% zu machen, wie es gewisse User gern sehen würden, ist doch sehr vermessen.
.

nochmal, ich sagte bis zu 80%. was ist daran nicht zu verstehen,bzw was ist daran falsch? zudem, bei 2 von 6 getesteten Spielen (hoffe i habe die zahlen jetzt richtig im kopf), hat man die 80% gehabt. Wenn man CF zum laufen bringt, sinds bis zu 50% der spiele. mit cf ist sie aber allgemein überall schneller.

Bei PCGH warens 33% der getesten Spiele, in denen knapp 80% erreicht wurden, da dann von Fanboy übertreibung zu reden ist ein wenig übertrieben. Guck dir einfach mal die anderen Tests an, da wo mit CF getestet wurde (an dieser stelle nix gegen PCGH, CF läuft nun mal nicht immer ohne arbeit,vor allem net mit Betatreibern), da war sie häufig 80% schneller. zwar nur maximal. Aber ich kann mich auch nicht erinnern, dass ich je sagte, sie ist 80% schneller. Aber leute,die ihren GTX280 kauf verteildigen drehen einem anderem gerne die Worte um.^^


gruß
 
Ich hab den ganzen Threat von Anfang an verfolgt und niemand der seinen GTX 280 Kauf verteidigt hat irgendjemand von den ATI Boys die Worte im Mund umgedreht. Zumal muss hier keiner einen GTX 280 Kauf verteidigen warum auch. Das müsste man nur tun wenn man die falsche Wahl getroffen hätte und wenn man so nach den Kommentaren geht hier und bei PCGH hat man das wohl nicht. Ganz einfach und wem es nicht passt der soll sich eine X2 kaufen bleibt doch euch überlassen. Hier jetzt langsam einen Krieg von GTX vs potentiellen X2 Käufern zu starten ist absolut lächerlich und sinnlos. MOD bitte macht ein Schloss auf den Threat denn langsam wirds peinlich.
 
Unyu schrieb:
Dazu muss man sagen das:
1. zocker28 ein absoluter Fanboy ist.
2. Durch Fraps aufgezeichnete Frametimes erwiesener massen nicht korrekt sein müssen./selbst wenn die Frametimes im

gleichem Abstand kommen, müssen die Frames nicht gleich alt sein.
3. Da traue ich lieber

http://www.pcgameshardware.de/aid,6...weist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

Aus dem PCGH Artikel über die Mikroruckler

[...]die wir mittels Fraps protokollierten. Es stellte sich heraus, dass das Tool nicht immer akkurat das misst, was auf dem Bildschirm wiedergegeben wird. Wir versichern Ihnen aber, dass das "Haken" beim Spielen ähnlich auffällig ist wie die Ausreißer im Benchmark. [...]

Kurz gesagt: "Öhm, hey das Tool ist net ganz korrekt, aber wir machen daraus trotzdem ne Grafik auch wenns net stimmt. Aber glaubt uns, da sind wirklich ruckler, echt jetzt!!!11"

So kommt das für mich rüber wenn ich ehrlich bin.

Dann hier noch ein guter Post wie ich finde. Will damit keinem auf den Schlips treten, aber ich sehs wie der User.

Auch wenn Zocker nen Fanboy ist, glaub ich seinem Test. Im Thread werden ja noch mit Crysis direkt die MR getestet. Das und das mal anschaun. :)

Das ist TSSAA vs EATM.
Ich meinte speziell (OG)SSAA. :)

Aber gut mecker ich über EATM:
http://enthusiast.hardocp.com/image.html?image=MTIxNjUzMjA0NVllSElBYUxjSkRfNV8xNF9sLnBuZw==
Vergleiche das mal, damits einfacher wird nur jeweils das erste Bild.
Gerade die Äste sind bei TSSAA einfach runder. Und trotzdem nicht weichgezeichnet!
Und imho sollte man auch hinten am Quermast Vorteile entdecken.

Ehrlich gesagt, find ich sieht das ATI Bild besser aus, dort kann ich hinten bei dem Querträgern die "Kreuze" zwischen den Querträgern besser erkennen als bei dem Nvidia Screen. KA, wie das mit dem "ultra-pwnage"-AA von NV aussieht, vlt haste ja mal nen guten Link dafür. :)

€:Neee, kein Schloss, ich brauch noch Feedback. ;)
 
Zuletzt bearbeitet:
Achso ok ;) dann doch besser offen lassen
 
Zurück
Oben