Test Test: Radeon HD 6900 CF vs. GeForce GTX 500 SLI

Nach mehreren SLI- und CF-Versuchen muss ich einfach sagen, dass SLI/CF meiner Meinung nach immer eine Nischenlösung bleiben wird. Dazu sind die Nachteile einfach zu gravierend. Klar, wer unbedingt auf 30" mit hohen AA/AF-Einstellungen zocken muss, dem bleibt nicht viel Alternative. Dies betrifft aber wohl die wenigsten. Ich wundere mich immer über Leute, die 16xx-Auflösungen fahren und unbedingt ein SLI-System brauchen. Man erkauft sich damit Probleme, die man eigentlich nicht haben müsste.

P.S.: Das ATI immer noch nicht das Thema MR angegangen ist, halte ich schon für frech oder man ist eben selbst nicht wirklich von CF überzeugt.
 
Bei mir gibt es schon seit Jahren Crossfire / SLI Config's (aktuell GTX580), aber Mikroruckler sind mir bisher noch nicht aufgefallen. Vermutlich weil ich, bedingt durch kräftige CPU's als "Antreiber", nie wirklich in den Grenzbereich komme.

Gruß, ujmoskito
 
Für mich ist unverständlich das sich die NV-Karten im idel nicht abschalten.

Kann das nicht Treiberseitig nachgerüstet werden!?
Leistung stimmt, und bei solchen System kann man vielleicht auch über noch mal 50Watt idel hinwegblicken, aber muss doch nicht sein :)

Die AMD Geschwindigkeit gefällt mir!
 
@rumpel01

ist schon klar, es ist wie es immer ist bei euch. eure meinung zählt, sonst keine! aber ist auch egal! jeder der sich tagtäglich mit solch einem multi gpu system beschäftigt, hat 100% mehr erfahrung damit. wie gesagt microruckler sind messbar, aber nicht wahrnehmbar. und die skalierung wird mit den neuen passenden treiber definitiv wesentlich besser sein da kannst du dir gewiss sein.

ich frage mich wer fps vorgänge im millisekunden bereich wahrnehmen kann, also ich kann es nicht. und der wo sagt er würde das sehen, der ist ein naturtalent und sollte als nächster formel 1 weltmeister eine neue karriere anstreben.

MFG
 
Zuletzt bearbeitet:
Endlich mal so ein Test, danke.
 
wie gesagt microruckler sind messbar, aber nicht wahrnehmbar.

Ich habe selbst 1 1/2 Jahre ein CF-System gefahren. Daraus habe ich die Erfahrung mitgenommen, dass neue Treiber ggf. fehlende CF-Profile ergänzen. Dies betrifft aber nur einzelne Titel (logisch, ein Profil für ein Spiel), niemals alle Titel insgesamt, und schon gar nicht führt das dazu, dass auf einmal Skalierungen in de Himmel schießen. Ist das Profil da, funkt auch CF bzw. die Skalierung, und dann war es das. Im Falle eines Falles betreibt man exe-Renaming, wenn es mal gar nicht geht. Mikroruckler hatte ich z.B. messbar und fühlbar bei Assassins Creed I noch bei 50 (!) FPS. Es ist auch hier je nach Spiel unterschiedlich, und man merkt es erst richtig, wenn man daneben ein Single-GPU-System stehen hat, das entweder die selben FPS oder etwas weniger ausspuckt.

Ist ja auch schön, wenn Du das nicht wahrnimmst, aber es gibt andere, die das sehr wohl merken. ;)

https://www.computerbase.de/forum/threads/microruckler-fuer-alle-testprogramm-fuer-singlegpu-nutzer.458463/

Einer der "Ursprünge" der Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844
 
Zuletzt bearbeitet:
Neo_Xsendra schrieb:
du bist in der lage bei den frameverleufen, die nichtmal 1 FRAME/SEKUNDE anzeigen MICRORUCKLER rauszulesen?

ich bin beiindruckt ...
trotzdem empfehle ich FAKTEN: https://www.computerbase.de/2011-01/test-radeon-hd-6900-cf-vs-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler
Fazit: du hast keine ahnung wovon du redest und solltest definitiv den artikel nochmal ganz lesen :/

Wer im Glaushaus sitzt...

https://www.computerbase.de/2011-01...00-sli/20/#abschnitt_das_problem_mikroruckler

Crysis: Klar an Nvidia
Just Cause 2: Leichte Vorteile Nvidia
Stalker CoP: Gleichstand (evtl. leicht für NV)
Metro 2033: Leichte Vorteile ATI
Mafia 2: Leichte Vorteile AtI

Laut diesen Frameverläufen hängen die Mikroruckler weniger an NV/ATI, sondern am Spiel in Kombination mit NV/ATI.

Die Ausschläge sind aber teilweise so extrem, daß man das mal mit einer Single-Karte vergleichen müsste.
 
.da frag ich mich doch, wenn dem so ist warum skaliert sowohl die 570 als auch die 580 von 4x --> 8x im Gesamtrating besser.
Weil nicht jedes Game im Parcours ein Vram Fresser ist. Und Fermi erstaunlich lange durchhält ohne komplett einzubrechen. Da muss man wieder mal den Hut vor dem genialen Speichermanagement ziehen, sonst würde die ganze Sache wirklich noch schlimmer aussehen. Auf 0 ist ja keine Fermi eingebrochen. Die GTX 570 zb. bei SCII rechnet ja immer noch munter weiter obwohl der Vram komplett übergelaufen ist. Alle anderen Grafikkarten die ich kenne würden hier abstürzen also 0FPS bringen. Das Setting das eine Fermi auf 0 einbrechen lässt durch Vram Mangel hab ich noch nicht gesehen. Vor allem weil keine HD Mods benutzten werden in den Tests.
 
Zuletzt bearbeitet:
@rumpel01


ich weis nicht wie lange es her ist das du cf betrieben hast!? was ich aber weis ist, das viele menschen vorschnell die flinte ins korn werfen was optimierungen angeht. und dan sachen wie crossfire oder auch sli verteufeln.

mal ein beispiel 2007 hatte ein kollege 2x 8800gts im sli, und das war bis auf ein paar spiele richtig bescheiden. mittlerweile sind ca 3 1/2 jahre vergangen, und mein bekannter verteufelte multi gpu all die zeit! jetzt allerdings sah er meine zusammenstellung und er staunet bauklötze was multi gpu angeht. und seine meinung hat sich sehr geändert, denn seine singel karte ist wirklich sehr gut (HD 5850 bios gemodet) aber die leistung meines cf verbundes von 2x hd 5770 ziehen bei manchen spielen einfach grandios vorbei! da sieht die karte kein land!!!
 
Lonesloane schrieb:
Wer im Glaushaus sitzt...

Crysis: Klar an Nvidia
Just Cause 2: Leichte Vorteile Nvidia
Stalker CoP: Gleichstand (evtl. leicht für NV)
Metro 2033: Leichte Vorteile ATI
Mafia 2: Leichte Vorteile AtI

Laut diesen Frameverläufen hängen die Mikroruckler weniger an NV/ATI, sondern am Spiel in Kombination mit NV/ATI.

Die Ausschläge sind aber teilweise so extrem, daß man das mal mit einer Single-Karte vergleichen müsste.

Dann behalt mal deine Steine für dich.

Bei Just Cause 2 von "Leichten Vorteilen" und bei Metro von nem leichten Vorteil für AMD zu reden sagt ja wohl alles :rolleyes:

Und es hat nie jemand behauptet, das es nicht mit am spiel liegt wie stark sowas auftritt (ich mein schau dir mal mafia an ... aber das ist eh beschissen programmiert)

Es ist und bleibt FAKT das NV das problem besser gelöst hat, wenn auch nicht behoben. Aktuell weis ich nichtmal ob AMD überhaupt interesse daran hat das anzugehen. denn während sie an der skallierung arbeite hat sich dabei so gut wie nichts getan. frei nach dem motto "wenn wir die framezahl erhöhen, fällt es weniger leuten auf...
 
Beeindruckender Test. :D
 
was ich aber weis ist, das viele menschen vorschnell die flinte ins korn werfen was optimierungen angeht.

Was heißt vorschnell? Es ist die verdammte Aufgabe von nvidia und AMD dafür zu sorgen, dass ihre Technik ordentlich funktioniert, und da sehe ich bei beiden, und auch bei AMD seit Jahren keine entscheidenden Schritte, um die Probleme zu beseitigen:

2008:
https://www.computerbase.de/2008-08/test-ati-radeon-hd-4870-x2/24/#abschnitt_problem_mikroruckler
https://www.computerbase.de/2008-01/test-nvidia-3-way-sli-triple-sli/7/#abschnitt_das_multigpuproblem_mikroruckler (Nvidia-bezogen)
2009:
https://www.computerbase.de/2009-01/test-nvidia-geforce-gtx-295/21/#abschnitt_mikroruckler_auf_der_gtx_295 (nvidia)
https://www.computerbase.de/2009-11/test-ati-radeon-hd-5970/24/#abschnitt_fazit
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5850-crossfire/19/#abschnitt_mikroruckler_auf_der_radeon_hd_5800
 
Zuletzt bearbeitet:
Bei so teuren Systemen müsste alles Plug and Play sogar noch besser wie bei günstigen single GPU funktionieren. Eigentlich zahlt man da ja genug mit für Premium Service. Den man ja nicht bekommt, ganz im Gegenteil, bei AMD kümmert man sich 0! Um eine 5970, Hauptsache 600€ dafür kassiert haben. Der Rest ist das Problem des Kunden. Noch dazu Vram Krüppel Karten für so einen Preis. Der AF Skandal ist wirklich gar nix gegen so eine Abzocke... Balken Balken Balken. Mehr ist das nicht für AMD.
http://www.pcgameshardware.de/aid,6...vidia/AMD-Advanced-Micro-Devices-Inc-US/News/
Wir glauben jedoch, dass Nutzer von CrossFire eher auf höhere Frameraten abzielen (und auch wissen wie diese erreicht werden können), bei denen der gefühlte Effekt dieser Microruckler stark abnimmt.
Sprich als Nutzer hat man gefälligst selber dafür zu sorgen das man min. 60FPS-100FPS konstant hält. Bei höchsten Einstellung + Karten wie der HD 5970 2x1GB. Wenns nicht so traurig wäre, lustiges Statement von AMD.
 
Zuletzt bearbeitet:
DJMadMax schrieb:
Einfach VSYNC aktivieren und glücklich sein.

Also, wie kommt den jetzt diese Meinung hier zustande, das V-Sync die MR beseitigt ?
Was hat V-Sync mit den MR zu tun ??
V-Sync veranlasst die Bildausgabe der Grakka auf das Signal des Monitors zu warten, sprich Synchronisation. Somit entstehen keine Tearings(Bildverrisse). Aber die MR werden dadurch nicht geglättet oder beseitigt.
Ich spiele auch nur mit V-Sync und habe auch etliche CF-Gespanne gehabt.
Alles mit MR verseucht !

Die V-Sync hilft da rein gar nichts !

Lonesloane schrieb:
4.
Mikroruckler: Schaut sich hier jemand mal die Frameverläufe an???
Absoluter Gleichstand!
Den einzigen Trumpf hat NVidia bei Crysis! Da allerdings heftig! Und gerade in Crysis ist SLI sinnvoll wegen niedriger Frames.

Ich glaube eher, das Nvidia sich spezielle auf den Test von CB eingestellt hat und genau in dieser Testszene die MR verringern konnte, daher auch die geringeren FPS.
Was vor der Szenen und nach der Szene passiert, ist nicht getestet. Das kann sich nämlich deutlich verändern !

Ich teile auf jedenfall das Fazit von CB.
CF oder SLI ist einfach zu nichts zu gebrauchen, außer für Vantagepunkte.
 
@rumpel01

du beantwortest noch nicht mal fragen! wie lange ist es her das du cf hattest???

ich habe mein system auf microruckler schon getestet, und die fps gehen auch runter aber das ist im bereich von 20 fps aber nie unter 60 fps. mein system ist haargenau abgestimmt, und solche massiven drops sind einstellungs probleme von benutzern, programen und spielen! und da kannst du mir soviele links schicken wie du möchtest! es fällt mit der wahrnehmung des menschlichem auge nicht auf. die augen und das menschliche hirn ist bei gewissen messbaren toleranzen nicht fähig, das wahrzunehmen. das wird dir auch jeder arzt oder mediziner bestätigen. und da kannst du testen wie du willst. geht das nicht in deinen kopf!?

ach noch was, bei cod black ops erzwinge ich über die konsole 100fps und die laufen stabil, ohn drops oder sonstiges. da ich dies 100 fps minimum brauche um richtig gut spielen zu können! und ich spiele mit 1920x1080 4xaa 16xaf alles auf anschlag von der quali! also erzähl mir nichts vom pferd!
 
Zuletzt bearbeitet:
Wird mich mal sehr freuen wenn ihr die HD6850 im crossfire testen könnte kann auch nur son kurtz test sein einfach zum schauen :) bin am überlegen ob ich das mache ;)
 
Die Links zeigen, dass es 1. sehr wohl wahrnehmbar ist (Siehe auch den Anstoß der Diskussion in #126 beim 3dcenter aus dem Jahr 2007. Dass es überhaupt wahrgenommen wurde ist der Grund dafür, dass es heute ein Thema ist!) und 2. dass sich zumindest bei ATi/AMD seit über zwei Jahren sich nichts signifikant geändert hat, und aus dem Jahr 2008/9 stammen auch meine Erfahrungen damit. ;)

Wenn Du mit 60 FPS spielst ist das doch schön für Dich. Andere nutzen den Spielraum von ca. 40-60 FPS, um punktuell zusätzliche Bildqualität (Stichwort: SGSSAA und Transperenz-AA) einzuschalten. Mit einem mikroruckelnden System geht das freilich nur bedingt. Konkreter Nutzen: relativ überschaubar.
 
Zuletzt bearbeitet:
Wo war den PhysX aktiviert? Auf den Geforce Karten oder auf der CPU?
Wäre zumindest mal bei Metro interessant..
 
@OldDirtyBastard haha, klar ist das Mikroruckeln wahrnehmbar, Gott was bin ich dankbar von einem 5770 CF auf eine 6970 zu wechseln.

Leistungstechnisch sind sie auf einer Höhe aber sorry, meine subjektive Wahrnehmung sagt mir dass die 60fps mit der 6970 sich wesentlich runder anfühlen als die 60fps 5770 CF :D

Komm mal aus deinem Loch und akzeptier auch andere Meinungen
 
Kasmo

Ich dachte du kennst HisNs Thread? Was haben die Pixel mit dem Vram Verbrauch zu tun?

Die Pixel relativ wenig ohne hohe AA Modi ! Deshalb ja meine Aussage : Viel Pixel (2560x1440) auf wenig Fläche (z.Bsp. 27") benötigen weniger AA, da sich eine Art real life Downsampling einstellt. Womit man wiederum weniger Vram braucht. Welchen Teil davon hast Du nicht verstanden ?

Mit 1,3GB Vram hat ein TRI-SLI Setup faktisch keine Chance auch nur in die Nähe einer 3GB GTX 580 zu kommen

Das ist doch pauschaler Mummpitz !

Erstmal gibt es nicht nur crysis und Co, sondern auch gute Spiele die nicht extreme Vram Verbräuche mit AA haben (@ FullHD). Wenn Kozacks da dann noch Wert legt auf viel fps, weil er online shootert, liegt er mit seinen Karten zumindest Goldrichtig.

Desweiteren Moddet Kozacks wohl kaum, er fässt ja nicht mal seine Hardware an. Dann brauch er auch keine 3GB Vram.

Also meine Karte wird so kühl wie möglich fahren und daher die Performance per Watt einer HD 6870 erreichen.

Also ja, Kälte hilft, aber sie kann nicht zaubern ;)

Wenn du deine Karte übertaktest wird sie gar nicht mehr so wahnsinnig dolle von den drei kleinen 80ern gekühlt werden. Und früher oder später musst du auch übertakten mit dieser Karte, zumindest wenn du deinen 5 Jahresplan einhalten willst.

Das ist wohl das Hauptproblem von multi-GPU Usern. Die leben in ihrer eigenen Welt und haben keinen direkten Vergleich. Würde man ständig ein besseres single GPU System daneben aufbauen und dann zeigen was möglich ist, dann würde das ganz anders ausschauen. Aber es ist wie einer schon sagte, wenn man besseren Wein nicht kennt, vermisst man ihn auch nicht.

Ich machte es wie wohl die meisten, ich kaufte mir eine Karte mit dem Hintergedanken mir eventuell noch eine zweite dazu zu kaufen, wenn es mehr Power sein könnte. Nun hatte ich 4 Monate ein single System und bekomme eine zweite zugesandt. Hätte ich nun festgestellt das die Karte nichts bringt oder sie sich nicht gut OC'en lässt hätte ich sie selbstverständlich kostenfrei zurückgeschickt, wie die meisten anderen auch. Die SLI Entscheidung ist bei den meisten also bewusst getroffen und einige Leute meinen sie müssen ihre Meinung zu Themen abgeben von denen sie keine Ah...

Die meisten bekommen ja nichtmal mit das ihre komplette Rohleistung gar nicht genutzt werden kann bzw. in Bildqualität umgewandelt werden kann

Speziell wenn Vsync und SLI kombiniert wird nutzt man oftmals nicht die ganze Leistung. Man spart ein wenig strom und Wärme und genießt. Man hat aber trotzdem immer genug super Power wenn's drauf ankommt (mit vielleicht 0,8% Ausnahme wenn tatsächlich mal der Vram ausgeht). Das macht den echten Enthusiasten aus, wieder so ein Punkt bei dem Du ...
 
Zuletzt bearbeitet:
Zurück
Oben