Welche Karte ist für die Physx am besten ?

@ RaZeR:

CF/SLI mag ja so seine Vorteile haben, nur die Punkte auf der Negativ Seite sind deutlich größer und das sind unleugbare/unwiderlegbare Nachteile:

  • µRuckler: Das ist unabhängig von den FPS. Das hängt ganz allein von der Frametime ab. Praktisches Beispiele: GPU 1 gibt das Bild nach 32ms aus, GPU 2 gibt das Bild erst nach 42ms aus (Ab 33ms entsteht eine Verzögerung und somit auch µRuckler) -> Durch dieses "Loch" entstehen µRuckler bei 100 FPS genauso wie bei 20 FPS (bei letzterem natürlich stärker spürbar durch die unspielbaren FPS zusätzlich!)

    Wie man das wahrnimmt ist von Person zu Person unterschiedlich. Die µRuckler sind aber da und für sehr viele Leute ein No-Go.

  • Leistungsaufnahme: Weitaus höher als bei Single GPU Karten. Spürbar höher und das merkt man auch deutlich bei der Stromrechnung. Speziell unter Last sind das ärgere Stromfresser. Beispiel: 2 GTX 570:

    2 GTX 570 mit Gesamtsystem 670 Watt unter Spielelast
    Vergleich: Einzelne GTX 570 benötigt gerade mal 404 Watt mit dem Gesamtsystem in der selben Situation.
    Unterschied: 266 Watt von SGPU zu MGPU

    2 GTX 570 mit dem Gesamtsystem unter Spielelast: 588,7 Watt
    Vergleich: Einzelne GTX 570 benötigt gerade mal 354,8 Watt mit dem Gesamtsystem in der selben Situation.
    Unterschied: 233,9 Watt von SGPU zu MGPU

    Auch wenn man nur die Grafikkarten alleine betrachtet, machen die den Großteil des hohen Verbrauchs aus:
    2 einzelne GTX 570 ohne Gesamtsystem benötigen 410 Watt
    Vergleich: Einzelne GTX 570 benötigt gerade mal 213 Watt ohne dem Gesamtsystem
    Unterschied: 197 Watt von SGPU zu MGPU

  • Lautstärke: Wohl klar, dass 2 Karten lauter sind als eine einzelne Karte:
    57db (SGPU) vs. 65 db (MGPU)

    In Zahlen ausgedrückt mag das nicht viel sein, doch in der Realität ist es das. Das Fazit der CB-Redakteuer ist wohl eindeutig:

    CB schrieb:
    Während die Lautstärke der Dual-GPU-Systeme unter Windows nur marginal höher als mit einer einzelnen Karte ist, steigt der Geräuschpegel unter Last enorm an. Bereits satte 65 Dezibel messen wir mit zwei GeForce-GTX-570-Karten, und das ist noch das mit Abstand beste Ergebnis. Den letzten Platz belegt die CrossFire-Konstellation bestehend aus zwei „Radeon HD 6970“-Karten. 68 Dezibel erinnern schon an eine GeForce GTX 480.

    Bei CB liegen die Karten sehr nahe beieinander, das ist ein Nachteil bzw. nicht fördernd, aber das tun die meisten PCI-E x16 Slots.

  • Profile: Das wohl lästigste an der ganzen Sache: Wenn ich mir ein neues Game besorg & keine Profile vorhanden sind, hab ich nur drei Möglichkeiten:

    a) Mit einer GPU zocken und somit sinnlos die zweite im Rechner haben
    b) Warten bis AMD/nV ein Update releast
    c) Selbst Profile erstellen mit diversen Tools

    All das = nervig. Ich will zocken wenn ich ein neues Game hab und nicht mal warten bis alles funktioniert um die volle Leistung nutzen zu können!


Fazit:

Wer all diese Nachteile in Kauf nimmt für die zusätzliche Leistung (= der größte Vorteil von CF/SLI), dem steht das frei diesen Schritt zu tun. Wenn man keine extremen BQ-Modi oder Auflösungen über Full-HD fährt bzw. ein Multi-Monitor System hat, dann lohnt sich CF/SLI nur in Ausnahme Fällen. Für 2 - 3 Spiele kauf ich mir kein MGPU System gepaart mit saftigen Nachteilen, nur um diese mit 8x AA anstatt mit 4x oder 2x AA zocken zu können (Metro 2033, Crysis Warhead z. B.)

Jedem das seine: Ich rate von MGPU ganz klar ab. Gründe hab ich gebracht.

PS: Ich hatte testweise eine HD 5970 und das Teil ist hochkant wieder aus dem Rechner geflogen & back to mylemon (Mein Händler bei dem ich meistens kaufe aus Ö)
 
Zuletzt bearbeitet:
Ich biete dir die Gegenteile?
Was bekomm ich dafür?
Mein System wird die 100W im idle SLI nicht überschreiten
Ich sage pauschal, ich betreibe GTX 570SLI mit meinem 530W Netzteil.
Gerne OC gerne mit Prime und Futuremark.

Wir wissen alle was ein Quad Extreme kann und nicht kann.
Wenig Leistung viel Verbrauch.

CF ist potenter als SLI das stimmt.
Weil CF besser skaliert.
Die Rechnung mit den microrucklern geht nicht ganz auf aber ok.
Kenne auch keinen mehr der vor einer Röhre sitzt mit so einem System.


Im Freundeskreis vorhanden:
5970
5970+5870
5850 CF
GTX 580 SLI
GTX 460 SLI
ich ehemals 6870 CF

Wir alle haben eure Wunder noch nicht erlebt aber bitte.
Zum Stromverbrauch.
Rechnet es in Leistung durch Verbrauch um.
Ja wow GTX 570SLI ziehen mehr Strom.
Nur das im Leistungsvergleich ne GTX 580 dann nen ganz kleines Licht ist wird untergraben.

Mir soll es egal sein.
 
Die Rechnung mit den µRucklern geht sehr wohl auf. Das ist hardware/software bedingt eine Tatsache. Diese Verzögerung ist der Grund warum µRuckler überhaupt auftreten. Wie kann das nicht stimmen? :freak:

Das nennt man auch Alternate Frame Rendering bzw. ist das der Modus! :rolleyes:

http://de.wikipedia.org/wiki/Scalable_Link_Interface#Probleme.2FEinschr.C3.A4nkungen
http://de.wikipedia.org/wiki/Alternate_Frame_Rendering_(Modus)

Und SLI mit 530 W NT kannst du unter Last vergessen (Mit einer halbwegs passablen CPU, nicht mit einem Athlon II X2 ohne nenneswerten hohen Verbrauch). Quellen hab ich schon zwei mal genannt hier im Forum. Jede Seite kommt über 530 Watt (auch mit unübertakteten CPUs)

Selbst wenn es mit 530 Watt mit irgendeiner passenden CPU läuft (i5-undervolted von mir aus), ist das NT hart am Limit und die Effizienz ist dahin bei so einer Auslastung!


Was bekomm ich dafür?
Mein System wird die 100W im idle SLI nicht überschreiten

Was bekomm ich denn nun dafür bis auf die Leistung gepaart mit den Nachteilen?

Mein System braucht auch im Idle keine 100W :lol: Was ist da ein Vorteil von SLI/CF?

Aber wahrscheinlich lügt Computerbase, wahrscheinlich lügt guru3d, wahrscheinlich lügt auch hardware-mag und wikipeida (Alternate Frame Rendering und µRuckler) lügt natürlich auch.


Nur das im Leistungsvergleich ne GTX 580 dann nen ganz kleines Licht ist wird untergraben.

Das hab ich im Beitrag oben schon beantwortet: Auch mit der zusätzlichen Leistung hast du jeden der genannten Nachteile trotzdem in vollem Ausmaß und eine GTX 580 reicht in Full-HD für alle Spiele aus bis auf ein paar Ausnahmen wie Metro 2033 oder Crysis Warhead mit max. AA/AF. Dann stell ich für die paar Spiele AA auf 4 oder 2 und hab keine Probleme mehr. Für so etwas braucht man kein SLI/CF!

SLI/CF lohnt sich für extreme BQ-Fetischisten und/oder Leuten, die in 2560x1600 oder mit mehren Monitoren und somit noch höherer Auflösung zocken und dabei alles auf max. mit AA/AF haben wollen!
 
Zuletzt bearbeitet:
@PR3D4TOR

Ich lese in in Deinem Posting viel Theorie, v.a. bzgl. der Mikroruckler. Ich bitte um "eigene" Erfahrungsschilderung. Ich war praktisch(!) eher beeidruckt (2xMSI6970 Lightning) wie wenig davon tatsächlich spürbar ist, nachdem so viele "Wisser" doch alle gewarnt hatten.

Im Übrigen ist SLI/Crossfire wesentlich weniger BQ Fetischismus als Du denkst. Hat man beispielsweise drei Monitore sind zwei dieser Karten auf einmal Pflicht und da fährt man dann vorsichtig 2xMultisampling AA weil mehr nicht geht. Eine einzelne 580GTX würde erbärmlich verrecken.

Mal unabhängig vom Stromverbrauch (den ich bei solchen Anwendungsgeboeten ohnehin für überbewertet halte). Wo waren da die Nachteile noch genau? Ach ja die Mikroruckler die theoretisch sowie praktisch messbar, aber wahrnehmunsspezifisch (bis auf einige Ausnahmen), irrelevant sind.

Edit: Noch kurz zum Thema: Eine extra PhysX Karte lohnt nur in Verbindung mit einer Radeon, ansonsten sind die NVIDIA Karten Potent genug, um "das bischen PhysX" mitzustemmen. Zur Radeon empfehle ich allerdings gerne die 240GT, denn entgegen der schneller, weiter. höher, besser Manier für Physx, sollte man hier wirklich auf dem Teppich bleiben, denn für vorhandene PyhsX Titel liefert diese Karte ausreichend Performance, ohne ein Netzteilstromanschluss zu blockieren.
 
Zuletzt bearbeitet:
Praxis? Wie soll ich dir eigene Erfahrung bringen? Ich hatte nur kurzzeitig die HD 5970 und die Karte ist hochkant rausgeflogen aus o.g. Gründen.

Ansonsten:
http://www.pcgameshardware.de/aid,6...ekt-von-Multi-GPU-Loesungen/Grafikkarte/Test/
(Ist schon älter, aber die Software ist ja auch von damals)

Aktueller:
CB schrieb:
Umso wichtiger ist die Antwort auf die Frage: Hat sich mit den aktuellen Treiber endlich grundsätzlich etwas an dem Phänomen getan? Die Frage kann mit „nein“ beantworten werden. Und damit bleibt es beim zuletzt von uns getesteten Stand der Dinge: Während AMD-Kunden mit CrossFire in vielen Spielen mit Mikrorucklern zu kämpfen haben, sieht es für die Nvidia-Käufer mit SLI zwar etwas besser aus, Mikroruckler gibt es dort aber genauso – sie sind meistens (nicht immer) jedoch weniger stark ausgeprägt.
https://www.computerbase.de/artikel...0/seite-20#abschnitt_das_problem_mikroruckler

EDIT:

Hier noch ein "Praxis-Beispiel" aus dem CB-Test:

CB schrieb:
Mafia 2 zeigt dann, dass die Mikroruckler in ungünstigen Spielszenen derart immens sein können, dass Multi-GPU überhaupt keinen Sinn mehr hat. Denn während zum Beispiel Innenräume noch gut mit zwei GPUs laufen, werden Außenszenen mit Vegetation zur reinsten Ruckelorgie, sodass trotz höherer Frameraten eine einzelne Grafikkarte klar sinnvoller ist – unabhängig davon, ob es sich um CrossFire oder SLI handelt. Solche Fälle sind die Ausnahme, es gibt sie aber immer noch.

Sind zwar Ausnahme Fälle, aber anscheinend immer noch präsent aufgrund der µRuckler.

Und wie kannst du die µRuckler Thematik bitte als irrelevant bezeichnen, wenn es ganz klar vom jeweiligen Betrachter abhängt? Ist widersprüchlich.


laryllan schrieb:
Hat man beispielsweise drei Monitore sind zwei dieser Karten auf einmal Pflicht und da fährt man dann vorsichtig 2xMultisampling AA weil mehr nicht geht. Eine einzelne 580GTX würde erbärmlich verrecken.

Das hab ich doch extra geschrieben in meinem Post :freak:

PR3D4TOR schrieb:
Wenn man keine extremen BQ-Modi oder Auflösungen über Full-HD fährt bzw. ein Multi-Monitor System hat, dann lohnt sich CF/SLI nur in Ausnahme Fällen.

Mal unabhängig vom Stromverbrauch (den ich bei solchen Anwendungsgeboeten ohnehin für überbewertet halte). Wo waren da die Nachteile noch genau? Ach ja die Mikroruckler die theoretisch sowie praktisch messbar sind, aber wahrnehmunsspezifisch (bis auf einige Ausnahmen, irrelevant sind.

Schön dass du den Stromverbrauch hier für überbewertet hältst. Ändert nichts daran, dass die Karten sich das genehmigen.

Nachteile außer den bereits genannten Stromverbrauch und µRuckler? Hab ich auch schon geschrieben:

- Lautstärke
- Profile müssen für jedes Game vorhanden sein
 
Zuletzt bearbeitet:
@PR3D4TOR
Und wieder lese ich nur "Theoretisches", zweifelsohne interessant. Hätte ich dem uneingeschränkt geglaubt, würde ich immer noch vor einem kleinen 24 Zoll Full HD Monitor sitzen. Mach doch mal Deiner eigenen Erfahrungen und rede der Jubel- und Nachplapperpresse nicht nach dem Mund.
Meine Erfahrungen, in diesem Fall mit Crossfire, sind durchweg sehr positiv und das eher zu meinem Erstaunen, da ich mich vorher ebenfalls mit diesen teils nicht haltbaren Schulbladenargumenten identifizierte (Mikroruckler, Stromverbrauch, Lautstärke, Profile; mein Haus mein Auto meine Frau).

Lautstärke?

Als Tinnitusgeschädigter und dadurch überemflindlicher Lärmallergiker kann ich über das Argument nur schmunzeln. Gutes Gehäuse, die passende Hardware, ein wenig die Lüftersteuerung korrigiert und was hört man: Nüscht!

Profile müssen vorhanden sein?
Treiber von Single Card Lösungen müssen auch aktualisiert werden (Herstellerübergreifend), damit das ein oder andere Spiel vernünftig oder überhaupt läuft. Selbstredend trifft es Multi-GPU Lösungen häufiger.

Stromverbrauch?
Nach wie vor ein Sinnlosargument, wenn man zum Daddeln drei Monitore anhat (ich) oder seine CPU auf 4,8 Ghz zum Daddeln übertaktet (Du), wo doch "alle wissen" das 90 % der Spiele maximal 2% dadurch profitieren, mal davon abgesehen, dass eine einzelne GTX580 wirklich nicht gerade Energieeffizient ist.

Mirkroruckler?
achja .. ich vergaß. Diese Seite hat ja geschrieben und die haben getgestet. Seltsam nur, dass, sofern gut konfiguriert, die Sache weniger dramatisch ist, wie mal immer so liest.

Viele Grüße
 
EDIT:

Weißt du was, ich klinke mich hier jetzt aus nach diesem Post, sinnlose Diskussion. Du liest meine Postings nicht mal: ICH HATTE EINE HD 5970 UND HABE EIGENE ERFAHRUNGEN GEMACHT! SCHON MEHRMALS HIER GESCHRIEBEN!

Ich finde es gut, dass du Crossfire so positiv siehst, aber das sind subjektive Eindrücke und nicht für die Allgemeinheit gültig.

Es gibt Leute, denen der Stromverbrauch wichtig ist.
Es gibt Leute, die µRuckler stark wahrnehmen (Mich eingeschlossen -> HD 5970, nur falls du es wieder überlesen hast wie die anderen male)
Es gibt Leute, denen die Lautstärke von MGPU-Systemen zu laut ist (Mich eingeschlossen -> HD 5970, nur falls du es wieder überlesen hast wie die anderen male)
Es gibt Leute, die nicht für jedes Spiel auf Profile warten wollen oder sie nicht selbst erstellen wollen. Der Vergleich mit der Treiberinstallation ist absoluter Stuss. Die Treiber installiert man vlt. alle 1 -2 Monate neu und sind keinesfalls notwendig in den meisten (99% ca.) Fällen um neue Games von Anfang an fehlerfrei zocken zu können. CF/SLI Profile müssen hingegen ständig vorhanden sein und sobald ein neues Game kommt oder bei einem alten Game die Profile fehlen, muss man sich selbst ans Werk machen oder brav warten. Wollen manche nicht (Mich eingeschlosse -> HD 5970, nur falls du es wieder überlesen hast wie die anderen male)

Also: Deine Meinung ist nicht für die Allgemeinheit gültig. Etwas arrogant dass zu glauben, nicht?

Wenn du weiter diskutieren willst, können wir das per PN tun, aber hier hab ich keine Lust mehr, wenn meine Posts nicht gelesen werden.
 
Zuletzt bearbeitet:
@PR3D4TOR

Die "Tatsache", dass meine Meinung für die Allgemeinheit gelten soll, wird mir hier gerade von Dir angedichtet. :o

Im Übrigen ist mir das ganze zu Offtopic und auf einen Nenner kommen wir diesbezüglich wohl eher nicht :-)

Ich für meinen Teil bin recht froh, entgegen meinen eigenen Erwartungen, "andere" Erfahrungen gemacht zu haben.

Viele Grüße
 
Leuten denen der Stromverbrauch wichtig ist?
Darf ich mal lachen?
Das meine ich ernsthaft.
Du nimmst tests von einem Quad Extreme muss man dazu noch was sagen?

Ich brauch meinen i5 nicht undervolten, ich bekomme nicht mal übertaktet die Werte hin die hier CB hat.

Mit meiner 6950+2500K Stock unter Prime und Futuremark extreme, habe ich einen Verbrauch von sage und schreibe max 250W.

Vielleicht verbraucht dann die GTX weitere 300W kann ja gut sein.
Habe auch 2x6870CF betrieben das netzteil war immer kalt, niemal laut!

Ich kling mich auch aus, soll jeder machen was er will.
Die Tests nachbeten kann ich auch.
Vielleicht spiele ich auch die falschen Spiele sowas wie solitär vielleicht gibt es dort dann wirklich optische Microruckler.

Ich konnte nichts feststellen.
FarcryII, Crysis 1-2, metro, Dirt 1, NFS HP, Test Drive 2, Black Ops, Dead Space 2.
Vielleicht sind das alles die falschen games, aber für sowas hole ich mir Dual Karten.
Muss aber jeder selber entscheiden.

CB mit HD 6950 Quad Extreme
ich mit 6950 i5.

idle:
167W CB
74W ich

Spiele Last:
326W CB
250W ich (maximalste Vollast welches kein Spiel aufm Markt oder benchmark simulieren kann).

Vielleicht hab ich einfach auch ne schlechte und langsame Karte oder CPU erwischt.
Ach ne ich bin in der OC Weltrecordliste teilweise in den Top 50 hmmm.
Die Werte die da ermittelt werden kannste in die Tonne treten.

Das was CB im idle mit der 6950 hat, schaff ich nicht mal wenn ich mit Prime 95 eine CPU Auslastung von 100% erzeuge.
Fehlen mir zwar nur 7W da ich auf 160W komme aber da läuft meine CPU auf 100% nicht auf 0!

Wenn man anfangen will strom zu sparen, sollte man sich ne andere CPU kaufen, soll schon helfen.
Ach übrigends ich habe mit 6870CF im idle 83W gehabt.
Man wird den Verbrauch also überleben.
 
Zuletzt bearbeitet:
Schön dass du auch nichts feststellen konntest und der Stromverbrauch für dich nicht wichtig ist, für andere sind µRuckler eben ein Problem & da ist auch der Stromverbrauch evtl. wichtig. Sind ja nicht nur 10 - 20 Watt Unterschiede von denen wir hier reden. Man kann nicht immer von sich selbst ausgehen und dann automatisch auf andere schließen. In Punkto Stromverbrauch gehen die Meinungen sehr auseinander.

Ich erachte SLI/CF für sehr sinnvoll in Auflösungen über Full-HD (2560x1600) oder mit Multi-Monitor Systemen oder für BQ-Fetischisten, aber für Full-HD oder gar darunter einfach nur unnötig. Da reicht eine SGPU Karte genauso aus. Notfalls AA statt auf 8, auf 2 - 4 reduzieren in einigen Games wie Metro 2033 oder Crysis Warhead.

Ob man CB, guru3D oder den anderen Seiten in punkto Stromverbrauchsmessungen vertrauen schenken kann/glauben Schenken kann oder dir, kommentier ich jetzt mal nicht, weils sonst lächerlich wird.

Das hat nichts mit Tests nachbeten zu tun (zudem: Was hat der i7 EE damit zu tun? Ich wollte nur den Unterschied SGPU <-> MGPU verdeutlichen und dafür eignen sich alle geposteten Links recht gut, auch mit einem Athlon II undervolted ändert sich der Stromverbauch von SGPU zu MGPU nicht, nur der des Gesamtsystems), den Stromverbrauch und andere Messungen kann man sich sicherlich von renommierten Seiten wie CB/HT4U etc. holen und darauf vertrauen.

Das mit den µRuckler durfte ich selbst erleben und ich hab sie wahrgenommen und dementsprechend als störend empfunden.

Ich zitiere dich zum Abschluss und das wars dann endgültig hier im Thread. Ich hab meine Posts ausführlichst begründet, mit Quellen aus dem Internet untermauert und zusätzlich noch meine persönlichen Erfahrungen mit meiner einen Dual-GPU Karte miteinbezogen.

Ich kling mich auch aus, soll jeder machen was er will.
 
Zuletzt bearbeitet:
So,
meine EVGA GTX 580 ist heute gekommen, gleich den Accelero Xtreme Plus drauf und ein bisschen auf
900/1800/2103
Dann mal gleich ein paar Spiele wieder angezockt um den Unterschied zu sehen, siehe da Mafia II auf FullHD alles auf MAX und PhysX auf "Hoch" 80 FPS konstant, wenn ihr das jetzt immer noch nicht glaubt kann ich auch gern ein Video machen...
Bei ihm stimmt am PC was anderes nicht an der Graka liegt es sicherlich nicht.
 
Attackman schick mir mal bitte bench Screens 3D mark 11 und Vantage,
gerne auch mit deinen 900Mhz, möchte mal sehen in welcher Liga meine karte spielt
und dann werde ich diese Tests durchführen und gucken was los ist.
 
Werde im laufe des Tages mein Sysprofile anpassen, da kannst du dann alles sehen.
Ich wollte es doch auch erst nicht glauben, aber CPU wird in Mafia höchstens 50% ausgelastet... da hängt alles an der Graka, es geht mir hier kein Stück drum zu sagen "hier ich hab die miesten FPS und hab den längsten"
Möchte nur sagen dass es bei ihm meiner Ansicht nach nicht an der Karte liegt... Finde die Werte einfach unreal.
 
lol was für ein quatsch, mafia2 kann man nichtmal mit einem 990x und GTX 580er mit mehr als 67fps zocken
entweder ist dein ausleseprogramm herbe im arsch oder du laberst einfach nur sch.......
sorry
 
Ich kann nur sagen was FRAPS oben rechts anzeigt ^^ sag mir ein anderes Programm zum auslesen dann nehm ich das und mach dir nen Screenshot...
 
also ich würde es mal mit dem afterburner oder evga pre versuchen, ist doch bei der 580er dabei.

weißt du wenn du meinen link ober angeklickt hättest würdest du wissen das es bei mafia2 unmöglich ist 80fps zu bekommen.

du musst allerdings auch alles an machen was da steht ;-) mach mal ein video davon wie du alles im menü an machst das game dann neu startest und dann gehst du in joes app. das kannste ja dann wenn du 80fps hast auf youtube stellen........
dir werden die leute die höhsten summen für deinen rechner zahlen.........
 
Hab jetzt eben mal alles hochgestellt was ging und ein Video gemacht - ich gebs zu am Anfang gabs es kurz einen Einbruch denke mal da hat es nach etwas Nachgeladen, aber sonst sieht das doch ganz stabil aus oder? Poste den Link später es läd noch hoch^^
 
Hast du mit FRAPS aufgenommen? Das kostet auch ordentlich an Performance^^
 
Nein das ist mir klar xD^^ Habs mit meiner "Flip UltraHD" aufgenommen ist so ein kleiner Camcorder^^
http://www.youtube.com/watch?v=NqJ6wjqpmfk
Also am Anfang brechen die FPS kurz auf 50 ein aber sonst sind die doch stabil oder wie wurde das getestet?^^ Dann sagts mir bin eben nur kurz bissl rumgelaufen.
 
Zurück
Oben