Test Fury X gegen GTX 980 Ti: CrossFire und SLI in Ultra HD und „12K“ im Vergleich

Also immer noch kein SLI oder Crossfire.

Dann warten wir mal auf Directx 12, aber werden damit dann auch die Mikroruckler endlich mal verschwinden ?

Hoffnung stirbt bekanntlich zuletzt, aber ich bin und bleibe weiterhin sehr skeptisch was diese Problematik betrifft.

Mfg
ssj3rd
 
Ab Herbst 2016, ist für mich 4K ein Thema. Erst dann erwarte ich die ersten Single GPU Lösungen. SLI oder CF war und wird kein Thema für mich...ausser DX12 ändert daran etwas gravierend.
 
Witziges Experiment.

SLI, oder auch Crossfire sind mir zwar unsympathisch, aber ich würde sowas eher für 4k, oder 3x Full HD nutzen. Bzw, eher gar nicht. ;-)
Pascal is ja nur noch ein jahr weg ;-)

Aber witzig schon, 3x 4k.
 
StefanG3 schrieb:
Könnte hier mal bitte jemand drauf eingehen? Die CPU hat hier wirklich nur genug Lanes für eine einzige Karte. Man hätte doch einen mit mehr als 32 nehmen müssen, zB den i7-5930K. Dadurch ist der Test doch komplett nichtssagend. Irgendwie ist es wohl auch an mir vorbeigegangen wo das NVidia System gezeigt wird. Wurde da der gleiche Prozi genutzt?

Das ist eine Optimierung am oberen Ende. Der Performanceeinbruch beträgt dabei zwischen 3-10%. Soooo entscheidend ist es eben dann doch nicht.

Um den Einfluss zu beurteilen, musst Du Dir folgendes vor Augen halten (Bandbreite beim Zugriff auf einzelne Speicherbereiche):
Datenübertragung über PCIe, 3.0, 16 Lanes --> 16 GB/s
Zugriff der GPU auf ihr VRAM --> 330 GB/s (bei HBM-Speicher deutlich höher)
Zugriff eines Shader-Cluster innerhalb einer GPU auf das lokale VRAM --> 3000-4000 GB/s
Zugriff eines Shaders auf seine Register --> 15000-20000 GB/s

Du siehst, dass die PCIe-Übertragungsrate im Vergleich zur Verarbeitungsgeschwindigkeit auf einer GPU-Karte vernachlässigbar klein ist, vor allem macht es nun keinen großen Unterschied, ob die Daten ins VRAM mit 8 oder 16GB/s geschrieben werden. In beiden Fällen wird die GPU ausgebremst, falls sie hier auf Daten warten muss.

ssj3rd schrieb:
Dann warten wir mal auf Directx 12, aber werden damit dann auch die Mikroruckler endlich mal verschwinden ?

Mikroruckler verschwinden dann, wenn
a) die fps hoch liegt (> 40-50)
b) Spiele tatsächlich das Split-Frame-Rendering (DX12) verwenden
 
Zuletzt bearbeitet:
Shio schrieb:
Und der Rest der sich über die Treiberversion ärgert:
Euch ist schon bewußt, dass so ein Test einige Tage dauert und nicht innerhalb ein paar Stunden mal eben zusammengerotzt wird?
Da der 15.7 letzten Mittwoch erst rausgekommen ist, liegt es wohl im Bereich des Möglichen, dass vor dem 8ten schon mit dem Test begonnen wurde oder er vielleicht sogar schon abgeschlossen wurde.
Mehr brauch ich wohl nicht sagen, oder?

Richtig, der war da quasi schon fertig ;)
 
das die jungs und mädels bei gamestar so doof sind und nen 3*4k setup als 12k betiteln verwundert mich nicht.
das aber auch ihr hier bei combase so einen stuss von euch gebt finde ich dann doch etwas seltsam.
 
12k steht für die Horizontale Auflösung. Da das Seitenverhältnis nicht stimmt, wurde "12k" in Anführungsstriche gepackt. Ich sehe hier kein Problem dran.
 
Soso...was ist dann die korrekte Bezeichnung? Schon komisch dass das Netz voll von "12k" und scheinbar jeder versteht was man damit meint. Aber erleuchte uns doch bitte.
 
r4yn3 schrieb:
Soso...was ist dann die korrekte Bezeichnung? Schon komisch dass das Netz voll von "12k" und scheinbar jeder versteht was man damit meint. Aber erleuchte uns doch bitte.

https://en.wikipedia.org/wiki/8K_resolution

Schau dir mal die Grafik an, 3*4k ist immer noch 1*4k weniger als 8k :D
Du nimmst die Zahl vorm K durch 2, dann hast du die Anzahl der FullHd Auflösungen nach oben und rechts. Also 12k/2 = 6, wäre 6*1920*6*1080 =74,6 Mio Pixel, 3*4k sind 1920*2*1080*2*3 = 24,8 Mio Pixel.

Die Definition ist bescheuert (2k wäre quasi FullHd :D)
 
12k wäre genau genommen 11.520 x 6.480. Da bei den Formaten immer von derzeit 16:9 ausgegangen wird.
Wenn man 3x 4k Monitor nimmt, hat man eine 48:9 ratio. Das wäre dann eine Ultra Wide 4k Auflösung. Also quasi UW4k. Aber einfacher ist 12k. Damit kommen die meisten klar, und wissen was damit gemeint ist. In 6-8 Jahren wird es dann W4k, UW4k und 8K als Standardmonitore geben. :lol:
 
@mambokurt: Also ich les da bei Wikipedia nur ständig was von 8k. Es ist eine einfache Definitionssache. Scheinbar hat noch niemand definiert, was genau 12k sein soll. Die Leute wissen aber was damit gemeint ist. Selbes Thema gabs auch bei UHD/4k.

http://iq.intel.com/games-move-beyond-high-definition/
 
.Snoopy. schrieb:
Wenn man 3x 4k Monitor nimmt, hat man eine 48:9 ratio. Das wäre dann eine Ultra Wide 4k Auflösung.

Ohne jetzt klugscheißen zu wollen: Ultra Wide ist doch eigentlich 21:9? Da wäre 48:9 schon UltraUltraWide ;)
Ergänzung ()

r4yn3 schrieb:
@mambokurt: Also ich les da bei Wikipedia nur ständig was von 8k. Es ist eine einfache Definitionssache. Scheinbar hat noch niemand definiert, was genau 12k sein soll. Die Leute wissen aber was damit gemeint ist. Selbes Thema gabs auch bei UHD/4k.

http://iq.intel.com/games-move-beyond-high-definition/

Ja, 8k. Und jetzt schau dir mal die Grafik rechts an und stell fest, dass in 8k 4k 4 mal reinpasst. Hier getestet wurden 3*4k, also noch unter 8k. Oder sollen 12k jetzt auf einmal weniger Auflösung haben als 8k?

Wie gesagt: nimm die Zahl vorm K durch 2 dann hast du den Faktor X, der gibt an wie oft 1920px horizontal und 1080px vertikal drinstecken. Bei 12k also 36 mal FullHd.
 
Wie schon gesagt ist es Definitionssache. Wenn ich, besser gesagt das Internet 11520*2160 als 12k definiere, ist es 12k. Solange bis es offiziell eine andere Definition gibt.
 
r4yn3 schrieb:
Wie schon gesagt ist es Definitionssache. Wenn ich, besser gesagt das Internet 11520*2160 als 12k definiere, ist es 12k. Solange bis es offiziell eine andere Definition gibt.

Klar kannst von mr aus auch 600*500 als 40k definieren :p Solln sie halt aufhören mit diesem K-Blödsinn undstatt dessen XFHD definieren. Dann sind 12FHD die 12 fache Anzahl Pixel von normalem FullHD und gut ist. Da 8k aber nunmal jetzt schon so definiert ist wirds irgendwie leicht verwirrend wenn 12k weniger Pixel hat ;)
 
Der Test beweist wieder einmal, dass 4K noch mit vielen Problemchen verbunden ist und die Zeit dafür erst noch kommt.
Ab 2016 dann auch mit Single-GPU, vorher nur mit der Leistungs-Brechstange.
Aber ehrlich, welcher Depp kauft jetzt schon einen 3K €-Rechner, um Mikroruckler und Eingabeverzögerung sowie Strombedarf dieser Konstellation in kauf zu nehmen, wenn man nächstes Jahr für weniger als die Hälfte das Ganze in gut haben kann, mit einer 14nm Single GPU?

Nur solche state-of-the-art-Trottel, die immer alles zuerst haben müssen, um sich an unausgegorener Technik aufzugeilen.
 
zu den leuten die sich über das 1200w netzteil wundern... wie ich schon sehr oft erwähnt habe ist ein netzteil bei 50% auslastung am effizientesten und aus irgend welchen gründen gehts ja die letzten jahre immer um effizienz, siehe die verbrauchs diskussion bei absoluten high-end karten und die teils marginalen unterscheide zw gold silber platin usw. zertifizierten netzteilen, welche teils horrende aufpreise mit sich bringen.

zu den gpus, 4k ist mit aktuellen games in max. settings nichtmal im slu/cf möglich, das wird hier klar. dafür ist denke ich gsync und freesync da. schade finde ich dass man nicht mal z.b. etwas ältere games mitteste wie z.b. für mich sehr interessant battlefield3...da ist denke ich 4k in max. details locker möglich.
das ist ja bei den tests immer so eine sache, wer spielt schon immer die aktuellsten games in vollsten datails usw. usf. trotzdem wird gerade in den kommentaren immer alles über einen kamm geschert.

aber generell ist das mit den kommentaren, gerade hier auf cb immer so ne sache, eigentlich ists verschwendete zeit hier was zu tippen weils einfach so viele leute hier gibt die entweder sehr jung sind oder denen das verständnis fehlt oder sie eben fanboys sind usw. usw.
 
mambokurt schrieb:
Ohne jetzt klugscheißen zu wollen: Ultra Wide ist doch eigentlich 21:9? Da wäre 48:9 schon UltraUltraWide ;)
Das stimmt. Das ist auch definitiv die Kategorie Sehschlitz.

@CB
Ich würde zudem begrüßen, wenn zukünftige Tests mit dem neuen WHQL Treiber von AMD gemacht würden.
 
SirFEX schrieb:
So ein schickes System .... ein schickes Gehäuse ... Wasserkühlung ... dezent farblich abgestimmte Lüfter ... alles in schwarz-rot gehalten ... ein wunderbares großes Sichtfenster ... gesleevte Kabelstränge in entsprechenden Farben ... alles wunderschön ... und dann ... der Fauxpas schlechthin ... ein "Geht-mal-gar nicht" ... Der alles zunichte machende Patzer ... jetzt mal ehrlich ... wie kann man so ein sauber aufgebautes System mit nem hässlichen, überhaupt nicht passenden, silbernen Laufwerk mitten im Sichtbereich verschandeln ???? ... eine wahre Schande ... sorry ... aber das geht mal wirklich gar nicht :-( ... :stock:

Ich find viel schlimmer dass die ~3700€ dafür wollen und es nicht gebacken bekommen die CPU-AiO mit leisen Lüftern nachzurüsten.
Und dann wird schön ein 1200W-Kloper verbaut, dafür ist in dem System weder Platz für eine dritte GPU noch massig HDDs oder sonst einen Stromverbraucher. Da hätte ein 800W-Netzteil auch wunderbar gereicht. Wären mal 100€ gespart... mit 1200W kannst ja fast Quad-SLI fahren. Je nach Karte.
 
r4yn3 schrieb:
Wie schon gesagt ist es Definitionssache. Wenn ich, besser gesagt das Internet 11520*2160 als 12k definiere, ist es 12k. Solange bis es offiziell eine andere Definition gibt.

Eine Definition für ein nicht genormten Multi-Monitorbetrieb gibt es nicht.

FAKT ist das die 11.520 × 2.160 KEIN 12K sind, auch nicht in "." nicht in '.' und auch nicht in >.< oder in sonstigen Hervorhebungen!

Die wohl richtige Bezeichnung wäre 3 mal 4K im 48:9 Format.
 
Finde das System da auch merkwürdig, vor allem die Kühlung.
Wieso nicht Grafikkartenradiator oben anbringen, für die CPU einen 120er Radiator nehmen und den hinten anbringen?
Und vorne am Gehäuse zwei Lüfter die kalte Luft reinsaugen.
Dürfte eine deutlich bessere Kühllösung sein als dass man die ins Gehäuse beförderte Luft vorher noch am Radiator aufheizt ...
 
Zurück
Oben