Warum SLI/Crossfire nicht tot ist.

HarriHarro

Newbie
Registriert
Okt. 2018
Beiträge
3
Man sieht es Mittlerweile an den CPU's. über 7GHz ist nur mit flüssigen Stickstoff möglich und auch eine GPU lässt sich auf Trockeneis kein bisschen höher Takten. Und ich denke nicht das es eine bessere Kühlmöglichkeit als Stickstoff gibt der den CPU bei last so runter kühlt.
Die Zukunft - so meiner Ansicht nach brauch SLI. CPU hat denk ich noch lange platz, die Anwendungen kann man noch locker für 32Kerne auslegen und so hat man da noch viel Luft nach oben bei der Leistung wenn man bedenkt das ein 4 Kerner meistens nicht mal bei 70% bei Gaming ausgelastet ist.

Bei GPU ist das ganz anders, sie lassen sich so gut wie nie über 2,1 GHz übertakten und selbst gute OC'er die versucht haben mit Trockeneis und höhere Spannung was zu erreichen funktionierte einfach nicht.
GPU's sind demnach einfach nicht fortgeschritten genug, oder es ist einfach ein deadend. Größer geht immer, aber wären das dann nicht einfach auch 2 GPU's in einer Karte?

Natürlich kann man noch eine GPU erfinden die mehrere Sachen aufsplittet. Wie die RTX ist ein gutes Beispiel.

Man könnte demnach die GPU Rechen Prozessoren in viele Teile splitten, einer übernimmt das Kantenglätting, die andere für die Polygone, die andere wiederum für die Grafik selber. Was aber auch wiederum eine SLI variante wäre.

Ich denke in naher Zukunft wird es viel mehr SLI Kompatibilität geben. Wie man auch an vielen neuen Spielen sieht haben die auch SLI Kompatibilität. Tomb Raider, Anthem und andere.
Auch sollte es ein Deadend geben, und man einfach nicht weiter kommen sollte, wird man wirklich einfach nur mehrere Graphic Chips nutzen.

Demnach gibt es auch schon 4K 144HZ Monitore, die zwar mega überteuert sind, aber einfach das beste auf den Markt.
und selbst RTX 2080 TI schafft in Tomb Raider nicht mal 4K 60 FPS einfach weil die Grafik schneller wächst als die GPU selber.
Natürlich kostet SLI viel mehr, aber in Zukunft könnte das ganz anders sein, das SLI Karten in einer verbaut werden und quasi so wie eine Kosten weil es ansonsten kein sinn mehr macht da die Grafik immer besser wird, die GPU's nicht hinterher kommen. Und dann würde gar keiner mehr Gamen können, oder die Grafik müsste wieder zurück geschraubt werden. In sachen Sichtweite ist immerhin noch alles offen.

Aber wie seht ihr das?^^
 
Zuletzt bearbeitet:
Ist der Thread Ernst gemeint?
Du vergleichst CPU mit GPU über den Takt? :freak:
Beschäftige dich mal mit der Architektur und nicht nur mit OC.
 
  • Gefällt mir
Reaktionen: Herr Melone, SpicyWolf, Xero261286 und 2 andere
Lese dich bitte erstmal ins Thema ein und so wie der Support aussieht, ist SLI und Crossfire trotzdem tot.
 
  • Gefällt mir
Reaktionen: up.whatever, Herr Melone, Julrond und 3 andere
Glaube ich nicht, nur ein ganz geringer Prozentsatz würde sich mehrere >1000€ Karten kaufen. Und mit Mittelklasse-Karten macht man sowieso kein SLI/CF.
 
Genau, weil du SLI jetzt nur noch bei Grafikkarten der xx80+ bekommst. Früher konnte man jede Mainstream Karte einfach im SLI betreiben, geholfen hat es bei den wenigsten Spielen.
 
Bei GPU ist das ganz anders, sie lassen sich so gut wie nie über 2,1 GHz übertakten
und bis mitte 2016 war sogar alltagstauglich bei ~1500MHz schluss. purer schrott. CPUs und GPUs nur anhand des takts zu vergleichen ist... abenteuerlich.

Ich denke in naher Zukunft wird es viel mehr SLI Kompatibilität geben.
na, bei der hardware ist der trend aktuell genau andersrum.

wenn man bedenkt das ein 4 Kerner meistens nicht mal bei 70% bei Gaming ausgelastet ist.
die zeiten sind vorbei. quadcores ohne HT kriegen zunehmend probleme bei games. davon ab kann eine CPU mit 4 threads bereits bei 25% gesamtlast am limit sein.

Und ich denke nicht das es eine bessere Kühlmöglichkeit als Stickstoff gibt
flüssiges helium? ist deutlich kälter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xero261286, Julrond und rg88
Dafür sind CPUs und GPUs zu unterschiedlich, wo deine CPU ihre Kerne hat, haben Grafikchips nicht nur den einen Kern, sondern Shadercluster, CUDA/RTX Kerne bei Nvidia usw..
Der Aufbau ist deutlich anders.
 
  • Gefällt mir
Reaktionen: rg88
Der Fehler den du hier machst ist, dass niemand behauptet, dass SLI nicht funktioniert, sondern dass das preis/leistungsverhältnis einfach nicht passt.
Wenn du mit dem doppelten Preis nur 20% raus holst, ist das für die Meisten erledigt.
Klar, wenn du 3D Mark Bestenliste anführen willst, musst du halt rausquetschen was geht, aber das hat nix mehr mit dem normalen User zu tun.
 
HarriHarro schrieb:
Die Zukunft - so meiner Ansicht nach brauch SLI. CPU hat denk ich noch lange platz, die Anwendungen kann man noch locker für 32Kerne auslegen und so hat man da noch viel Luft nach oben bei der Leistung wenn man bedenkt das ein 4 Kerner meistens nicht mal bei 70% bei Gaming ausgelastet ist.

Du siehst das eigentliche Problem der CPU, aber schließt komisch daraus.
Wenn ein Game nur 3 Kerne nutzt, weil der Programmierer sein Game nicht weiter parallelisieren konnte, dann wird (ein 4-Kerner) die CPU halt nur 75% genutzt. Das eine Game alle Kerne nutzt, das ist kein Automatismus. Und genau da liegt der Unterschied zwischen Graka und CPU. Die Arbeit der Graka kann man wundervoll auf 5000 Kerne verteilen, so das sie voll ausgelastet werden. Noch nie drüber nachgedacht? Noch nie aufgefallen?
Die CPU kann auch schön völlig am Limit sein, wenn ein 4-Kerner zu 25% ausgelastet ist. Genau dann, wenn das Game nur einen Kern benutzt. Darüber stolpere ich täglich. Auch heute noch.
Und genau das gleiche "Problem" ist dann das SLI. Wenn der Programmierer es nicht hinbekommt zwei Grakas anzusprechen, dann funktioniert es nicht. Stolpere ich auch täglich drüber.
Wenn es denn so einfach wäre wie Du Dir das vorstellst, dann würde jedes Game jede CPU zu 100% auslasten und so viele Grafikkarten wie man in den Rechner stecken kann.
Passiert nicht. Scheint also nicht die "einfache" Herangehensweise zu sein.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, Radulf, Zensai und eine weitere Person
ja, flüssiges helium ist definitiv die kälteste flüssigkeit, die möglich ist.
aber halt sehr teuer und sehr flüchtig.
und wird noch viel teurer, weil in industriellen prozessen durch nichts ersetzbar.

ich persönlich halte jede übertaktung mit superkalten materialien für reine hirnwichserei, nur für rekorde, völlig sinnlos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, hroessler, Xero261286 und 2 andere
Hm ... du schlägst einer fast schon parallel arbeitenden Strucktur vor das sie ihren Job auch in 2 Parallelen GPU´s abarbeiten kann ?

WoW so viel Unfug auf einmal.

HarriHarro schrieb:
Man könnte demnach die GPU Rechen Prozessoren in viele Teile splitten, einer übernimmt das Kantenglätting, die andere für die Polygone, die andere wiederum für die Grafik selber. Was aber auch wiederum eine SLI variante wäre.

Hä neu erfinden was es schon 1998 gab ? Nö man müsste es nur wieder rauskramen und aktivieren.

Das ganze würde nur was bringen wenn man die älteren Technicken von 3Dfx richtig umsetzen würde in die Neuzeit so das bei 2 Karten mit SLI der Overhead nicht so groß wäre und die eine Karte nicht auf die andere warten müsste.
Der VSA 100 Chip war schon völlig scalierbar.
Herausragende Eigenschaft ist die Tatsache, dass bis zu 32 Exemplare des VSA-100 zusammenarbeiten können
https://de.wikipedia.org/wiki/3dfx_VSA-100

Das alte SLI von 3Dfx war nämlich anders und effektiver.
Warum .. jede Karte hat eine Zeile berechnet und dann wurde dies von einer Karte ausgegeben ... somit war ein guter Mix der Datenmenge vorhanden.

Nvidia Sli kennt ja nur AFR jede Karte berechnet einfach das nächste Bild muss aber am Ende auf die andere Karte warten oder SFR wo jede Karte 50% des Bildes berechnet ... doof nur wenn die Häuser nicht bis in den Himmel reichen dann langweilt sich eine Karte und die andere schwitzt.
 
HarriHarro schrieb:
Aber wie seht ihr das?^^
Dass du nicht die geringste Ahnung hast, von was du überhaupt sprichst.
Lies dich erstmal etwas in die grundlegende Technik von GPUs ein. Damit werden 95% deines Posts überflüssig
 
  • Gefällt mir
Reaktionen: wolve666 und Julrond
SLI/CrossFire-Support ist eher mau. Ubisoft z.B. hält da gar nichts von wie man auch beim neuen AC sieht.
Außerdem skaliert SLI nicht in jedem Spiel gleich gut. Hängt auch immer davon ab wie viel Mühe bzw. Arbeit sich die Entwickler gemacht haben. Hinzu kommt noch, dass SLI bei Turing erst ab der 2080 möglich ist. Das sind Karten, die kosten 800€ aufwärts. Das sind Karten, die von vlt. 1% der potenziellen Spieler auf Steam nutzen. Würdest du jetzt für 1% der Spieler dir mehr Arbeit machen wollen?
 
Ich schätze mal, daß SLI aus zwei Gründen scheiterte. Zum einen mußte jedes Spiel SLI explizit unterstützen, zum anderen schafften die Grafikkarten es nicht sich so effektiv wie eigentlich notwendig untereinander "abzusprechen". Was bringt mir die Leistung von zwei GTX 1080 ti wenn das System die Leistung nicht "auf die Straße" bringen kann?

Wenn eine Neuauflage von SLI eine Chance haben soll, dann muß die Sache vollständig transparent vom Treiber übernommen werden. Muß der Spieleentwickler mitspielen wird es nichts.

Auf der anderen Seite sehe ich nicht warum SLI einzig in der Lage sein soll das grundsätzliche Problem, zu viele Pixel für zu wenig Rechenleistung, zu lösen. Wenn der einzelne Chip nicht mehr größer werden kann und die Strukturgröße im Moment auch nichts hergibt, dann wäre es mit hoher Wahrscheinlichkeit sinnvoller wenn sich die GPU-Entwickler in der Trickkiste der Kollegen von der CPU-Entwicklung bedienen.

Reicht ein Die nicht aus nimmt man eben zwei oder mehr und sorgt per Infinity Fabric (oder wie man das dann nennen will) dafür, daß der Chip intern und mit der Außenwelt kommunizieren kann. Das sollte schon aufgrund der kürzeren und schnelleren Kommunikationswege effizienter sein als SLI.

Den Anwendungsfall des heutigen SLIs (einschließlich NVLink und AMDs Crossfire) sehe ich weniger in der Spielewelt als vielmehr da wo es nicht zeitkritisch ist. Wenn ein Problem gut genug parallelisierbar ist um eine GPU zu beschäftigen, dann werden zwei oder mehr GPUs wahrscheinlich noch schneller damit fertig werden. In diesem Bereich sind aber im Normalfall auch die finanziellen Möglichkeiten da zwei oder mehr teure Grafikkarten zu kaufen.
 
  • Gefällt mir
Reaktionen: hroessler
Die Techniken AFR und SFR sind halt einfach Murks. Man kann ja zig GPU nutzen, für das berechnen von irgendwelchen Daten, Stichwort sind hier die Tesla Karten oder Knights Crest von Intel.
Aber da muss am Ende auch kein Bild auf nen Monitor zusammen gesetzt werden, was das ganze sehr schwierig macht und man dadurch viel Leistung verliert, da hier halt häufig die eine auf die andere Karte warten muss usw.

Multi GPU Ansich kann schon was werden, wenn man eine andere Technik entwickelt und nutzt. Oder die Karten speziell dafür entwickelt, wie 3dfx damals. Die hatten ja glaube eine Zusatzeinheit die sicherstellt das die vielen GPU parallel rendern, da die Voodoo Karten ja schon 2 oder 3 GPU, wenn man die so nennen will, auf einem PCB hatten.
 
SLI/CF nein! Mehrere GPUs auf einem PCB ja. Dann müsste der Treiber dies allerdings verbergen und quasi den Programmen ein GPU Raid Level 0 vorgaukeln.

greetz
hroessler
 
Ich weiß nicht ob es erwähnt wurde, aber wenn die neuen APIs richtig verwendet werden benötigt es keine der beiden Technologien, Stichwort Multi-Adapter. Letztendlich waren das (schon bei 3dfx damals) doch nur Übergangslösungen die aus der Not zusammengeschustert wurden.

Multi-Adapter hat auch den Vorteil dass die Ressourcen beider GPUs voll genutzt werden können (korrekte Implementierung vorausgesetzt). Bei CF/SLI gibt es ja bekanntlich das "kleine" Problem dass der VRAM nur so groß ist wie auf einer Karte, da die Daten gleichermaßen in beide VRAMs geladen werden. Bei Multi-Adapter werkelt aber jede Karte für sich oder kombiniert, je nach Implementierung eben.

Das Problem ist hier aber das gleiche wie bei CF/SLI und anfangs Multi-Core CPUs, die Spiele müssen eben dafür geschrieben und optimiert sein. Bei CPUs macht das natürlich Sinn denn Single-Core ist quasi tot, aber der Markt für Multi-GPU Systeme ist vergleichsweise extrem klein, der Aufwand lohnt also nicht.
Klar Multi-Adapter skaliert automatisch runter wenn nur eine Karte vorhanden ist, trotzdem muss dafür ein großer Teil der Renderpipeline neu geschrieben werden.

TL;DR: Ja, CF/SLI sind mehr oder weniger tot (vor allem wenn man auch AMDs und vor allem nvidias Unterstützung sieht), die Idee dahinter lebt aber (besser) in den neuen APIs weiter. Wie sie genutzt werden wird sich zeigen müssen...

HarriHarro schrieb:
Natürlich kostet SLI viel mehr, aber in Zukunft könnte das ganz anders sein, das SLI Karten in einer verbaut werden und quasi so wie eine Kosten
Sowas gab's doch schon vor Jahren und die Dinger sind teilweise teurer gewesen als 2 einzelne zu kaufen weil das PCB Layout einfach unglaublich komplex wird.
Beispiele:
* R9 295X2: 2x R9 290 welche bei Einführung ~500 Euro kostete, beim Start 1499 Euro.
* 9800 GX2: 2x 9800 GTX+ welche bei Einführung ~160-200 Euro kostete, beim Start 530 Euro.

Es sind ja nicht nur die VRMs die dort aufwändiger und teurer werden, bei 2 Chips braucht es auch noch einen PLX Chip der heute noch selbst wenn man sie in Massen kauft bei ~50 Euro pro Stück liegt. Und so riesige Massen werden da nichtmal gekauft aufgrund des kleinen Marktes.

In AMD's Workstation Portfolio gibt es sogar eine aktuelle Karte mit 2 Chips.
 
Zuletzt bearbeitet:
Mihawk90 schrieb:
Sowas gab's doch schon vor Jahren und die Dinger sind teilweise teurer gewesen als 2 einzelne zu kaufen weil das PCB Layout einfach unglaublich komplex wird.
Die werden wie bei AMDs CPUs in ein package kommen. Damit wird es wieder günstiger als ein großer 800mm² Chip.
 
Gut das ist möglich, da kommt es dann drauf an wie man es definiert :D Ich hatte mit einem Chip im Zusammenhang mit GPUs jetzt von einem Die gesprochen :)
 
Gabs da nicht auch diese Grafikkarte von Nvidia, 7950 GX2 ? Die hab ich mal gehabt, lief aber aufgrund der Mainboardinkompatibilität nicht wirklich rund. Aber sah echt schon beeindruckend aus.
 
Zurück
Oben