News Im Test vor 15 Jahren: Gigabyte brachte zwei GeForce 6600 GT auf ein PCB

@Brutek
Der einschlägigste Negativ Punkt ist die mangelnde Treiberpflege seitens AMD und Nvidia, die das aufs Abstellgleis schoben.

War allerdings verständlich, die Anzahl der Nutzer weltweit dürfte seit 2015 (https://www.fudzilla.com/news/graphics/38134-crossfire-and-sli-market-is-just-300-000-units) weiter massiv gesunken sein.

Für Spieler gibt's heutzutage ja zumeist die leistungsstärkere Single gpu Karte anstatt zwei günstigere für situative Konstellationen im sli/cf (außer man koppelt zwei 2080Ti :D).
 
CF/SLI mit 2 Midrange bzw. Lowend Karten hat imho noch nie Sinn gemacht. Grade das waren die Systeme mit Mikrorucklern ect. CF/SLi mit Highend/Enthusiast Karten war da schon eine andere Hausnummer.
Ich hatte nur mit einem System Probleme, aber die waren mit 2 HD 4870X2 auch hausgemacht. 🤣
 
  • Gefällt mir
Reaktionen: lubi7
Schöner Artikel, wie immer.

Ich hatte damals eine GTX 7950GX2, mit der hatte ich nie irgendwelche Ruckler oder Probleme. :)
 
Rollensatz schrieb:
Ich glaube ja, dass die Hersteller sämtliche Dual GPU Grafikkarten und auch Crossfire/SLI haben einschlafen lassen, weil sie sich so (bei weiterer Entwicklung, Optimierung und eventuellem Wegfall der Microruckler) ins eigene Fleisch geschnitten hätten - Produkte im eignen Portfolio hätten sich gegenseitig kannibalisiert.
Sie haben die Entwicklung nicht einschlafen lassen, sondern man hat festgestellt, dass man mit keiner der Rendermethoden auf lange Sicht Erfolg gehabt hätte, da man vor massiven technischen Problemen steht und so den Fortschritt in der Softwareentwicklung ausgebremst hätte.

Egal ob jetzt Split-Frame-Rendering oder Alternate-Frame-Rendering, der Austausch der Daten untereinander über PCIe als auch die Bridges ist ein Problem. Selbst wenn man die Bandbreite lösen könnte, scheitert es spätestens an der Latenz.

Und selbst wenn man diese Probleme mit der Zeit hätte lösen können, hätte die Physik bei den Latenzen eine harte Grenze dargestellt. Dazu der Verwaltungsaufwand zwischen den GPUs, die die Skalierung begrenzt hätte.

Und auch die Produkte haben sich damals nicht wirklich kannibalisiert, und sie würden es heute auch nur bedingt tun, da man sich entsprechende Fähigkeiten der Grafikkarte etwas hätte kosten lassen. Man sieht ja, dass die SLI-HB bereits ab 50,- aufwärts kostet. Entsprechen noch aufwendigere Bridges hätte sich nVidia als auch AMD sicher gut bezahlen lassen und schon wäre es relativ schnell uninteressant gewesen sich zwei "Mittelklasse"-GPUs zu holen um eine Highend-GPU zu ersetzten.

Rollensatz schrieb:
Denn schon damals war eine gute Implementierung eines SLI Profils der Tod der teuren High End Karte. 2 günstige GT´s haben das Top Modell der GTX alt aussehen lassen.
Ach, haben sie das? Das aber auch nur in wenigen Spielen und anschließend stand ein höhrere Strombedarf auf der anderen Seite, höhere Lautstärke und auch preislich war der Unterschied dann zur Highend-Karte alles andere ein großer Vorteil.

Ich kenne genug Leute, die damals sagten, dass sie sich lieber 2 Grafikkarten für 150 oder 250,- kaufen um ja nicht die 400€ oder 500€ Karte zu kaufen und am Ende war die Enttäuschung groß, weil sie selbst im besten Fall eben nicht "deutlich" schneller waren und der PC deutlich lauter war und im Sommer wegen den beengten Verhältnissen die Systeme zur Instabilität neigten.

Rollensatz schrieb:
heute alles kein Problem mehr
Natürlich ist auch all das heute noch ein Problem. Setzt mal zwei Grafikkarten mit je 2 Slots direkt nebeneinander ins System, was damals wie Heute immer noch der Fall ist. Eine der Grafikkarten wie immer deutlich heißer. Zudem muss die zusätzliche Abwärme auch abtransportiert werden. Entsprechend braucht man ein gutes Konzept für die Belüftung und gerade heute ist Lautstärke als auch Temperaturen für viel genau die Themen. Hier bekommen manche ja schon Schnappatmung, wenn ihre CPU unter Last 50°C erreicht und die GPU auf über 60° kommt.

Rollensatz schrieb:
die heutigen Preise der Highend chips sind in Bereichen von gut und böse. Karten über 1000€ - das waren früher höchstens totale Exoten - Heute: jede popel 2080TI
Ja, und was gewinnst du mit zwei Mittelklasse-GPUs? Mit zwei 2060er Super kommst du dann bei der aktuell best möglichen Skalierung auf die Geschwindigkeit einer 2080Ti. Die günstige Ti bekommst du aktuell für knapp 1050,-. Die günstigsten 2060Super kosten 380. Zu den 760.- kann man dann, je nach HB-Bridge zwischen 60 und 100,- einplanen. Sind wir bei 860,-.

Preislich spart man im ersten Augenblick zwar 15%, aber der Energiebedarf im Worst-Case steigt um 100 Watt und liegt damit um 40% höher (350W gegen 250W). Was man nun an 15% gespart hat kann man also gleich in ein besseres Netzteil investieren. Um auch die nötige Bandbreite beiden Grafikkarten zur Verfügung zu stellen kann man auch nicht auf die Consumer-Plattformen setzten, denn die bieten maximal PCIe 3.0 8x an für jede Grafikkarte und dass das zu wenig sein kann, kannst du hier beim Test der Radeon RX5500 nachlesen. Entsprechend kommen dann die Mehrkosten noch für die Highend-Plattformen von Intel und AMD hinzu. Und schon sind die 15% Ersparnis futsch.

Rollensatz schrieb:
3Dfx hatte damals schon das Problem der Microruckler umgangen....
3dfx verwendete damals auch ein Verfahren, dass heute ein Teil der Mechaniken hinter SFR ist. Scan-Line-Interleave. Das funktionierte damals sehr gut, weil die Grafikkarte viele fertige Daten von der CPU bekommen hatte und diese nur noch darstellen musste. Das klappte bis DX6 sehr gut.

Seit DX7 wird aber Geometrie und Beleuchtung auch auf der GPU-Berechnen und entsprechend SLI nicht mehr, da beide Grafikkarten entweder vollständig die Beleuchtung berechnen müssen oder ihre Daten effektiv teilen müssen und wir sind bei den oben erwähnten Problemen.

Rollensatz schrieb:
Die Treiberproblematik haben diese Art Grafikkarten "kaputt" gemacht.
Falsch. Die Treiberproblematiken haben SLI und Crossfire nicht kaputt gemacht, es war der Fortschritt bei der Grafikberechnung und technische Probleme, die bis heute nur sehr schwer zu lösen sind.

Che-Tah schrieb:
CF/SLI ist tot... aber was wäre mit einem Chiplet Design? (Abgesehen von Stromaufnahme/Wärmeabfuhr)
Das wird früher oder später kommen. AMD legt ja ihren IF genau darauf aus.

3dfx hatte mit Rampage eine erste Karte, die für "moderne" Rendertechniken geeignet war - DX8 fähig. Der Aufbau bestand damals aus einem Prozessor, der die Geometrie als auch Beleuchtung berechnet und anschließend hätte dieser die einzelnen Bildabschnitte an seine Co-Prozessoren verteilt. Das ging zu DX8-Zeiten und in den Anfangszeiten von DX9 noch recht gut, da viele Effekte als Schritte der Bildsynthese umgesetzt waren und man am Ende das fertige Bild ausgeben hat.

Heutige Engines berechnen aber nur noch einen Teil ihrer Effekte während der eigentlichen Bildsynthese. Viele heutige Effekte werden erst nach der eigentlichen Bildsynthese berechnet, gleichzeitig ist man aber auch auf die Daten der einzelnen Schritte der Bildsynthese angewiesen und auch auf die Daten ihrer Nachbarpixel und Daten aus vorherigen Frames.

Entsprechend hoch ist der Kommunikationsbedarf innerhalb einer GPU, weswegen ja sowohl nVidia als auch AMD die Caches als auch die Bandbreite dieser in ihren GPUs massiv aufgebohrt haben und auch versuchen Umwege zu eliminieren.

Als Beispiel: Früher hingen die Shader in der Regel über die TMUs am Cache, heute gibt es jedoch neben dem Weg über die TMUs auch noch einen direkten Weg des Shaders an den Caches, da dass dann die Latenz sinkt.

AMD arbeitet bei IF an einem Interconnect, versucht da die Latzen zu verringern, genau so arbeitet Intel als auch nVidia an Interconnects, damit man von großen und teuren monolitischen Dies auch bei GPUs weg kommt. Nur muss man dafür eben hohe Bandbreite + geringe Latenz zwischen den Chips ermöglichen. Tiled-Based-Rendering bietet sich auch dafür an. Es gibt dann verschiedene Lösungsansätze um die Kommunikationsbedsarf in den Griff zu bekommen, aber ganz kann man ihn nicht elemenieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Pheodor, derSafran, ottoman und 3 andere
lowrider20 schrieb:
Bis zu 150 Watt Abwärme bei diesem Kühler... :freak:

Hehe, schön wär's.

" Gegenüber einem normalem SLI-Verbund war die Lautstärke um 2,4 dB(A) höher. Bei der Stromaufnahme konnte sie hingegen mit 255 zu 270 Watt punkten."

Aber mutig, da Mal eben 100 Watt mehr zu ziehen als erlaubt. Bestimmt alles über den extra Mainboard pcie Anschluss. Jedes andere Board hat der Karte vermutlich den Vogel gezeigt
 
Teralios schrieb:
Natürlich ist auch all das heute noch ein Problem. Setzt mal zwei Grafikkarten mit je 2 Slots direkt nebeneinander ins System, was damals wie Heute immer noch der Fall ist. Eine der Grafikkarten wie immer deutlich heißer.
Selbstverständlich hast du dies auch selbst überprüfen können? Sicher nicht! Ich kläre dann mal auf.... Als erstes benötigt man das richtige Board, das nicht nur eine Dual GPU konfig schluckt, sondern wie ich selbst hatte, ein Quad GPU Gespann. Als zweites dann die richtige Brücke, extra lang damit ein Slot übersprungen werden kann und als drittes na klar, einen Big Tower. Hast du das, kannst du was. Ohne viel lärm, Wärme und oder sonstige Probleme. Und da das damals ging, geht das heute auch noch und oder hat sich diesbezüglich etwas geändert? Wohl kaum! Und zur Leistung.... Ich hatte für meine Bedürfnisse mehr als genug. Mehr als die meisten. Wie ich auch immer schön nach dem OC (mein FX-8350 war leistungstächnisch eine Spassbremse) und anschließenden Benchmark im Online Vergleich sehen konnte. ;-) Danke das ich dir Input geben durfte. Feedback ist selbstverständlich erwünscht.

b941530432ec17f44ab41a353028cbac.jpgasus_zub_crossfire_bridge_rog.jpg
 
  • Gefällt mir
Reaktionen: cbtestarossa
Schade, das heutzutage solche Individualität nicht mehr vorkommt
 
  • Gefällt mir
Reaktionen: Cr@zed^
SLI und Multi-GPU Karten hatten schon was.
Allein schon die Optik im Gehäuse (mit ner schicken WaKü) machte was her. Finds schade das moderne Systeme einfach immer extrem "leer" wirken.

Aber die Probleme von SLI war halt immer gegenwärtig. Ich weiß noch wie es mich angekotzt hat, dass Final Fantasy XIV nur eine der beiden GPUs auf der GTX295 erkannt hat entsprechend bescheiden lief das Game.
 
BenjayBoyTellEm schrieb:
Selbstverständlich hast du dies auch selbst überprüfen können? Sicher nicht!
Ach, wie ich solche Aussagen liebe und man merkt, dass man einem Fanboy auf die Füße getreten ist, der von nichts wirklich Ahnung hat, sondern nur das nötige Kleingeld, dass er sich ein System zusammen bauen konnte, bei dem man gewisse Probleme umgehen kann.

Ich habe genug SLI und Crossfire-System ab 2006 gesehen und auch welche Zusammengebaut für Freunde und zwar genau mit dem Hintergrund, dass man ja lieber 2 günstige Karten einbaut als eine teure.

Klar, mit dem nötigen Kleingeld lassen sich auch tolle Systeme zusammen bauen, bei den man die Karten weit genug von einander entfernen kann und doch kann man auch damit die physikalischen Regeln nicht umgehen.

Und bei deinem vier Gespann werden die Grafikkarten 2 - 3 von unten Gezählt dennoch deutlich Wärmer als die Grafikkarte 1, weil die Karten ihre Wärme abgeben, selbst mit einem Radiallüfter. Auch das nennt sich Physik.
 
  • Gefällt mir
Reaktionen: Pheodor, hRy, Fritzler und eine weitere Person
Bringt Multi-GPU für VR Vorteile?
Da müssen doch in jedem Frame zwei verschiedene Bilder berechnet werden. Das klingt doch erst mal naheliegend, dass man dann zwei GPUs sinnvoll verwenden kann.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
IMG_1019.jpg

#stolzerBesitzer, danke für den Artikel :)
Bin auch ein Fan von MultiGPU Systemen, trotz Ihrer Nachteile!
 
  • Gefällt mir
Reaktionen: rumpel01, Onkel Bill, ITX-Fan und 4 andere
Habe mir damals den Familien PC mit einer Radeon HD 7770 aufgerüstet, extra mit dem Hintergedanken auf Crossfire. Ein Kumpel rüstete dann ebenfalls den Familien PC mit ner HD 7770 auf & Jahre später verbaute ich seine GPU in den Familien Rechner, den ich durch Auszug leider kaum mehr nutzte 🤷‍♂️😅
 
Teralios schrieb:
Ach, wie ich solche Aussagen liebe und man merkt, dass man einem Fanboy auf die Füße getreten ist, der von nichts wirklich Ahnung hat, sondern nur das nötige Kleingeld, dass er sich ein System zusammen bauen konnte, bei dem man gewisse Probleme umgehen kann.
Nicht Fanboy. Enthusiast! Denkst du etwa das jemand wie ich sich etwas zusammen schraubt, es installiert, konfiguriert um was dann fest zu stellen? Das es nicht so funktioniert wie von dem Erbauer erwartet? Fehlanzeige! Und das du mein von mir selbst über Jahre hinweg erlerntes Wissen und somit meine Intelligenz in Frage stellst, sagt schon einiges über einen wie dich aus.

Guten Tag der Herr!!
 
  • Gefällt mir
Reaktionen: DaniLt, Cr@zed^ und cbtestarossa
BenjayBoyTellEm schrieb:
Und das du mein von mir selbst über Jahre hinweg erlerntes Wissen und somit meine Intelligenz in Frage stellst, sagt schon einiges über einen wie dich aus.
Es ist echt traurig zu sehen, wie Leute hier sich ständig herausnehmen wollen andere zu belehren, ihnen das Wissen abzusprechen, flapsig sind ohne Ende und sich dann über das Echo wundern und aufregen.

An dieser Stelle sei mal wieder erwähnt: Wer respektvoll behandelt werden will, sollte auch andere direkt mit Respekt begegnen, dazu sind hier aber einige nicht fähig. Unhöflich sein und sich dann über Unhöflichkeit wundern, sowas hab ich echt besonders gerne!
 
  • Gefällt mir
Reaktionen: bensel32, keinbeinschwein, hRy und eine weitere Person
So, jeder hat seine Meinung geschrieben. Wenn weitere Bedarf besteht → PN.
Zurück zum Thema.
 
  • Gefällt mir
Reaktionen: ThePlayer
Teralios schrieb:
Das ging damals, war laut, war unangenehm und doch hat es funktioniert.

Du kannst dir ja mal die ersten Lüfter auf Grafikkarten ansehen, als dann plötzlich der Energiebedarf stieg. Ich erinnere mich heute noch gut an die GeForce 4 TI 4600 von Asus und wie unangenehm laut die werden konnte oder an die damaligen CPU-Kühler und die 80mm Gehäuse-Lüfter und doch sind die PCs damals richtig warm geworden.

Heute kann man sich das nicht mehr vorstellen, da wir auf CPUs Lüfter mit 120mm und sogar 140mm spannen, die in der Regel mit 500 - 1000U/m laufen und dabei sogar 150 bis 200 Watt Wärmeenergie abführen können, ohne laut zu werden. (Klar, dann ist die eigentliche Kerntemperatur höher).

Aber früher wie heute gilt: Man muss immer einen Kompromiss eingehen. Soll es leise sein, braucht man entweder Fläche oder muss höhere Temperaturen in Kauf nehmen. Will man niedrige Temperaturen braucht man Fläche oder muss Lautstärke in Kauf nehmen. Will man wenig Fläche, ist es halt Temperatur oder Lautstärke.
Danke für deine Belehrung, aber mein "damals" reicht weiter zurück, als an Ventilatoren zur Kühlung noch nicht gedacht werden mußte. Ich bezog mich auf die Kühlergröße bei 150W Abwärme damals und welche Prügel heute montiert werden, welche auch heute unter Volllast noch gut hörbar sein können.
 
Che-Tah schrieb:
CF/SLI ist tot... aber was wäre mit einem Chiplet Design? (Abgesehen von Stromaufnahme/Wärmeabfuhr)
Eine interessante Frage, die CB fachlich recherchiert und durchdacht in einem eigenen Artikel mal beantworten könnte.
 
Gandalf2210 schrieb:
Hehe, schön wär's.

" Gegenüber einem normalem SLI-Verbund war die Lautstärke um 2,4 dB(A) höher. Bei der Stromaufnahme konnte sie hingegen mit 255 zu 270 Watt punkten."

Aber mutig, da Mal eben 100 Watt mehr zu ziehen als erlaubt. Bestimmt alles über den extra Mainboard pcie Anschluss. Jedes andere Board hat der Karte vermutlich den Vogel gezeigt
Das war aber damals das komplette System, sollte ich mich nicht irren.
 
  • Gefällt mir
Reaktionen: Gandalf2210
lowrider20 schrieb:
Danke für deine Belehrung, aber mein "damals" reicht weiter zurück, als an Ventilatoren zur Kühlung noch nicht gedacht werden mußte.
Entschuldige, ich wollte dich da nicht belehren, hätte noch mal drüber lesen sollen, wie ich es geschrieben habe.

Ich hab auch noch die Zeiten der damals der "ungekühlten" CPUs erlebt oder dann die ersten passiven Kühler auf den 486er.

Manchmal erscheint das alles immer weit weg und wenn man dann mal alte Hardware sieht, fragt man sich manchmal, wie man den Lärm damals ertragen konnte.

Dennoch: Entschuldige, es war nicht so gemeint, ich hab mich da absolut dumm ausgedrückt.
 
Zurück
Oben