News Im Test vor 15 Jahren: Gigabyte brachte zwei GeForce 6600 GT auf ein PCB

Dito schrieb:
Sollten die Spieleentwickler einen guten Weg finden, würde Sli/CF auch wirklich funktionieren.
Dann gäbe es auch Käufer dafür.
Wie hier schon mehrmals erklärt, bringt SLI/CF grundlegende Probleme mit, die einfach daraus resultieren, dass die beteiligten Karten untereinander in der laufenden Berechnung Daten austauschen müssen. Da kann man auch nur bedingt oder gar nicht durch geschickte Programmierung Einfluss drauf nehmen. Einmal ist die Menge der Daten durch die Bandbreite der Verbindung untereinander limitiert und dann die unterschiedliche Berechnungsdauer der einzelnen Frames. Da lässt es sich halt nicht vermeiden, dass eine Karte mal auf Daten aus Berechnungen auf der anderen Karte oder aufgrund der Übertragungsgeschwindigkeit warten muss und damit effektiv an Leistung verliert.
Egal, wie man die Berechnungen auf die Karten aufteilt, wird es immer einen Aspekt geben, der limitiert.
 
Zuletzt bearbeitet:
Eine CPU ist auch nicht gleich eine CPU.
Diese ist ebenfalls unterteilt. Da klappt es doch auch.
 
Früher hatte ich nie das Geld für Multi GPU-Systeme... Jetzt, wo ich in der Ausbildung bin bzw. bald sogar fertig bin hätte ich das Geld, aber die Unterstützung nimmt immer weiter ab (DX12 macht treiberseitige Optimierungen ja mehr oder weniger unmöglich).

Schade, da ich aufgrund von UHD durchaus an noch mehr Leistung Bedarf hätte wie sie eine einzelne 2080Ti bieten würde (mal von der Titan RTX abgesehen - für den Preis bekomme ich aber zwei 2080Tis und bin selbst bei fehlendem SLI-Support keine 10% langsamer...).
 
Tatsächlich ließ sich Gigabytes Dual-GPU-Grafikkarte nur auf dieser Platine betreiben. Auf anderen Mainboards – selbst mit SLI-Zertifizierung – startete sie erst gar nicht.
Auf der Platine erkenne ich keinen PCIe Switch IC welcher bei den anderen Multi GPU Karten sonst imemr präsent ist.
Daher muss das Mainboard PCIe Splitting/Bifurcation unterstürzen.
Das war wohl damals noch nicht so ofrt der Fall wie heutzutage.
Bei manchen Mainboards lassen sich ja 4x M.2 SSDs per Adapterkarte in einen PCIe x16 Slot stecken.
 
mibbio schrieb:
Das Manko der 3dfx Chips war halt auch, dass die nur 16Bit Farbtiefe unterstützt haben, und erst ab der Voodoo3 zumindet das finale Bild mit 22Bit berechnet wurde.
Ein Manko würde ich das aber nicht nennen. Im Endeffekt konnte man die 32Bit damals durchaus mit der DXR/RayTracing-Zeit jetzt vergleichen. Es wird in der Zukunft wichtig werden, aber zu dem Zeitpunkt war der Mehrwert überschaubar und hat sogar Leistung gekostet.

Als es dann wirklich sich durchsetzte, war dieses Feature bei allen Grafikkartenhersteller vorhanden. Hier hat halt auch wieder das Marketing zugeschlagen und auf das verstand sich nVidia schon immer recht gut.
 
  • Gefällt mir
Reaktionen: derSafran
Aber wisst ihr was mir mal grundsätzlich auffält.
Ich sehe teils zwischen DX9 und DX11/12 fast keine Unterschiede.
Das einzige was mir aber auffällt sind Posteffekte die mich eher stören als gefallen.
Und dass die Ansprüche ins Unermessliche zu wachsen scheinen.
Kantenglättung scheint nach wie vor schwer in den Griff zu bekommen sein wenn es denn wenig Leistung kosten soll.
 
Kantenglättung wird tatsächlich jedes Jahr schlechter, weil viele Spiele Entwickler nur noch auf temporales AA setzen damit die Konsolen nicht überfordert sind.
MSAA kostet zwar Leistung, glättet aber am besten.

Wie auch immer, warum hat GIGABYTE eigentlich auf Wärmeleitpads gesetzt und nicht auf Wärmeleitpaste?
Gab es zu viele Qualitäts Schwankungen in der Produktion und mit dem Kaugummi hat man dies ausgeglichen?

Hab hier ein paar Beiträge gelesen das sich SLI für Spieler mit schmalen Geldbeutel lohnt.
Dem muss ich widersprechen, mittlerweile haben nur noch High-End Karten SLI Support, nvidia hat Quad-Sli und SLI bei mid-range Karten entfernt.
Erst ab TU104 ( RTX 2080, RTX 2070 Super ) hat SLI Support.

Würde mich nicht wundern wenn die RTX3000 gar kein SLI mehr hat.
Kann ich aber nachvollziehen, weil die neusten Spiele, außer wenige ausnahmen überhaupt kein Multi-GPU unterstützen. Und das hat schon 2016 angefangen wo SLI Unterstützung immer weniger wurde.
Selbst Battlefield, was seinerzeit exzellente Skalierung hatte hat denn Multi-GPU Support eingestellt.

Ich gebe SLI nur noch eine Chance, wenn es unabhängig also Hardware seitig funktioniert und man nicht mehr auf die Software angewiesen ist.
 
Zuletzt bearbeitet:
cbtestarossa schrieb:
Ich sehe teils zwischen DX9 und DX11/12 fast keine Unterschiede.
Das liegt daran, dass DX9 den Zugriff auf die Render-Pipline und die Zwischenschritte für die Pixel- und Vertexshader öffnete und so den massiven Sprung der Spielegrafik ab 2002 einleiten konnte. Man hatte ab da an relativ weitreichenden Zugriff auf die Render-Pipline und über kleinere "Umwege" konnte man sehr viel erreichen. Das war dann aber nicht immer preformant.

DX9 war für die Softwarebasis der große und wichtige Sprung. DX10 ist für viele im Kopf, weil nVidia und AMD dann ihre "UnifiedShader"-Architekturen eingeführt haben, das hättenm sie aber z.B. auch bereits zu DX9 Zeiten tun können.

Softwaremäßig war der Sprung von DX9 zu DX10 und auch zu DX11 aber kleiner als von DX8 zu DX9. DX10 und DX11 haben dann die Zugriffe einfacher gestaltet usw.

Aber vieles was dann mit DX10 und DX11 "einfach" möglich war, war auch ab DX9 schon möglich, nur eben komplizierter.


cbtestarossa schrieb:
Das einzige was mir aber auffällt sind Posteffekte die mich eher stören als gefallen.
Ohne diese Posteffekte, hätte es niemals diese grafischen Sprung seid 2002 und DX9 gegeben! Unschärfe, Lens-Flare und Co sind hier zwar die unschöneren Effekte, auf die man gerne verzichten kann, sie sind aber nur die Spitze des Eisberges.

Globale Beleuchtung, indirekte Beleuchtung, weiche Schatten, SSAO, Reflektionen, HDR, Bloom, Godreys, "Bump-Mapping" und Co sind alles heute Effekte, die über die Shader nach der eigentlichen Bildsynthese ausgeführt werden und damit zu den Post-Processing-Effekten gehören. Ohne diese Effekte hätte es aber nicht diesen Sprung bei der Darstellung geben. Hier mal eine etwas ausführlicher längere Liste.

cbtestarossa schrieb:
Und dass die Ansprüche ins Unermessliche zu wachsen scheinen.
Das liegt daran, dass sich die Rasterisation nie wirklich für "Fotorealismus" geeignet hat. Sie war immer schnell bei der Bildsynthese, aber durch die gestiegen Ansprüche müssen auf immer mehr Tricks zurück gegriffen werden, mit der man sich nur an die physikalisch korrekte Darstellung annähert. Je akkurater die Darstellung sein soll, um so aufwendiger wird es, weil man innerhalb der Limitation der Bildsynthese arbeiten muss.

Wir sind nun an einem Punkt angelangt, an dem die Rasterisation an ihrem Ende angelangt ist. Um noch bessere Bilder zu bekommen, muss nun genau soviel oder mehr Aufwand betrieben werden, als eine Umsetzung per RayTracing erfordert.

Häschen schrieb:
MSAA kostet zwar Leistung, glättet aber am besten.
Nein, die besten Kantenglättung erreicht mit SSAA und zudem ist SSAA sogar die am einfachsten zu implementierende Technik, kostet aber auch die meiste Leistung.

MSAA glättet nur Polygonkanten und steht damit hinter SSAA.

Häschen schrieb:
..., weil viele Spiele Entwickler nur noch auf temporales AA setzen damit die Konsolen nicht überfordert sind.
Falsch, das hat nichts mit den Konsolen zu tun, sondern damit, dass MSAA effektiv viel zu früh in der Bildsynthese ausgeführt werden muss und damit sehr viele Kanten heute überhaupt nicht mehr erfasst oder nicht korrekt erfasst.

Stichwort ist hier: https://en.wikipedia.org/wiki/Deferred_shading
 
  • Gefällt mir
Reaktionen: Pisaro und cbtestarossa
Schön erklärt.
Bin wohl etwas zu OldSchool und ich brauche auch kein Fog, Bloom oder Weiche Schatten.
Ja gebe deiner Einschätzung sonst aber total recht.
Bei Haaren bzw der Physik könnte sich auch noch was tun.
Aber ja klar es hat sich schon etwas getan.
 
Haggis schrieb:
Bringt Multi-GPU für VR Vorteile?
Da müssen doch in jedem Frame zwei verschiedene Bilder berechnet werden. Das klingt doch erst mal naheliegend, dass man dann zwei GPUs sinnvoll verwenden kann.
Zumindest gibt es eine CrossFire Karte von AMD welche explizit für VR Entwicklung Vermartet wird / wurde (bin mir nicht sicher ob man die Karte noch kaufen kann)

ComputerBase - Radeon Pro Duo VR
 
Zuletzt bearbeitet:
Oh man nur 500 Euro für zwei GPUs und ein Mainboard. Heute wurde sowas ganze 1000 Euro + Kosten.
Für meine VEGA56 habe ich nur 330 Euro bezahlt.
Mal sehen was Big Navi kosten wird.
Tja schade daß sich Multi GPU nicht durchgesetzt hat. Aber die Skalierung war zu schlecht. Witzigerweise bringt ja DX12 einige Features für Multi GPU mit, ich glaube sogar auch die Möglichkeit den Grafikspeicher beider Karten zu nutzen somit wären ja bis zu 32gb bei zwei Karten möglich.
Ich hätte mir damals fast 2x eine Nvidia 7600Gt oder GS gekauft. Die war passiv Gekühlt. Aber als ich die Benchmarks gesehen habe, hatte sich das auch ganz schnell erledigt.
 
Ist komplett an mir vorbeigegangen diese Karte .
Aber sli hat mich auch nie so grossartig interessiert.
Aktuell könnte man sich billig ein cf mit 570/580 zusammenbauen, aber ich würde da lieber für diese 200-250€ neu/gebraucht eine 1070/1080 oder v56 kaufen und auf ein paar fps verzichten dafür wäre es schön kühl /leise und keine abhängigkeit von speziellen profilen.
Als Enthusiast mit Geld wäre ein Titan-SLI-Setup dank den 24 gb vram aktuell aber ziemlich lecker :love:.

Was ist mit Multi Adapter Rendering unter DX12. Ist auch im Sand verlaufen bzw. zu aufwendig für die Entwickler wie es scheint. Mit PCIe 4.0 würde man hier ja wieder etwas Bandbreite gewinnen zwischen CPU und IGPU um die Latenz zu verringern.
Das wäre für Intel im Gamingberreich doch eine Lösung die Treiber auf ein möglichst effektives IGPU+GPU Rendering hin zu optimieren und die Marktmacht hätten sie auch ein paar Entwickler unter die arme zu greifen mit "Spenden" .
 
Zuletzt bearbeitet:
andi_sco schrieb:
Ja, wer weiß, was Gigabyte damit bezwecken wollte. GPU Computing gab es sicherlich noch nicht, zu der Zeit?
bezwecken ist eigentlich klar: sich von der masse abheben und die marke ins gespräch bringen. und das mit erfolg möchte ich meinen. solche produkte dienen selten tatsächlich zum geld verdienen. sie sollen die marke bekannt machen.

und gpu-computing geht auf der karte meines wissen nicht, da sie noch keine unified shader besitzt. diese kamen erst mit der GF8.
 
  • Gefällt mir
Reaktionen: Cr@zed^
Botcruscher schrieb:
Multi GPU hatte eh nur die Mission lange Balken in Testartikel zu zaubern. Für alles andere war es unbrauchbar und die Microruckler waren der Anfang vom Ende.

Leider ja. Meiner Meinung nach hat Multi GPU richtig viel Potenzial wenn es denn vernünftig umgesetzt ist. Aber klar, welcher Hersteller will schon dass man sich einfach zwei günstige GPUs kauft satt einer sehr teuren..
 
Zurück
Oben