Es ist mal wieder soweit: Pandis Märchenstunde geht los! Das an einem Samstag, ich habe Thekendienst und damit Zeit.
@Robert danke!
Duran schrieb:
Die CPUs waren einfach noch nicht weit genug, ansonsten gab es massive Steigerungen später. Zumindest bei AMD konntest die zweite Karte in Windows auch abschalten.
Das hat nur bedingt an der Stelle etwas mit der CPU zutun, je nach Spielen gab es immer ein CPU-Limit oder keines.
Die Probleme von SLI/CrossFire liegen hier an andere Stelle und haben weitgehend auch damit zutun, wie sich die Grafikpipeline seit DX7 - Anfänge - und DX8 geändert haben. Deswegen hat sich bei SLI und Crossfire auch weitgehend AFR (Alternate Frame Rendering) durchgesetzt, während SFR (Splitted Frame Rendering) immer irgendwo hinten anstanden.
Bei AFR agiert jede GPU für sich und berechnete ein Frame, dadurch gab es da auch kein verdoppelten VRAM. SFR wiederum hätte den "RAM" vergrößert, ist seit dem DX8 jedoch mit den Shadern kam, komplizierter geworden. Die stare Pipeline hat sich aufgelöst und damit kam es zu immer mehr Problemen.
CDLABSRadonP... schrieb:
AFR ist und bleibt eine miserable Idee.
Ja und Nein, AFR hat wie SFR spezifische Vor- und Nachteile. Wenn es um die Komplexität der Ingegration geht, ist AFR einfacher, SFR komplizierter und so weiter.
CDLABSRadonP... schrieb:
MultiGPU-AA und SFR waren hingegen beides gute Konzepte, letzteres taugte aber nicht fürs Marketing (zu kleine Zahlen) und ersteres wurde von allen Beteiligten vernachlässigt.
SFR ist ein gutes Konzept, benötigt durch die "flexibel" Pipeline mit Vertex- und Pixelshader, jedoch quasi eine sehr schnelle Verbindungen zwischen beiden GPUs, da vielleicht benötigte Ressourcen im Speicher der einen GPU liege und umgekehrt.
Das ist auch heute ein Grund, warum sich Mutli-GPU-Systeme so nicht mehr wirklich durchsetzen können, weil eine Latenz zwischen beiden Systemen dazu kommt und damit auch die maximale Leistungssteigerung begrenzt wird.
estros schrieb:
Heute ist HT (zumindest bei Intel) tot und es ist auch hier die richtige Entscheidung.
Deswegen führt Intel HT auch im Serverumfeld ja wieder ein. Die meisten heutigen Kerne sind in ihrer Form viel zu "Fett", als dass diese effizient mit einem Thread ausgelastet werden könnten. Wenn man einen CPU-Kern wirklich effizient nutzen will, ist HT ein sehr gutes Instrument.
Klar, die 1T Leistung sinkt etwas, am Ende ist der Output in vielen Fällen aber mit nT immer höher.
moTiv8 schrieb:
Damals zwei Voodo Karten im Sli Modus betrieben.
Im DX6 und DX7-Zeitalter hat halt die GPU am Ende hin auch nur die Polygone gerastert. die Tapete drauf gepinselt und das noch mit der Shadow- bzw. Lightmap verrechnet. Da war das echt einfach.
HighPerf. Gamer schrieb:
Wenn es so toll gewesen sein soll.... warum hat es sich nie durchgesetz ? Das beantwortet am Ende alles.
Etwas kann auch toll sein zu einer bestimmte Zeit und sich dann überholen durch die technische Entwicklung.