News Im Test vor 15 Jahren: Zwei GeForce 7800 GTX 512 im SLI-Verbund

Klassikfan schrieb:
Das war mein erster Gedanke, als ich das SLI-Gespann auf dem Foto sah. Die obere der beiden Karten bekommt ja überhaupt keine Luft!
Das war dann leider auch das Ende von NVidias Vorstoß mit Axiallüftern im high-end. Radiallüfter kommen besser mit einem kleinen Abstand klar und waren daher ein notwendiges Übel für zwei oder mehr Grafikkarten. Auf den Quadros werden die aus genau dem Grund auch immer noch verbaut.
 
ach was ein geiler Scheiß. Herrlich... ich erinnere mich an die X800 und den Bleistiftmod :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor und Pulsar77
Tja, das waren noch Zeiten...

Aber auch damals schon hat sich SLI nie wirklich gelohnt.

Schmunzeln mußte ich über die Anmerkungen zum Stromverbrauch und den Preisen. Wenn ich mir die heutigen Highendkarten so anschaue... ;)
 
  • Gefällt mir
Reaktionen: Pulsar77 und Xtrasmart
"[...] . Allen anderen waren über 1.000 Euro für zwei Grafikkarten wahrscheinlich ohnehin zu viel. [...]

Das ist aus heutiger Sicht ein sehr lustiger Satz. Der hat mir wirklich den Tag gerettet. ;)
 
  • Gefällt mir
Reaktionen: bad_sign, Windell und Pulsar77
SV3N schrieb:
Das waren meine (ganz) Wilden Zeiten, auch wenn ich mich aktuell mit einem 5950X und einer 3090 TUF Gaming schon wieder in diese Zeit zurückversetzt fühle ... CPU- und GPU-Preisen sei Dank! :D

Damals hatte ich zuerst zwei 7800 GTX, zwei 7900 GTX und zwei 8800 GTX sowie abschließend und letztmalig zwei 8800 Ultra im SLI. Für synthetische Benchmarks habe ich mir sogar eine dritte 8800 Ultra von einem Freund geliehen und sie ihm anschließend sogar abgekauft! ^^
Genau diese Ausstattung hatte ich auch, um einen Dell 30“ mit 2560x1600 zu befeuern. Damit wurde Gothic 3 und Crysis einigermaßen spielbar. Bei G3 von 14-15 FPS auf wirklich 28-30 FPS, also fast das doppelte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SVΞN
Ein_Freund schrieb:
Also so wie ich das lese ist Chiplet Desing nur für Kostenersparnis und bessere Yield-Ausbeute gut. Die einen größeren Chip in kleinere Chips aufteilt. Wäre interessant wenn du deinen Gedanken dahinter präzisieren könntes

AMD verwendet das selbe Prinzip ja bei seinen Prozessoren, alles was du sagst macht absolut Sinn und ist auch einer der Gründe.
Jedoch lässt sich damit noch viel mehr cooles Zeug bauen.
Mit dieser InfinityFabric Interconnect Möglichkeit hat man nicht nur die Möglichkeit zu sparen, sondern auch mehrere DIEs miteinander zu verbinden.
Jetzt mal ganz theoretisch - man könnte anstatt 2x 6900XT oder 2x 3090 auch einfach zwei DIEs kombinieren, diese dann mit einer Chipinternen Interconnect als "ein Ganzes" betreiben. Ohne Nachteile die man bei SLI/CF hat.
Auf kurz oder lang wird das auch im GPU Markt ankommen um Anzahl der Recheneinheiten ohne großen Aufwand zu erhöhen.
Mein Beispiel oben ist natürlich Nonsense, da auch der Stromverbrauch jenseits einer annehmbaren Grenze wäre, aber soetwas werden wir sicherlich die nächsten 5 Jahre sehen.
 
  • Gefällt mir
Reaktionen: [wege]mini, Pulsar77, Munkman und eine weitere Person
Xtrasmart schrieb:
"[...] . Allen anderen waren über 1.000 Euro für zwei Grafikkarten wahrscheinlich ohnehin zu viel. [...]

Das ist aus heutiger Sicht ein sehr lustiger Satz. Der hat mir wirklich den Tag gerettet. ;)
Wobei die meisten vergessen, daß damals die Karten bei Marktstart auch schon immer schwer bis gar nicht für UVP erhältlich waren. Für die 2x7800 GTX hatte ich 599 € pro Karte bezahlt, bei den lieferbaren 7900er schon 699 pro Karte, ebenso die 8800er. Nur bei den GTX 580er hatte ich Glück, die bekam man schon für 549 €, weshalb ich dann gleich 3 verbaute. :lol: Wer sich also richtig erinnert, hatten schon damals die Early Adopters immer einen kräftigen Aufpreis bezahlt.
 
  • Gefällt mir
Reaktionen: konkretor und Xtrasmart
Micro-Stuttering

Besser Haben als Brauchen oder wie ? xD

Ich hatte nie ein DualGPU System.

Alles immer nur Single GPU oder CPU
 
Zeigt doch mal wieder ganz gut, dass damals High End GPU Leistung auch deutlich über 1000€ gekostet hat. Multi GPU ist tot. und entsprechende High End Single GPUs kostenheute ähnliches, aber wie SLI damals brauchen auch die wenigsten heute eine Single GPU High End Karte unbedingt. Vergessen immer viele bei dem "Damals haben High End GPUs aber weniger gekostet" Argument. Mit einer Karte war man nicht unbedingt im High End Bereich unterwegs. Sieht man auch ganz gut, wenn man sich bei einer GTX480 oder GTX580 mal die Tests von damals aktuellen Spielen anschaut. Von den FPS werten war eine Karte damals weit von dem enfternt, was heute eine GTX 3080/3090 oder auch 6800XT / 6900XT leisten und auch vor 10 jahren waren 120Hz schon ein Thema.

Btw: Es ist gruselig.... Wir sind beim vor 15 Jahre Test bei Hardware angekommen, an die ich mich langsam erinnern kann und nicht mehr lange und es wird Hardware behandelt, die ich mir aktiv gekauft habe und wo ich so richtig ins Thema eingestiegen bin. Da fühlt man sich echt alt.
 
  • Gefällt mir
Reaktionen: bad_sign, SavageSkull, Pulsar77 und 2 andere
"1000 Euro für 2 Grafikkarten"

wie sich die Zeiten ändern ;).
 
  • Gefällt mir
Reaktionen: Windell und Pulsar77
Unti schrieb:
Jetzt mal ganz theoretisch - man könnte anstatt 2x 6900XT oder 2x 3090 auch einfach zwei DIEs kombinieren, diese dann mit einer Chipinternen Interconnect als "ein Ganzes" betreiben. Ohne Nachteile die man bei SLI/CF hat.
Auf kurz oder lang wird das auch im GPU Markt ankommen um Anzahl der Recheneinheiten ohne großen Aufwand zu erhöhen.
Mal die Temparatur und Verbrauch außen vor was du ja auch erwähnt hattest.
Besteht dabei wirklich soviel Unterschied wie bei einer 6990 z.B. die die 2 Chips auf einem PCB vereint hatte,
jedoch die selben Probleme vorzuweisen hatte? Und sind nicht Shaders so eine Art kleine GPU's(also ganz grob)?
Aktuell könnte ich mir noch vorstellen das man die doppelte Speicherbelegung dadurch eventuell abschaffen kann. Jedoch das man dadurch SLI-/Crossfire-Probleme komplett beerdigen könnte sehe ich fraglich.
Wenn du einen Artikel oder eine Entwickler Aussage hättest, die in ähnliche Gefilde geht , hätte ich Interesse an einen Link. :)

Edit:
Okay hat sich wohl erledigt hört sich ziemlich nachdem an über das wir diskutiert haben ^^
https://www.computerbase.de/2021-01/patent-amd-gpu-chiplet-design/
 
Zuletzt bearbeitet:
Für mich war sowas damals völlig illusorisch. Ich hatte zu der Zeit ne Radeon X550 die dann - 2007 wars glaube ich gegen eine GeForce 7600 GS ersetzt wurde. Ich bin auch heute noch eher alt und lowend unterwegs. Meine Grafikkarte ist eine RX470. Hab ich 2019 günstig (80 $)gekauft.
MfG
 
  • Gefällt mir
Reaktionen: drake23
"Heute" bleggt so Mancher 1000T€uronen in sein Smartes, schon verrückt.

Ein nachträglicher Battlefield 2 - Beitrag von "PCGameshardware" ist mir da noch ganz gut in Erinnerung.
Ein Redakteur hatte im Nachspiel jene 7800GTX damit getestet.

Zitat:
>Endlich in 1600x1200,flüssig spielbar mit der 7800GTX<<
Ich allerdings hatte damals erst mit 2Gig RAM! trotz einer X1800XT,ein flüssig- spielbares Erlebnis gehabt.
 
Zuletzt bearbeitet: (Test der 7800GTX mit Battlefield 2 war von PCGameshardware,nicht Gamestar.)
  • Gefällt mir
Reaktionen: Pulsar77
Swiffer25 schrieb:
"Heute" bleggt so Mancher 1000T€uronen in sein Smartes, schon verrückt.
Naja. Wenn man bedenkt, was gute PDA-Phones damals kosteten, ist das nicht mal so „ungewöhnlich“.

Mit den SmartPhones heute machst du im Vergleich zu damals halt deutlich mehr. Gibt sogar Nutzer, die fast alles nur noch per SmartPhone machen.

Ansonsten: Ich frag mich wie heute die GPU Landschaft aussehen würde, wenn 3Dfx noch bis zu Rampage durch gehalten hätte. Der damalige Ansatz einen T&L-Prozessor mit Vertex Shader einzusetzen und dann darauf die Pixel-Shader GPUs die sich die Arbeit teilen.

Im Endeffekt sehen wir bei AMD heute am Horizont dank Zen 2 und dem IF das, was 3Dfx vor 20 Jahren in gewisser Form schon geplant hatte.
 
  • Gefällt mir
Reaktionen: Swiffer25
Die gute alte 7800 GTX 512.
Ist das echt schon wieder 15 Jahre her? :o
Kann mich noch gut an die Karte erinnern, toller Kühler, leiser Lüfter für die damalige Zeit. Die Karte hatte ich bis zur 8800 GTX.
 
  • Gefällt mir
Reaktionen: Swiffer25
Unti schrieb:
Jedoch lässt sich damit noch viel mehr cooles Zeug bauen.

Noch vor 2025 werden wir "Chips" sehen, die deutlich über 1000mm² Chipfläche haben werden bei unter 400 Watt Verbrauch.

Das ist mit 4x 250mm² als McM deutlich einfacher zu bauen, als mit einem riesigen Chip.

Das Ganze in 3nm und kleiner und wir bekommen Leistung, die ist auf dem Papier 4mal so hoch, wie eine aktuelle RTX3090.

btt:

Damals war Nvidia in der Fertigung auch hinter AMD. Das hatte ich irgend wie gar nicht mehr auf dem Schirm.

mfg
 
Nur kurz zur Ergänzung:

Zu der damaligen Zeit gab es noch keine "Mikroruckler". Diese Diskussion kam erst später auf, unter anderem startete die Diskussion hier in diesem Forum.

Und Mikroruckler entstanden nur
  • durch eine schlechte Spieleengine
  • durch schlechte Einstellungen
  • langsames PCIe Interface (2x8)
  • vsync off

Leitfaden für gutes SLI/CF: erst eine Karte rein, Spiel einstellen dass es ruckelfrei läuft. Dann zweite Karte rein und AA dazuschalten. SLI/CF war nie gut zur Leistungssteigerung, da gab es Mikroruckler. Sondern nur gut zur Steigerung der Bildqualität.

Ich habe das damals, zur Mikroruckler-Diskussion, gebetsmühlenartig wiederholt und weil es dem damaligen Artikel des CB-Redakteures widersprach und ich einfach nicht klein beigeben wollte, wurde ich gebannt. Dieser Redakteur weiß bis heute nicht, wie man ein Multi-GPU System ordnungsgemäß einrichtet...
 
  • Gefällt mir
Reaktionen: Hardy_1916
Raucherdackel! schrieb:
Ich habe das damals, zur Mikroruckler-Diskussion, gebetsmühlenartig wiederholt und weil es dem damaligen Artikel des CB-Redakteures widersprach und ich einfach nicht klein beigeben wollte, wurde ich gebannt. Dieser Redakteur weiß bis heute nicht, wie man ein Multi-GPU System ordnungsgemäß einrichtet...
… und wieder dasselbe Lied, dass man ja SLI/Crossfire nur so betrachten darf, wie du es für richtig hältst.

Dass deine Betrachtung von SLI/Crossfire jedoch nicht der Erwartung und der Anwendung der meisten anderen Nutzer entspricht, lässt du mal wie immer außer acht. Es gibt ja nur deine Ansichtsweise.

Selbst NVIDIA und AMD haben die Multi-GPU-Technik als "Leistungssteigerung" angeben um ggf. in höheren Auflösungen oder mit mehr Details zu spielen und nicht nur schöne um AA hinzuzuschalten.

Dir würde es echt mal guttun, wenn du dich der Realität stellst und deinen Horizont über deinen Tellerrand heraus erweiterst. Deine ständigen Belehrungen über SLI/CF und das es ja alle außer du falsch verstehen und nur deine Ansicht richtig ist, ist an Realitätsverweigerung und an Arroganz kaum zu überbieten.

Na egal, dich hätte ich echt von der Ignore nicht runter nehmen sollen.
 
  • Gefällt mir
Reaktionen: bullit1
Ein_Freund schrieb:
Wenn du einen Artikel oder eine Entwickler Aussage hättest, die in ähnliche Gefilde geht , hätte ich Interesse an einen Link. :)

Patent: AMD plant mit GPUs im Chiplet-Design - ComputerBase

Da kommt sogar schon so einer rein bei CB :)
Bin kein Spezialist und auch nicht in der Halbleiterbranche tätig aber die letzten Jahre gab es immer wieder News dazu und Patente von den GPU Herstellern (siehe dieser Artikel z.B. - das Patent ist schon älter).
Und [wege]mini hat es oben auch nochmal angesprochen, dass dies ein Lösungsansatz wäre.
Ich bin gespannt wie die Zukunft in die Richtung aussieht, wird sicher spannend :)
 
  • Gefällt mir
Reaktionen: Ein_Freund
@Teralios:

So wie ich nur einseitig an diese Thematik rangehe, genauso einseitig waren die Tests zu SLI/CF auf den gängigen Webseiten.

Ich bemängelte nicht die Qualität der Tests, sondern nur die einseitige Ausführung.

Kein einziger Test mit vsync on, weil man dann ja die Leistung nicht vergleichen kann. Allerdings konnte vsync wirklich zu regelmäßigeren Frametimes beitragen. Es macht sich allerdings nicht gut, wenn in einer Grafikkarten Liste zwanzig Karten stehen, von denen vier 30fps, und 16 60fps haben. Das verstehe ich ja auch, dass man so einen Test nicht bringen kann.

Aber einfach nur stur zu sagen, SLI/CF hat absolut keinen Mehrwert, ist de facto falsch und das bemängelte ich.
 
  • Gefällt mir
Reaktionen: PHuV und Swiffer25
Zurück
Oben