News Im Test vor 15 Jahren: Was brachte günstiges Multi-GPU vor 15 Jahren?

Das waren Zeiten wo man einfach für knapp 500€ eine high end GPU kaufen konnte und jahrelang Ruhe hatte.

Kein ärger mit Multi GPU oder absurde Preise wie heute.
Ergänzung ()

Wechsler schrieb:
Da holen Single-GPUs dank PCIe 5.0 schon kräftig auf.
Die Schnittstelle hat weder mit dem Verbrauch noch Lautstärke irgendetwas zu tun.
 
  • Gefällt mir
Reaktionen: Kenshin_01
7H0M45 schrieb:
War aber nicht auch das Problem, dass bei der nächsten Generation an Karten ne Midrange Einzelkarte schon wieder schneller war?
Absolut, gefühlt kam doch alle 8-12 Monate schon was schnelleres...
Hardy_1916 schrieb:
die 253W beziehen sich auf das Gesamtsystem.
Macht es jetzt nicht besser? Ist im Vergleich zu heute übertrieben viel.
DaBo87 schrieb:
253W im Idle bei einer 8800 Ultra? Mein lieber Herr Gesangsverein O_o
Gesamtsystem wie Hardy geschrieben hatte, dennoch extrem viel, auch im CPU Bereich hat sich hier viel getan, ein PC mit 4090 und i7-13700K braucht nichtmal 45W im reinen Idle.
Und wenn man bei dem i7 das Core Parking ausschaltet, dann braucht sie anstatt 9 W, direkt mal 55W^^.
Also ja, viele Features dazu gekommen.
piccolo85 schrieb:
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Jaein, SLI war damals die Nische der Nischen.
Vom Preisaspekt hast du natürlich recht.
Ich hatte eine 8800GTX für 600, danach 2x GTX280er für kp 1100?! und dann 3x GTX580er für 1500€? - irgendwie so. Mein letztes sinnbefreites SLI Setup war tatsächlich mit 2x GTX1080er und bei Gott, 10 Minuten nach Einbau und Spielstart bereute ich es 😂
Von dem her stimmt die Rechnung schon - vergessen viele.
Auch vergessen viele, dass früher CPU+Plattform viel viel teuerer waren als heute, wenn ich mich an die 1K CPUs von Intel zurückerinnere^^.
Ergänzung ()

Hate01 schrieb:
Das waren Zeiten wo man einfach für knapp 500€ eine high end GPU kaufen konnte und jahrelang Ruhe hatte.
Das waren Zeiten, in denen gefühlt alle 8 Monate neue Karten kamen und mit dem 5 AAA Titel im Jahr bei max. Settings die Hardware schon wieder zu langsam war.
Jahrelang ruhe? Nein. Heute ist da einiges beständiger!
 
  • Gefällt mir
Reaktionen: mr_clark und piccolo85
Danke für den nostalgischen Rückblick in diesem Jahr, im Test vor 15 Jahren Feier ich mit am meisten! :daumen:

Heftig, wie stark eine Ultra damals gegen Sli und CF alleine stand gehalten hat.

Sowas sehe ich heute immer noch gerne auch wenn mir eine 8800GTX reicht.:smokin:

Guten Rutsch wünsche ich schon mal:schluck:Danke!

CCE75DE8-CEDB-4687-AE39-0D440851A1CF.jpeg
BE280818-425B-45AD-A58D-D6CBDFA68103.jpeg
 
  • Gefällt mir
Reaktionen: Aquilid und LETNI77
Pisaro schrieb:
Nicht wirklich. Mal komplett abgesehen von SLI/CF: Auch vor vielen vielen Jahren waren 30 FPS nicht "butterweich".
Zumal eine 8800GTX/Ultra Crysis in 1650x1050 gut mit 28-40 FPS im High Preset wiedergeben konnte, dann lieber so, als mit SLI, mir kam das damals schon im Stuttery vor, noch bevor das Thema überhaupt so durchgekaut wurde.
 
  • Gefällt mir
Reaktionen: Pisaro
Hate01 schrieb:
Gut wer immer mit max settings spielen will braucht ständig etwas neues. Das war nie anders.
Jein, du kannst heute viel mehr Titel (auch neue) in voller Pracht bewundern als damals.
Damals waren viele GPUs zum Ende des 1 Jahres Zyklus schon am Ende und konnten Titel in darauf folgenden Jahren nur noch in Diashow wiedergeben.
Das ist heute nicht mehr so. Schau dir an, wie gut sich Hardware von 2016 noch schlägt. Das wäre damals undenkbar gewesen.
 
vad4r schrieb:
Ich fand Multi GPU immer massiv uninteressant. Selbst als die Voodoo 5 5500 auf dem Markt kam, denn da war ich schon bei der Geforce 256.
Auch die späteren Setups mit jeweils 2 PCBs ließen mich kalt. Teuer, uneffektiv, laut, stromfressend - die negativen Punkte haben immer überwogen. Einzig eine 9800gx2 hatte ich mir mal im Abverkauf bei Alternate gekauft und das beste an der Karte waren die LEDs.

Allerdings bastel ich immer gerne an PCs und es ist mir egal, wie alt die Hardware ist. Über die Jahre hab ich mir ein paar Crossfire, SLI und Quad SLI Systeme aufgebaut. Auch ein Rechner mit Rage Fury Maxx und V5 5500 steht hier rum. Alle schon Retro Lan erprobt, wo sie sich gut behauptet haben. Wenn man sie bencht, merkt man gut, wie gering der Leistungsgewinn ist. Der größte Vorteil ist wohl, das es optisch was hermacht :D

P4 mit 2x 7950GT @ SLI
Anhang anzeigen 1304657 Anhang anzeigen 1304658

Opteron 185 mit 2x 7950gx2 @ Quad SLI
Anhang anzeigen 1304661 Anhang anzeigen 1304662

Athlon K7 800 mit Rage Fury Maxx
Anhang anzeigen 1304663 Anhang anzeigen 1304664

Athlon XP 2800+ mit 3dfx Voodoo 5 5500
Anhang anzeigen 1304666 Anhang anzeigen 1304667

Core 2 Duo E8500 mit 2x HD3870 im Crossfire
https://www.computerbase.de/forum/t...ie-135-euro-wunderwaffe.2114281/post-27683778
Wunderschön anzusehen, allein die Gehäuse Hammer :daumen:
 
  • Gefällt mir
Reaktionen: vad4r
Unti schrieb:
Zumal eine 8800GTX/Ultra Crysis in 1650x1050 gut mit 28-40 FPS im High Preset wiedergeben konnte, dann lieber so, als mit SLI, mir kam das damals schon im Stuttery vor, noch bevor das Thema überhaupt so durchgekaut wurde.
Weil Crysis auf Nvidia Hardware anfangs furchtbar verbuggt lief. musst dir nur mal die Changelogs der verschiedenen Versionen durchlesen. Crytek patchte da Unmengen von Darstellungsfehlern raus. AMD lief out of the box zwar ein bissl schlechter, aber da wurde alles korrekt angezeigt. Nvidia cheatete da mit teilweise nicht gerenderten Objekten...
 
piccolo85 schrieb:
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Und die PS4 ist schneller als 43x PS2 Konsolen soll man jetzt den gleichen Preis für die man damals 43x PS2 Konsolen bekommt jetzt für die PS4 zahlen?
 
  • Gefällt mir
Reaktionen: Aquilid
Pisaro schrieb:
Dann werden wir uns jetzt im Kreis drehen, denn ich sage: ALLE Konsolenspiele sind/waren nicht wirkich ruckelfrei.
Kannst du natürlich gern schreiben, aber meine gelockten 30fps laufen trotzdem ruckelfrei und ich werde jetzt trotzdem keinen G-Sync-Monitor kaufen.

Da gibt es natürlich so einiges, was die 30 fps nicht durchgehend hält (wie CyberPunk 2077 auf der PS4), das ruckelt dann natürlich. Das liegt aber nicht an den 30 fps. Das liegt dann an den 20 oder 15 oder 12 fps. Aber genau das konnte ein SLI-Setup ja bequem auf 30 heben.

Hate01 schrieb:
Die Schnittstelle hat weder mit dem Verbrauch noch Lautstärke irgendetwas zu tun.
PCIe 5.0 definiert unter anderem auch eine neue Stromversorgung mit bis zu 600 W. Das sind ja durchaus Bereiche, die früher bei SLI-Setups üblich waren.

Als ersten PCIe-Stromstecker definiert wurden, wollte man eigentlich mit 75 W und später 150 W pro GPU hinkommen. Daß da gleich mehrere Stecker an einer Grafikkarte landen, war so gar nicht geplant. Deshalb der neue Stecker mit 300, 450 oder 600 W, je nach Auslegung.
 
Uh ich weiß noch wie ich mir von dem ersten Gesellengehalt eine Evga 7950x2 gekauft (550€ für Highend damals) habe und gefühlt Wochen gebraucht habe bis ich Mal geschnallt habe das ich für die Games ein SLI Profil brauche.... Aber dann ging's ab
 
  • Gefällt mir
Reaktionen: Aquilid
Wechsler schrieb:
Das liegt aber nicht an den 30 fps.
Doch, tut es. Egal wie schlecht deine Augen sind, du wirst doch wohl den Unterschied von 30 FPS auf 60 FPS+ sehen? Denn kann man nämlich nicht nicht sehen...
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Hat dieses SLI, CF oder Dual GPU eigentlich jemals richtig Funktioniert, ohne ständige Mircoruckler etc.? Das einzige CF Artige System was ich jemals gebaut hatte war eine AMD APU mit einer Radeonkarte zusammen, das Lief ganz gut, aber wahrscheinlich nur, weil es da kein Bridgecable gab.

Damals gab es einfach noch kein iF was genug Tempo zum Verbinden der GPU´s hatte.

Diese Bridgecable machten mir immer einen antiken Eindruck, auch schon damals.
Hatte was von mini ATA33 Kabel.

mfg
 
@C4rp3di3m richtig funktioniert hat SLI schon. Als der Hersteller der Karten mit dem Feature noch 3dfx hieß.
 
  • Gefällt mir
Reaktionen: Aquilid, Felix#, -=[CrysiS]=- und eine weitere Person
piccolo85 schrieb:
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Was auch vergessen wird ist, dass die Komponenten momentan den GPU Herstellern um einiges mehr kosten als früher! Ich bin selbst in der Entwicklung tätig und die Elektronik Zulieferer nützen die Situation vollkommen aus! Wird ein Teil benötigt, so ist es nicht lieferbar, außer man bezahlt, den Preis pro Stück, wie früher für 100 Stück! Ansonsten könnte ja auch AMD seine Preise so weit senken, dass nVidia GPUs unattraktiv werden, aber ich gehe davon aus, dass es Wirtschaftlich momentan nicht machbar ist.
 
  • Gefällt mir
Reaktionen: piccolo85 und GERmaximus
Kannst du mir dann erklären wie sich Microsoft noch immer erlauben kann die Series X/S vorallem die S ohne Preiserhöhung zu verkaufen?
 
  • Gefällt mir
Reaktionen: Aquilid
Hate01 schrieb:
Das waren Zeiten wo man einfach für knapp 500€ eine high end GPU kaufen konnte und jahrelang Ruhe hatte.

In meiner Erinnerung war so eine highend GPU direkt bei erscheinen der neuen GPU hoffnungslos veraltet und wertlos. Da war jahrelang Ruhe eher monatelang Ruhe. Zumindest in meiner Erinnerung
 
@MysticStuff soweit ich das weis werden die Konsolen selbst sowieso querfinanziert. Geld kommt dann mit Spielen und Zubehör rein. Und die Hardware wird sich preistechnisch vermutlich nicht verändert haben da hier sicher Langzeitverträge laufen.
 
Pisaro schrieb:
Doch, tut es. Egal wie schlecht deine Augen sind, du wirst doch wohl den Unterschied von 30 FPS auf 60 FPS+ sehen?
Aber ruckeln tut beides nicht. Ruckeln bei (nvidia-)SLI entstand durch die Tatsache, daß zwei nacheinander folgende Frames auf unterschiedlichen GPUs unterschiedlich schnell gerechnet wurden dann halt mit maximaler Durchsatzrate (für den Benchmarkbalken) auf den Schirm gebracht wurden. Der eine Frame wurde dann z. B. in unter 16 ms fertig, der zweite hinterher aber leider erst in 20 ms, das ruckelte dann.

Lockt man das auf die gleichen Framezeiten fest (z. B. 33.3 ms) und hat man immer genug GPU-Leistung in der Hinterhand, bemerkt man davon nichts mehr. Wenn die 60 fps ganz nicht erreicht werden, locke ich deshalb auf 30 fps V-synchronisiert, dann ruckelt auch nichts.
 
Wechsler schrieb:
locke ich deshalb auf 30 fps V-synchronisiert, dann ruckelt auch nichts.
ich glaube @Pisaro meint nicht das ruckeln im Sinne von unterschiedlichen frametimes ich glaube er meint das ein 30fps Bild halt gleichmäßig mit 33ms ruckelt.

Ich kenne dies von mir selbst, bin seit 2014 mit 144hz unterwegs.
Setzt man sich dann an ein 60 oder 30fps System, wirkt es komplett ruckelig, einfach weil so wenig Bilder pro Sekunde kommen. Ganz unabhängig von den frametimes.
 
  • Gefällt mir
Reaktionen: Pisaro
Zurück
Oben