News Im Test vor 15 Jahren: Dual-GeForce-7800-GT mit externem Netzteil

PietVanOwl schrieb:
Schade das die Board Partner heutzutage von den GPU Herstellern so enge Vorgaben bekommen, dadurch bekommt man solche experimentellen Karten gar nicht mehr zu sehen.

Ja leider. Die dürfen ja heute quasi gar nichts mehr, außer ihren dicken Kühler darauf zu hämmern und etwas übertakten.
 
  • Gefällt mir
Reaktionen: PietVanOwl
deo schrieb:
Da sieht es skurril aus, wenn sie manche Leute 5 Jahre und länger im PC hatten und die Einsteiger Gamer Karten schon schneller waren.

Ist auch nicht anders als heute eine GTX 980Ti. Ist auch langsamer als viele Einstiegskarten, reicht vielen aber trotzdem noch immer aus ^^

Das gleiche mit der noch immer recht beliebten 1080, wird nächstes Jahr auch 5 und dürfte dann auch nur noch auf Augenhöhe der RDNA2 und Ampere Einstiegsklasse sein.

Aber solange man damit zufrieden ist und alles was man damit macht läuft, warum nicht. Bin in er wieder erstaunt, wie lange Grafikkarten halten, wenn man nicht in der höchstmöglichen Auflösung oder allen Reglern auf Ultra zockt.


Replay86 schrieb:
[...] außer ihren dicken Kühler darauf zu hämmern und etwas übertakten.

Und auch das mit dem Übertakten hat sich ziemlich erledigt. Zumindest bei Ampere. Die laufen ab Werk ja schon ziemlich am Limit. Selbst das Thema dicker Kühler wird immer unnötiger bei den immer besser werdenden FE Karten. Teilweise sind die Customs heute sogar schlechter als die FEs...

SV3N schrieb:
Ich hatte damals zwei 7800 GTX im SLI, gefolgt von zwei 7900 GTX im SLI, gefolgt von zwei 8800 GTX im SLI, die wenig später bereits zwei 8800 Ultra im SLI weichen mussten. :D

Hui da war Geld im Überfluss vorhanden, wenn man von 8800GTX SLI auf zwei Ultras wechselt :) oder aber das Hobby wurde mal so richtig ausgelebt 😇

Hast du die Ultras noch? Sind heute ziemliche Sammlerstücke.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA
TeeKay schrieb:
Die Industrie hatte 1,5-2 Jahrzehnte Zeit, Konzepte für die Kühlung zu verfeinern. Auch die Gehäuse sind heute ganz anders. Das Konzept von Airflow war den meisten damals unbekannt. Damals galten Pentium 4 mit 70W TDP als Stromverschwender.
Das Problem ist das man damals kaum auf Airflow setzen mußte weil die HArdware allgemein erhenlich weniger Strom fraß.
Nur mal deine Bilder als Beispiel wo ich aufgrund des Kühlers auf eine Geforce 3 Tippe, welche wiederum lt. des damaliten Tests mit 15W dabei war und damals bereits als Stromhunrig galt. Heutige Karten dieser Leistungsklasse sind ca. mit dem 20 fachen oder inzwischen noch mehr dabei.
https://www.computerbase.de/2001-07/test-elsa-gladiac-920/2/#abschnitt_spezifikationen

Die 6800 Ultra dürfte wiederum bereits mit ca. 100 - 120W dabei gewesens ein, was leider nicht so einfach zu ermitteln ist da seinerzeit nur der gesammtverbrauch gemessen wurde und die Karten noch keine sonderlich effektiven Stromsparmechanismen besaßen. Also Schätzung der über Differenz zwischen der sparsamsten Karte @ Idle vs. Last bei der gewünschten Karte, abzüglich eines Puffers für die Zusatzlast der CPU und die damals schlechtere Effizienz der Netzteile.
https://www.computerbase.de/2004-06/test-x800-pro-xt-pe-und-geforce-6800-gt-ultra/19/

Die Gehäuse Kühlung hat sich also vor allem verändert weil sie es wegen dem rasant steigenen Strombedarf der Hardware ganz einfach mußte.
 
  • Gefällt mir
Reaktionen: TeeKay und NMA
andi_sco schrieb:
Ne, das ursprüngliche SLI lief da besser
Das einzige was jemals richtig lief war meiner Meinung nach das von Voodoo 3dfx.

edit:
Mist, ich habe nur dein Zitat gelesen und dann hat @SV3N es ja auch schon geschrieben
Ergänzung ()

edit 2:
Hat 3dfx nicht das Bild in gerade und ungerade Zeilen aufegeteilt und NVidia in gerade und ungerade frames? Daher war das 3dfx besser. Warum das ganze damals technisch ging und heute nicht mehr verstehe ich nicht.

Ich freue mich eh drauf, wenn CPU = GPU wird. Ob das jemals passieren wird ist die Frage.

Shoryuken94 schrieb:
Ist auch nicht anders als heute eine GTX 980Ti. Ist auch langsamer als viele Einstiegskarten, reicht vielen aber trotzdem noch immer aus

Daher kaufe ich mir lieber alle 3 Jahre eine xx70 für die Hälfte des Preises als alle 5 Jahre das doppelte zu Zahlen. Die Sprünge sind zwar kleiner, aber alle 3 Jahre ein neuen PC zu kaufen macht einfach Spaß.
 
Zuletzt bearbeitet:
Ich hatte früher auch mal mit den Gedanken gespielt Multi GPU zu nutzen, daraus wurde aber nie was. Zum einen war es bei mir so: Dachte holst erst mal eine GPU und später ne 2. dazu. Ja nur später war dann eine Karte schneller als 2 vom Vorgänger. :p
https://www.computerbase.de/2008-08/programm-simuliert-mikroruckler/
Das Tool gab mir dann den Rest, da sah man wie heftig die Mikroruckler eigentlich sind. (Der Download ist leider nicht mehr verfügbar.) MFG Piet
Ergänzung ()

brabe schrieb:
aber alle 3 Jahre ein neuen PC zu kaufen macht einfach Spaß.
Ansichtssache ;) Mir macht das Basteln schon sehr viel Spaß, kostet aber wenn man ständig was machen will. :D MFG Piet
 
Zuletzt bearbeitet:
brabe schrieb:
... damals technisch ging und heute nicht mehr...

Soweit ich weiß hängt es mit den Shadern zusammen
 
  • Gefällt mir
Reaktionen: NMA
brabe schrieb:
damals technisch ging und heute nicht mehr
Liegt das vielleicht auch daran das früher die Bilder per Zeilen Aufbau erstellt wurden? Heutzutage wird doch das Bild komplett erstellt und dann ausgegeben. Bitte korrigieren falls ich da falsch liege. MFG Piet
 
brabe schrieb:
edit 2:
Hat 3dfx nicht das Bild in gerade und ungerade Zeilen aufegeteilt und NVidia in gerade und ungerade frames? Daher war das 3dfx besser. Warum das ganze damals technisch ging und heute nicht mehr verstehe ich nicht.
Bei 3dfx hatten alle GPUs des Verbundes am gleichen Bild gearbeitet und arbeiteten dabei an unterschiedlichen Zeilen des Bildes, bei AFR berechnet jede wiederum GPU ihr eigenes Bild und da hierbei der Arbeitsaufwand je GPU variiert kommt es zu den Frametime Problemen.

Die zeilenweise Variante von 3dfx funktioniert wegen der heutigen Shader Effekte nicht mehr weil diese sich gern mit Werten über das ganze Bildbereiche hinweg arbeiten, weshalb bei 3dfx der Rampage Chip zunächst mit einem separaten T&L Chip arbeiten sollte.

Was ich mir allerdings vorstellen könnte ist das der heutige TBR Ansatz für eine effektivere Multi GPU Technologie genutzt werden könnte indem die Tiles auf die GPUs verteilt werden.
 
  • Gefällt mir
Reaktionen: PietVanOwl und brabe
Stimmt, daher heißt es ja auch AFR, Alternate Frame Renderer.
Sehr schön nochmals mein Gedächnis aufgefrischt.

Schade, dass es nicht größere GPUs gibt mit weniger Verlustleistung. Ich mag ein kaltes System. Aber 320W für die aktuellen High End Karten ist schon der Wahnsinn. Daher bleibe ich lieber bei Karten bis maximal 225W bzw eher 175W.
 
Bezüglich "SLI versus DUAL GPU" möchte ich noch etwas einwerfen, was mir bei manchen Spielen sauer aufstößt.

Einige Spiele wie World of Tanks unterstützen kein SLI, aber auf einer GTX590 werden beide GPUs genutzt?! Das mag daran liegen, dass sie vom Treiber anders ans System gemeldet werden, als zwei echte Karten im SLI-Verbund. Im Gerätemanager wird ja immer angezeigt, das wievielte Geräte am Bus es ist bzw. welche Lanes genutzt werden. Wenn man also sowas wie eine Voodoo 5 6000 aus Nvidia-Chips bauen würde, könnte man womöglich so auch die aufsummierte Leistung nutzen (mit Abschlägen wie bei SLI).

Zum Thema RTX sehe ich alsbald auf dem Profisektor folgende Konstellation aufkommen:

Ähnlich wie bisher das Nvidia Maximus aus Quadro und Tesla eine mächtige Kombi für 3D+CUDA war und ist, sehe ich starke Quadros mit zusätzlichen RTX-Booster Karten, die bei ausreichender 3D-Leistung der Quadro einfach mehr RTX-Leistung hinzufügen.

Wenn sowas auch für den Consumer verfügbar würde, könnte man sich je nach Nutzungsprofil 3D+ Raytracing+CUDA zusammenstellen. (Hintergrund für Maximus war, dass das Umschalten zwischen 3D und UDA bei Nvidia lange dauert und somit Leistung kostet. Man hat das also so gehandhabt, dass die Quadro den 3D-Anteil machte und die Teslas die CUDA-Anteile übernahmen. Und damit gab es keine Leistungseinbußen mehr durch Wartezyklen beim Switch zwischen beiden Berechnungsmodellen, da beides ja parallel berechnet werden kann im Verbund. Bei SLI muß man ja auch eine Karte im Verbund für CUDA teilweise oder ganz abstellen.)

In meinem Leben werde ich wohl noch manches erleben, aber meine Reaktionszeit liegt dann wohl deutlich über der notwendigen. ^^
 
Agent500 schrieb:
Dual Chip Karten sind einfach schön. 🤩
Nvidia Chip auf rotem PCB die Internetpolizei ermittelt ;)
 
  • Gefällt mir
Reaktionen: Agent500 und Love Guru
Gainward Karten waren ab der GeForce 2 bis zur GeForce 6 immer rot.
 
  • Gefällt mir
Reaktionen: Agent500 und kryzs
mreyeballz schrieb:
Wir hatten die Karte tatsächlich damals für einen Mitschüler verbaut, der uns eines Tages einen dicken Briefumschlag mit seinem Konfirmationsgeld in die Schule mitbrachte und sagte: "Baut mir den besten PC, den ich dafür bekomme."

Uns ging recht schnell die Hardware aus, da es eine enorme Summe war. Es wurde dann (ohne Gewähr, da es schon 15 Jahre her ist):

Athlon 64 X2 4800+
EPoX EP-9NPA+ SLI
4x 512MB RAM
4x 250 GB HDD (hier merkt man schon die Verzweiflung, da man nicht mehr wusste wo man das Geld noch hinstecken sollte)
Ein viel zu überdimensioniertes Enermax Netzteil mit komplettem Kabelmanagement (das hat auch die Karte komplett versorgt, das externe Netzteil haben wir nicht gebraucht)
Ein Thermaltake Big Tower mit Wasserkühlung (er wollte unbedingt eine Wasserkühlung)
Und eben jene Karte.

Es gab sogar noch Rückgeld für ihn und er war jahrelang super zufrieden. Die Karte war also durchaus alltagstauglich.

Sorry, aber ich finde diese Geschichte irgendwie super geil.
Bitte mehr von sowas, MitCBler!

Wadenbeisser schrieb:
@mreyeballz

Ich war damals schon ein paar Jahre älter, war von der 2900XT auf die 3870X2 umgestiegen und kann nur sagen dass das Mikroruckler Thema total übertrieben wurde weil der Performance Zuwachs massiv war, obwohl eine GPU nur ca. die Leistung der 2900XT hatte.

Ja der Verbund war zum Teil deutlich problematischer weil es nicht out of the Box funktionierte und z.B. auf weitere Unterstützung seitens der Software angewiesen war aber meine damaligen Spiele liefen damit wunderbar.
Die sogenannten Mikroruckler fielen mir nur im unteren FPS Bereich auf wo eine GPU ohnehin schon hoffnungslos überfordert gewesen wäre.

Nicht meine Erfahrung. Hatte damals eine 4870X2.
Man merkte den Unterschied auch bei höheren Bildraten deutlich. (60-80)

Umstieg auf eine Einzelkarte nach Defekt war ein krasser Unterschied.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mreyeballz
Geforce 6000 / 7000 und wie sie alle hießen habe ich komplett ausgelassen, die ATi XXX Produkte waren damals aber auch nicht wirklich besser.
War so die Zeit in der es plötzlich wieder Mondpreise gab und die Grafikkarten extrem schnell veraltet waren und noch so Mini-Dinger wie das Modell hier mit winzigem Kühler der zu laut war.
Finde da hat sich schon einiges getan, wenn heute auch der Stromverbrauch einer einzelnen Karte bis hin in den Dual-GPU Bereich geht, lol xD
Diese Karte hier war aber echt ein Exot, selbst in meinem Umfeld hatte die quasi keiner. Mit externem Netzteil ist auch wirklich irre. ^^
 
brabe schrieb:
Ich fand SLI nie wirklich interessant. Von Anfang an gab es Gerüchte über Mikroruckler. Diese konnten dann auch nachgewiesen werden.
sieht halt einfach nice aus, 2 GPUs im System :) Hatte früher ein GTX570 SLI und dann nochmal ein GTX 780 TI SLI, immer nur CS gezockt, dafür dann auch noch eine GPU deaktiviert, egal! hat auf jeden Fall Spaß gemacht in den Rechner zu schauen :daumen:
 
brabe schrieb:
Schade, dass es nicht größere GPUs gibt mit weniger Verlustleistung. Ich mag ein kaltes System. Aber 320W für die aktuellen High End Karten ist schon der Wahnsinn. Daher bleibe ich lieber bei Karten bis maximal 225W bzw eher 175W.
Für die enorme Anzahl an Transistoren sind die GPUs sehr effizient. Ein Zen2 Chiplet hat 3,9 Milliarden Transistoren, davon vielleicht ein Drittel bis 40% Recheneinheiten. Der Rest ist Cache und I/O, die weniger Strom brauchen. Ampere hat 28 Milliarden Transistoren, davon kaum etwas Cache und IO. Also mindestens die zehnfache Anzahl befeuerter Transistoren wie ein Zen2 Chiplet.
 
brabe schrieb:
Ich fand SLI nie wirklich interessant. Von Anfang an gab es Gerüchte über Mikroruckler. Diese konnten dann auch nachgewiesen werden.
Ich hatte damals ein SLI System mit 2x GTX 285. War schon ne Performance-Wucht, allerdings mochte X3: Reunion SLI nicht besonders und der Treiber ist dort regelmäßig abgekackt.
Hach, damals hatte ich noch richtig viel Zeit und Stunden ins Übertakten der CPU (Intel Core 2 Quad, Modell fällt mir nicht mehr ein) und des RAMs investiert. Wieviel Lebenszeit ich damit verbracht hab auf Memtest- und Prime95-Prozentzahlen zu starren, möchte ich gar nicht wissen :D
 
Wer die heute besitzt, sollte die nicht mehr hergeben. Schöne Grafikkarte für die Vitrine... :D
 
Hachja, ich hatte damals eine 7800 gt (nicht dual) und mir damals ausgemalt wie krass die Zukunft wohl wird wenn man dann dual GPU auf einer Karte hat und dann noch 2 Karten davon als SLI Verbund einbauen würde :D
Tja, sollte dann doch kein Mainstream werden. :D
 
Zurück
Oben