News Im Test vor 15 Jahren: Inno3D kühlte die GeForce 6800 flüsterleise

Nur wozu eine Aufwändige passiv Kühlung nehmen, wenns eine einfache aktive Kühlung auch tut, bei einen Bruchteil der Kosten? Gerade im Low End wird gespart bis zum geht nicht mehr.
Eine 9800 pro / XT oder X800 / 6600 / 6800 / 6800 LE konnte man gerade noch so passiv kühlen, und auch nur dann wenn die Case Belüftung gepasst hat.

Es macht meiner Meinung keinen Sinn, genau wie heute der Semipassiv Betrieb bei den Grafikkarten keinen Sinn macht. Das heizt nur unnötig auf und bringt überhaupt keinen Vorteil, da man auch Lüfter einsetzen kann die langsam drehen können ohne sich vom Geräusch von der Casebelüftung abheben zu müssen.

Passiv war damals wie Semipassiv heute nur reines Marketing ohne großen nutzen.
 
  • Gefällt mir
Reaktionen: Seby007
Hatte damals die Gainward 6800 GT GS GLH, die hatte den Ultra Takt, war ne tolle Zeit :)
 
Hatte die Gigabyte passiv Variante als freigeschaltete Variante also fast GT Niveau war ein guter Kauf.
 
leckerbier1 schrieb:
Hatte ebenfalls die 128MB Version von Leadtek und war sehr zufrieden.


War ich auch, nur weiß ich noch das damals BF2 raus kam und als Empfehlung eine 256MB Karte wollte. Hatte mich damals etwas geärgert, dennoch von der Performance her eine top Karte. Und der Kühler hat vom Design her auch was her gemacht. :)
 
Seby007 schrieb:
Nicht ganz richtig, für die 1030 z.B. reicht noch ein einfacher kleiner Kühlblock aus Beispiel.

Allerdings stimmt das mit dem Stromverbrauch 100%: Die Geforce 256 damals hatte als Spitzenkarte 20-25 Watt gebraucht, während o.g. 1030 30 Watt braucht als Low-End-Variante...

Wollte damals die Riva TNT2, gabs aber nimmer und mir wurde die Geforce 256 angeboten mit T&L engine. Ich kanns net glauben dass sie nur 20-25 Watt brauchte. Wäre interessant was die GPUs der letzten Jahre leisten könnten bei nur maximal 25 Watt :D.

Edit: Naja glaub es waren mehr als 25Watt. Vllt. 60 oder mehr.
 
Zuletzt bearbeitet:
Der AGP Port kann nur 25 Watt liefern. Für mehr Strom wird ein Zusatzstecker (damals Floppy oder Molex) benötigt. Die erste Karte mit zusätzlichem Stromanschluss war afaik die Radeon 9700 (Pro).

Ja, Geforce 256 hat wirklich nur 20-25 Watt damals geschluckt, was damals allerdings ein Rekord war. Damals(tm) waren Stromtests noch kein Standard.

Den Namen "Geforce 256" könnten Sie wieder beleben, mit einer TDP von 256 Watt ;D

Um zu sehen, was die heutigen GPUs leisten, kann man ja den Real-Verbrauch durch 25 Watt teilen, dann hat man ein passables Ergebnis :) Natürlich ist die Karte etwas schneller als der errechnete Wert.
 
  • Gefällt mir
Reaktionen: firejohn
Sekorhex schrieb:
Mal ne frage was bringt es eig die ganzen Artikel "vor 15 Jahren" auszugraben? Nur mal so aus interesse

Nostalgie!
 
  • Gefällt mir
Reaktionen: tnevermind
Klassikfan schrieb:
Das war am Ende wohl sogar Absicht. Oder konnte man damals schon Lüfter auf der Grafikkarte steuern?
...

Ja, hatte nvidia schon bei der FX5800/Ultra vorgemacht - frag aber nicht nach der Lautstärke 🤮
Ergänzung ()

Seby007 schrieb:
Der AGP Port kann nur 25 Watt liefern. Für mehr Strom wird ein Zusatzstecker (damals Floppy oder Molex) benötigt. Die erste Karte mit zusätzlichem Stromanschluss war afaik die Radeon 9700 (Pro).

...

Nein - Voodoo 5 5500 über Molex
 
816976


Das Bild ist einfach super gemacht, leckeres Grafikkarten-Sandwich. :daumen:
 
Hitomi schrieb:
Das waren noch Zeiten als man schnelle Karten noch passiv kühlen konnte. Wie würde eine RTX 2080 wohl aussehen, wenn man die passiv kühlen würde? wahrscheinlich ein Kiloschwerer Kupferblock oder so ähnlich:freak: Das würde kein normales Gehäuse aushalten.

edit: Mir fällt grade ein das ich auch eine 6800GT hatte. Die war meine letzte AGP Karte bis meinen damaligen AthlonXP in Rente schickte.

Japp, bei mir auch. Meine letzte Karte mit AGP, eine PNY 6800GT. Die 7800 GT eineinhalb Jahre später war dann bereits eine PCIe auf dem nForce 4 Board.
 
Mitte 2005 im Ausverkauf habe ich eine Gigabyte GV-N68128DH gekauft für 130 Euro, also eine sehr ähnliche Karte. Binnen eines halben Jahres waren die Preise auf die Hälfte gefallen. Sie ersetzte eine Geforce 4200 die mit Battlefield 2 nicht mehr zusammenarbeiten wollte und lief anfangs mit einem Athlon 2100+.

Die Karte ist extrem gut verarbeitet, bleibt sehr kühl, gerade wenn man gezielt einen Luftstrom vom Gehäuselüfter auf sie ausrichtete.

In Test kam die Karte schlecht weil sie nicht alle Shader freigeschalten hatte und relativ langsam taktete und nur 128MB RAM bot.

Mit einem BIOS-Update konnte ich alle Shader freischalten und Overclocking bis 380Mhz lief sehr gut und relativ kühl, bei 410Mhz hingegen glühte die Karte regelrecht. Die 128MB waren nie ein Problem, im Gegenteil, das RAM war unerwartet schnell, fast 10% schneller als jede 256MB Karte dieser Zeit.

Insgesamt war diese Karte ein Glücksgriff. Sie war die schnellste native AGP-Karte aller Zeiten und hat mich prima unterhalten bis sie Ende 2006 von einem komplett neuen Rechner mit Core2 E6300 und Geforce 7900 ersetzt wurde.

Da mein Athlon-System damals zu sterben begann (fast alle Kondensatoren etwas madig, Harddisk mit growing defect List) habe ich die Grafikkarte in eine SGI-Workstation mit einem Pentium4HT@3400Mhz umgepflanzt. Der Rechner läuft heute noch als isolierter Classic-Gaming-PC auf XP-Basis.
 
  • Gefällt mir
Reaktionen: andi_sco
Ich hatte auch mal eine GeForce 6800 GT ... ich habe aber keine Ahnung von welchem Hersteller (hat mich iwi nie groß interessiert).

Was mich daran am meisten verwundert hat, war die Haltbarkeit ... ich hatte von einem Freund eine Demo für Racedriver GRID bekommen (erster Teil) ... die Demo lief durch ... sogar einigermaßen flüssig ... aber als das Spiel dann von mir beendet wurde, gabs nurnoch regenbogenfarbige Querstreifen auf meinem Bildschirm.
Halbe Stunde Pause ... und dann war alles wieder gut ... ich habe sie dann kurz später durch eine 7800 GT ersetzt ... und mit der ging dann auch Crysis (Far Cry hat schon die 6800 GT gepackt ... mit 256mb DDR3 aber dafür mit dickem SI).

Die 6800 habe ich dann verschenkt ... und es ist noch keine fünf Jahre her, als die wegen Altersschwäche aussortiert wurde.
Unverwüstlich das Teil ... vielleicht ein Produktionsfehler?

Der direkte Nachfolger der 7800er war dann meine aktuelle GraKa ... HD5770 (vor DX11 sah ich einfach keinen Wechselgrund) ... ich brauch da wohl mal was neueres ;)
 
firejohn schrieb:
Wäre interessant was die GPUs der letzten Jahre leisten könnten bei nur maximal 25 Watt :D.

Dass aktuelle GPU-Technik auch bei noch weniger Verbrauch Kreise um so eine alte GeForce256 rennt, wäre eine krasse Untertreibung.

Ich bin jedes mal baff, wenn ich darüber nachdenke, was für eine respektable Grafikleistung die kleine iGPU im 15W-SoC meines Ultrabooks abliefert. Völlig ausreichend für etwas ältere oder anspruchslosere Spiele (z.B. Civ5, HoI4, WoWs usw.) in FullHD.
Das sind 15W für Quadcore/8-Thread-CPU (bis zu 4GHz Takt), kompletten Chipsatz und iGPU!

Oder noch besseres Beispiel sind die GPUs in modernen Smartphone-SoCs oder auch der Tegra X1 (15W TDP) z.B. in der Nintendo Switch.

Da hat sich unendlich viel getan. Tatsächlich finde ich gerade diesen ULV-Bereich noch beeindruckender, als die 300W-High-End-Grafikkarten.
Man kann heutzutage um Größenordnungen bessere Grafikleistung als Ende der 90er in winzigen Mobilgeräten haben. Wahrscheinlich stecken selbst Smartwatches eine alte GeForce256 in die Tasche.
 
  • Gefällt mir
Reaktionen: Seby007
Herdware schrieb:
Dass aktuelle GPU-Technik auch bei noch weniger Verbrauch Kreise um so eine alte GeForce256 rennt, wäre eine krasse Untertreibung.

Ich bin jedes mal baff, wenn ich darüber nachdenke, was für eine respektable Grafikleistung die kleine iGPU im 15W-SoC meines Ultrabooks abliefert. Völlig ausreichend für etwas ältere oder anspruchslosere Spiele (z.B. Civ5, HoI4, WoWs usw.) in FullHD.
Das sind 15W für Quadcore/8-Thread-CPU (bis zu 4GHz Takt), kompletten Chipsatz und iGPU!

Oder noch besseres Beispiel sind die GPUs in modernen Smartphone-SoCs oder auch der Tegra X1 (15W TDP) z.B. in der Nintendo Switch.

Da hat sich unendlich viel getan. Tatsächlich finde ich gerade diesen ULV-Bereich noch beeindruckender, als die 300W-High-End-Grafikkarten.
Man kann heutzutage um Größenordnungen bessere Grafikleistung als Ende der 90er in winzigen Mobilgeräten haben. Wahrscheinlich stecken selbst Smartwatches eine alte GeForce256 in die Tasche.

Meine Grafikkarte Asus 780 Ti Matrix Platinum ist mal abgeraucht, nutze seitdem die 4770K iGPU und war erstaunt dass ich damit Battlefield 3 und 4 zocken konnte. Mit meinem Vorgänger E8500 Core2Duo und Graka GTX260 waren die genannten Spiele unspielbar.
 
  • Gefällt mir
Reaktionen: Herdware
firejohn schrieb:
Meine Grafikkarte Asus 780 Ti Matrix Platinum ist mal abgeraucht, nutze seitdem die 4770K iGPU und war erstaunt dass ich damit Battlefield 3 und 4 zocken konnte. Mit meinem Vorgänger E8500 Core2Duo und Graka GTX260 waren die genannten Spiele unspielbar.

Speziell bei dern Geforce 200ern gibt es ein anderes Problem: Es gibt keine Treiber für DirectX11 und 12 sondern nur für DirectX10 - was exakt garniemand jemals sinnvoll verwendet hat - und DirectX9 - was wirklich ziemlich alt ist. Je nach Anwendung läuft ein DirectX11-Titel auf einer DirectX9-Karte entweder garnicht oder extrem langsam wegen Emulation. Oder man erzwingt DirectX9 mittels Konfig/Kommandozeile/Geheimoption uswtf...
Die reine Performance einer Geforce 260 reicht für vieles und wenn man bei den Effekten etwas runter geht läuft sogar noch eine recht hohe Auflösung recht gut, ich habe hier mehrere DirectX11-Spiele die mittels Command-Line-Option auf DirectX10 oder 9 runtergeschalten werden und dann passabel laufen - darunter ARK, das letzte Tomb Raider, diverse Total War Spiele usw.

Gerade Battlefield 3 konnte ich in 1920x1200 mit 50-60fps bei mittleren Details sehr gut auf meinem Core2 Q9550@3400Mhz und Geforce 260@1100Mhz spielen. Aber natürlich mußte ich erstmal DirectX9 erzwingen.

Seit 2018 kommen einige Neuerscheinungen nicht mehr mit DirectX9 zurecht bzw. bieten keine Option mehr um DirectX9 zu erzwingen. Auch wurden einige alte Spiele im Laufe 2018 zu fordernd für eine 260er, WOT und ARK z.B. erfodern inzwischen so viel Textur-RAM daß man sie nicht mehr auf der 260er nutzen kann - das kam ohne Vorwarnung von einem Tag auf den anderen und imho etwas grundlos weil sie bis zum Schluß eigentlich ganz flüssig lief und es wirklich nur am Textur-RAM scheitert. Imho ist das kein Problem weil selbst mein Q9550 inzwischen eine Radeon 285 hat und damit deutlich besser als früher ausgestattet ist - hätte es nicht gebraucht aber die gab es 2015 neu für 150 Euro. Die Geforce 260 sitzt derzeit in einem PentiumDC E6700@3600Mhz und wird nur noch zum Surfen verwendet. Bis 2018 ging es mit ein paar Tricks und Kniffen noch aber jetzt ist die Zeit halt rum.
 
Zurück
Oben