News Im Test vor 15 Jahren: Platz da, hier kommt die GeForce 8800 GTX

marcel151 schrieb:
Und das würdest du begrüßen? Aus dem Grund kann man heute mit 5 Jahre alten Mittelklassekarten noch aktuelle Spiele spielen. Ich sehe es als Vorteil.

Ich nicht, da es immer noch keine Karte gibt, die 144Hz in 4K ordentlich darstellen kann. Zumindest bei anspruchsvollen Spielen.
Das war bei der 8800 damals anders. Die hat 2560x1600 auf meinem 30" locker mit 60 Frames hinbekommen, im SLI.

Ein schöner großer Sprung wäre schon wieder ganz nett.
 
  • Gefällt mir
Reaktionen: DriveByFM
Die gesamte 8800er Reihe ist einfach ziemlich legendär. Ich weiß noch, dass ich damals bei LAN-Parties neidisch auf meine Schulfreunde mit ihren 8800 GTS oder GT war, während bei mir noch eine GeForce 7600 GT lief. Auch meine Buddies aus der damaligen Battlefield 2 Szene und der ESL hatten oftmals 8800er Karten.

Die Karten waren für mich und mein Umfeld damals der Inbegriff von Grafikpower. Ich meine auch, dass zum Release von Crysis eine 8800er Karte praktisch auch Pflicht war, wenn man das Spiel mit passablen Settings zum laufen kriegen wollte. Yes, they could run Crysis.

Ich habe übrigens nie eine besessen, auf die 7600 GT folgte bei mir irgendwann eine Radeon 4890 im sehr lauten Referenzdesign.

The Professor schrieb:
Ich hatte damals eine und 580€ taten so dermaßen weh. Heute zahlt man fast ohne zögern 1400€ für ne Mittelklasse 3080...
Tut man das? Ich persönlich könnte keine 1400€ für einen ganzen PC locker machen, geschweige denn nur für eine Grafikkarte. Es kotzt mich einfach an, dass so viele Leute auf die aktuelle Situation mit einem leicht genervten "Ist halt so" reagieren und dann trotzdem kaufen. Die Hersteller sehen das doch und werden ihre Produkte in Zukunft entsprechend teuer verkaufen. Und das hat zur Folge, dass auch die untere Mittelklasse und Einsteigerklasse in höhere Preissphären gezogen werden, die für die eigentliche Käuferschicht dieser Produkte unerschwinglich sind.

Jeder, der aktuelle Grafikkartenpreise bezahlt, ruiniert den Markt nachhaltig und das vor allem zulasten derjenigen, für die es nie eine Option war auch nur 600€ für eine Grafikkarte auszugeben, sondern die auf relativ potente 250-400€ Mittelklassekarten angewiesen waren.

Andy_O schrieb:
Ich nicht, da es immer noch keine Karte gibt, die 144Hz in 4K ordentlich darstellen kann. Zumindest bei anspruchsvollen Spielen.
Das war bei der 8800 damals anders. Die hat 2560x1600 auf meinem 30" locker mit 60 Frames hinbekommen, im SLI.

Ein schöner großer Sprung wäre schon wieder ganz nett.
Laut der Gerüchteküche sollen Lovelace und RDNA3 doch nochmals ordentlich zulegen bei der Performance. Ob man angesichts der angeblich ebenfalls gewaltigen Leistungsaufnahme dabei aber von einem echten großen Sprung reden kann, wird sich zeigen. Eigentlich ist - zumindest meiner Meinung nach - auch die Leistungsaufnahme der aktuellen Topkarten schon deutlich zu hoch.
 
  • Gefällt mir
Reaktionen: [wege]mini, palladium.- und Andy_O
Heute würde Nvidia das nicht mehr machen, da wird so lange kastriert bis noch 10% Mehrleistung ggü, der Vorgänger Gen vorhanden sind.
 
  • Gefällt mir
Reaktionen: Andy_O
Die 8er Reihe war legendär, die 9er Reihe konnte man dann vergessen, die gts 250 war auch nur eine umgelabelte 9er. Erst die gtx 260 war dann wieder sinnvoll.
 
Hurricane.de schrieb:
Eigentlich ist - zumindest meiner Meinung nach - auch die Leistungsaufnahme der aktuellen Topkarten schon deutlich zu hoch.
Da stimme ich dir zu 100% zu.
 
  • Gefällt mir
Reaktionen: Vet und Hurricane.de
Ich weiß auch noch. Damals mit einem Kumpel zu K&M gelaufen und wir haben uns ne 8800 GTS mit einem G92 Chip gekauft :p
 
Fakechaser schrieb:
Sowohl Autor als auch Kommentierende haben die eigentliche Revolution durch die Einführung der G80-GPUs nicht erkannt: CUDA.
Ehh, doch... ↓
Gelbsucht schrieb:
Ich hatte damals glaube noch die Ati HD2600pro und später die 8600GTS (zu der Zeit, als wir hier auf FB alle mit Badaboom die ersten Schritte in Sachen GPU-Encoding gemacht haben war das).
;) :daumen:
 
EVGA 8800 GTS ACS3 SLI.JPG
EVGA 8800 GTX ACS3 SLI.JPG
G80 OVP.JPG


bei mir liegen um die 50 G80 Karten rum
 
  • Gefällt mir
Reaktionen: -=[CrysiS]=-, Andy_O, Hurricane.de und eine weitere Person
habe auch noch ne gtx 9800 was wohl ne umgelabelte GPU ist da.Die will bestimmt keiner mehr kaufen weil die keine ahnung hat eben nen defekt wie es aussieht.So legandär diese GPUS auch sein mögen,gutes Geld bekommt man eben nicht mehr dafür.
 
Nicht nur die 8800er Grafikkarten waren damals ein riesiger Sprung, sondern auch die ersten Dual Core CPUs. ( Core 2 Duo ).
 
ahhhhh endlich die legendäre 8800 GTX.
In meinem Freundeskreis hatten die gleich 3 Leute, war trotz des enormen Preises weit verbreitet.
Einer sogar die Ultra, waren damals schon extreme Karten, vor allem im Vergleich zu dem was so üblich war.

Ich hatte seinerzeit als Schüler nur eine 8600GT, die hat mir damals aber tatsächlich gereicht. Waren auch noch andere Ansprüche und FHD so etwas wie Luxus. 720p war damals schon super. Die Preisspanne war seinerzeit auch schon heftig auseinander, meine Karte hat glaube ich um die 200 oder sogar weniger gekostet und die Karten halt über 500, das war einfach nicht drin. Bin aber auch ganz froh nie diese Heizung gehabt zu haben.

Rückblickend kann man aber sagen war wohl eine der wichtigsten High-End Karten und auch sehr langlebig. Hab mich eben noch mal an diverse Momente aus der Zeit erinnert, schon irre wie lang das her ist und wie der technische Stand damals war.
 
Niemals sollte vergessen werden, wie diese Legende geboren werden konnte: Neben der neuen Architektur kamen große Chipflächen und einer hohen Leistungsaufnahme gegenüber den Vorgängergenerationen hinzu. Beides (also Chipfläche deutlich steigern und Leistungsaufnahme hochschrauben) kann aber eben nicht mehrere Generationen hintereinander geschehen. Entsprechend waren die nächsten Karten auch damals schon eher solala.
Wie sehr solala? Solala wie Pascal, wie Ampere oder gar nur solala wie Turing? Um das sinnvoll beantworten zu können, bräuchte es Neuvermessungen der damaligen Karten mit heutigem Equipment und Methodik.
 
War schon n Dampfhammer damals. Auch was die Heizleistung anging^^
Hatte sie gut 10 Jahre auf nem Striker Extreme (und dabei sicherlich nicht geschont), bis sie dann mit Pixelfehlern anfing und der Bildschirm dann irgendwann nur noch rot war :freak:
 
Ich hatte mir damals die 8800 GTS gekauft, die hatte aber mit enormen Spulenfiepen zu kämpfen und hab die dann zurück geschickt. Also wurde es dann doch die 8800GTX und die war eine Wucht, ich habe selten so lange eine Grafikkarte behalten wie diese. Selbst Crysis konnte man damals damit spielen ... also so einigermaßen :)
 
Definitiv ne sehr gute GPU. Als armer Schüler/Azubi habe ich damals aber zur HD 2900XT gegriffen (bzw. zu zwei Karten). :daumen:
 
CDLABSRadonP... schrieb:
Niemals sollte vergessen werden, wie diese Legende geboren werden konnte: Neben der neuen Architektur kamen große Chipflächen und einer hohen Leistungsaufnahme gegenüber den Vorgängergenerationen hinzu.
Ja gut, das is aber nur logisch. Das hab ich auf FB im späten 2008 oder 2009 auch schon geschrieben, als es um CPUs ging. Die Verkleinerung von Strukturen is halt endlich bzw die Hitzeentwicklung auf zu kleinem Raum wird ein Problem.

Jahrelang ging das noch gut und ich hab schon fast selber net mehr an meine Aussage geglaubt -und dann kam Threadripper. Aber das is nun minimal OT.

Was das mit der Leistungsaufnahme angeht, da fand ich den RTX3080-Test auf CB interessant. Das Fazit war ja ähnlich wie bei einem Intel, das die Leistung "mit der Brechstange" erreicht wird.
 
Ja das erklärt auch warum AMD mit threadripper das Problem gelöst hat. Intel wurde die Produktion von immer größeren CPUs zu teuer. Bei Nvidia wurde dieses Problem auch mit immer größeren gpus gelöst. Und ich gehe mal davon aus AMD wird es bei gpu so wie bei den CPUs machen. Es bringt halt nix es immer kleiner zu machen. Es kommt also immer auf die Fläche drauf an. Je größer diese ist, desto besser die Temperaturen und auch desto besser am Ende die stabile Leistung. Weil es hilft ja nix wenn man massive Leistung nur auf den Papier hat, es aber niemals in echt ankommt. Die Laptops haben da eben so ihre Probleme weil die haben egal was man macht immer ne kleine Kühlfläche. Darum wird auch die gpu und CPU im Laptop immer heißer als am Desktop sein. Ja man muss da halt immer Kompromisse machen, hilft halt nix.
 
Jaa die 8800GTX... wollte sie immer haben damals, hatte nur kein geld dafür...

Heute: Jaa die RTX 3080... wollte sie immer haben, hab immernoch kein geld für sowas XD

Manche Sachen ändern sich nie.

Die Laptops haben da eben so ihre Probleme weil die haben egal was man macht immer ne kleine Kühlfläche. Darum wird auch die gpu und CPU im Laptop immer heißer als am Desktop sein. Ja man muss da halt immer Kompromisse machen, hilft halt nix.
Es würde schon reichen wenn die Hersteller, dadurch das dort directDie stattfindet ggf. mal anfangen könnten Flüssigmetall zu verbauen. Dadurch gehen die Temperaturen in den meisten fällen schon gute 10C oder mehr runter. Denke das ist auch dem umstand geschuldet das man weniger anpressdruck bei laptop Kühlern hat. Weiß ich aber nicht. Aber jeden laptop den ich hatte hab ich umgerüstet und die Temperaturen sind Welten nach unten gegangen. Zumindest dort wo DirectDie vorlag. Alternativ reichts schon die Zahnpasta gegen richtige kühlpaste zu ersetzten.

Da is weniger die Chip Größe (mitunter) das Problem sondern die Umsetzung.
 
Zuletzt bearbeitet:
Zurück
Oben