News Nvidia GeForce GTX 690: Nvidias letzte 90er renderte mit zwei Kepler-GPUs

SV3N

Redakteur
Teammitglied
Dabei seit
Juni 2007
Beiträge
13.528

Ein_Freund

Commander
Dabei seit
Juni 2011
Beiträge
2.358
Ach die Brechstange hat ich schon vergessen, erinnere mich noch ein Half Life 3 Spekulationen^^
Dachte auch erst das die neue eine wieder eine Dual-GPU wäre, da die 90er eigentlich immer Duals waren.
Aber durch das aktuelle fallen lassen, dieser Technik, ziemlich schnell klar war das es eine Singlekarte ist.
 

wickedgonewild

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.707
Zuverlässige und leise Karte. Meine werkelt nach wie vor in einem alten Gigabyte System, ich werd sie nie hergeben. Meine Partnerin hat erst neulich damit DJI Videos konvertiert, das ging noch erstaunlich fix.

Auch Gamestream kann man mit dieser Karte noch nutzen.
 

Anhänge

Zuletzt bearbeitet:

bigfudge13

Commodore
Dabei seit
Mai 2008
Beiträge
4.104
Nicht nur die Leistungsmerkmale sind gestiegen, auch der Preis um 50%, bei nur einer GPU...
 

9t3ndo

Commander
Dabei seit
Dez. 2013
Beiträge
2.139
Hat einen Moment gedauert, bis ich erkannt habe, das die Brechstange kein dickes Kabel ist (Smartphone - Titelbild). Dachte erst ist für den neuen 12 Pin Anschluss.
:freak::daumen:
 

Scheitel

Vice Admiral
Dabei seit
Mai 2006
Beiträge
7.012
Witzig, ich hatte früher auch nen Crossfire der 7970Ghz Edition, das ging auch recht lange gut. Bis vor ner Woche hat die eine 7970 noch bei meiner Freundin im Rechner gewerkelt, für weniger anspruchsvolles hats dann noch gereicht, aber weil ich mir wieder was neues gekauft habe, hat sie dann auch was bekommen ;)

1599294119412.png


Davor hatte ich mal nen QuadSli aus 2 GTX 295, das hat auch funktioniert :)
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
30.372
@9t3ndo

Ging mir aufm Desktop auch so ;)
 

Smartbomb

Commodore
Dabei seit
Nov. 2011
Beiträge
4.197
Ahja, Kepler...
Da wo nvidia die Preistreiberei anfing!
Zum ersten Mal war die 80er Karte nicht der gscheite Chip (100, 102 oder 110), sondern der oberste Mittelklasse Chip (104), den die "Performance Klasse" nannten. Den gabs bis dahin immer nur in den 60er und höchstens 70er Karten (60er. Die 70er hatten den leicht abgespeckten Chip der 80er, also den "großen").
Den big chip nannten nvidia dann 780 und 780 Ti (statt 670 und 680). Und, ganz frech: die 680 + lächerliche 40MHz wurde 770 genannt!
Die neue Namensgebung rechtfertigte man damit, dass die "neuen" Chips ein besseres Preis/Leistungsverhältnis böten.
Tja, und "alle" haben mitgemacht und nvidia blieb dabei.
Später kamen dann noch die Titan mit echtem, richtigem Maximalausbau + bissl mehr RAM und alle so: wooooow.
Das nächste Major Preisupgrade kam dann mit Turing.
Statt 400-500€ für die schnellste (aka 80er Karte wie etwa GTX280/285, 480/580) kostete die RTX2080Ti was? Hahaha, ja, mehr als das Doppelte! Eher mehr das Dreifache für die guten Customs (also die brauchbaren Karten).
Der "Titan-Schmäh" von nvidia hat auch gezogen bzw zieht immer noch...

@SV3N netter Artikel, nur: warum? Oder besserer Titel: die Geschichte nvidias DualGPU Grafikkarten und deren Bezeichnungen.
Im Text steht irgendwo GTX 960. "Zwei Jahre vorher sah das noch anders aus und der GeForce GTX 960 konnte AMD auch erst im April 2013 die Radeon HD 7990 (Test) entgegenstellen."

--> gtx 960? Die langsame single chip Graka? Ich glaube du meinst eine andere :)

MFG
 

Geforce2front

Ensign
Dabei seit
Apr. 2015
Beiträge
204
War echt noch eine schöne Zeit wo Nvidia und Amd/Ati einfach 2 ihrer Top Chips auf einer Platine gelötet haben.

Meine erste Quad Konfiguration bestand aus 2x HD 6990 später aufgrund der Lautstärke auf 2x Gtx 590. den größten Einsatz von Ressourcen hatte ich dann mit meinen Dual Xenon System auf Basis des Asus Z9pe d8 ws und 2x HD 7990.

Für Benchmarks und einfach nur zum Zeigen wars toll. Aber fürs Gaming und aufgrund des enormen verbauchs keine lange Lösung. Nicht zuletzt haben ja immer mehr Entwickler mehr Nägel in den Sarg gekloppt.

Die Technik hatte ja Potenzial und wäre sicherlich mit anderer Hardware und Software noch am Leben und eine Option. Zumal Geschichten wie Freesync und Gsync da doch geholfen hätten.

Aber heute auch durch viele Testberichte bestätigt ist dieses Thema mehr als tot.
 

johnieboy

Captain
Dabei seit
Juni 2007
Beiträge
3.130
2012 war das letzte mal das ich dauerhaft ne AMD GPU hatte. Die 5870 war toll, hab mich aber dann für die GTX680 als upgrade entschieden - und seitdem nur fast noch Nvidia GPUs im Rechener gehabt, während ich bis zur 680 ausschließlich AMD/ATI hatte.
Das Upgrade der GTX 680 wäre eigentlich ne AMD 290X geworden. Diese ist dann aber hochkannt nach einer Woche voller frust wieder rausgeflogen, nachdem die AMD Treiber zu der Zeit so schlecht waren das sie beim schauen eines Youtube Videos jedes mal nen Bluescreen verursacht hatten. Rein kam die 780Ti und seitdem kam keine AMD mehr in Betracht.
 

Marflowah

Lieutenant
Dabei seit
März 2018
Beiträge
975
Man kann echt froh sein, daß die Zeiten von SLI / CrossFire aber auch von Dual-GPUs vorbei sind. Nebenwirkungen wie Mikroruckler konnten trotz kühnster Optimierungsversuche ja nie ganz beseitigt werden. Abgesehen von Stromverbrauch und Wärmeentwicklung.
 

t3chn0

Rear Admiral
Dabei seit
Okt. 2003
Beiträge
5.323
Die Karte wollte ich immer haben, konnte sie mir aber nie leisten. Ich bin glaube ich einer der wenigen Multi-GPU Fans hier im Forum.

Ich fand SLI und Crossfire immer super interessant.

Leider hat der Support ja total abgenommen. Ich hatte vor 8 Wochen durch meine zwei Systeme noch 2x 2080Ti hier. Für Benchmarks war das schon krass. Leider hat fast kein Spiel SLI unterstützt.

Es gab jedoch eine Ausnahme. Battlefront II. Mein lieber Herr Paschulke.... von 90-100FPS mal eben auf 160-180FPS, das war schon beeindruckend und hat mir nochmal vor Augen geführt was tatsächlich möglich wäre.

Ich vermisse solche Karten und durchgängige MGPU Möglichkeiten.
 

Anhänge

Scheitel

Vice Admiral
Dabei seit
Mai 2006
Beiträge
7.012
Top