News Angebliches Bild einer GeForce GTX 690 im Umlauf

Shinobi111

Lt. Commander
Dabei seit
Nov. 2006
Beiträge
1.318
Schön wieder was von NVIDIA zu hören aber wer braucht das Teil, den Preis was das Teil kosten zahlt eh kaum einer.

Ich warte auf die GTX670 :lol:
 

ViRuZ87

Commander
Dabei seit
Jan. 2005
Beiträge
2.145
Das wird eine Turbine sein :D

Ich finds ja schade, dass die Dual-GPU Karten von Haus aus nicht mal mit einem etwas besseren Kühler gefertigt werden.
 

Falbor

Lt. Commander
Dabei seit
Okt. 2008
Beiträge
1.264
sowas gehört sowieso unter wasser, alles andere is verletzung der menschenrechte >_<
unter 3 monitoren hat das monster sowieso keinen sinnn...
 

sebbolein

Commander
Dabei seit
Aug. 2009
Beiträge
2.341
Liegt dadran, dass nur sehr wenig Leute Dual GPU Karten kaufen und der Großteil der Leute, die sich eine kaufen, eh eine Wakü drauf setzt.
 

|SoulReaver|

Admiral
Dabei seit
Feb. 2011
Beiträge
7.225
Die Karte ist schlicht und einfach immer noch die gleiche Bauweise wie seine Vorgänger. Materialien usw. haben sich geändert na ja, ändert aber nichts daran das die Karte wie immer einen großen Teil der warmen Luft hinten in das Gehäuse bläst und somit zur zusätzlichen Erwärmung mit beiträgt.

Muss extrem schwierig sein mal endlich über beide GPU´s einen Kühler samt Lüfter zu bauen. Das sollte mal bei dem Preis drinnen sein.

Ich frage mich echt was jetzt nun mit dem GK 110 ist? Kommt da was oder nicht?
 
Zuletzt bearbeitet:

Schu3

Lieutenant
Dabei seit
Jan. 2011
Beiträge
710
Muss extrem schwierig sein mal endlich über beide GPU´s einen Kühler samt Lüfter zu bauen. Das sollte mal bei dem preis drinnen sein.
Falsch. Das ist eben nicht in dem Preis drin, wenn man noch eine supergeniale Kühllösung haben möchte, dann müsste AMD und NVidia für HighEnd-Kühlungssysteme andere Materialien bzw. Systeme verwenden, welche wieder mehr kosten. Und kein Unternehmen schmälert seinen eigenen Gewinn, indem man etwas besseres (hier die Kühlung) für das gleiche Geld verkauft. Für den Aufpreis, würde die Grafikkarte sich, dann wohl aber noch weniger verkaufen. Deshalb nimmt man lieber nen Schreihals in kauf als noch Geld und Zeit in die Kühlung zu stecken. Zumal weiter oben genanntes (WaKü) auch noch zutrifft.
 

Alienate.Me

Commander
Dabei seit
Aug. 2010
Beiträge
2.713
wieso werden nicht 2 radiallüfter verbaut? würden die luftströme sich stören?

ich bin auf den test gespannt und ob die 2GB nicht doch zum flaschenhals werden.
 

|SoulReaver|

Admiral
Dabei seit
Feb. 2011
Beiträge
7.225
Ist alles gut und recht. Nur muss ich dann wenigsten so viel sein, das ich die Karte so auslege das nicht nur die Wasserkühler zum Zuge kommen sondern man auch einen Alternativkühler mit Lüfter verbauen kann. und kann man das bei den Modellen? Nein. Außer man bastelt sich selber was wie ich damals bei meiner GTX 295
 
Zuletzt bearbeitet:

eXtra

Lt. Commander
Dabei seit
Nov. 2010
Beiträge
1.769
Eine völlig unnötige Machbarkeitsstudie in meinen Augen.

Die Mehrheit der Nutzer (inklusive mir) interessiert sich ohnehin mehr für die kleineren Kepler-Ableger. Die neue Architektur ist sehr interessant, das hat die GTX 680 ja bereits gezeigt. Leider ist der Preis für eine Kepler-Karte im Moment jenseits von gut und böse.

Schade Nvidia, aber so wird das nichts mit uns.
 

pushorfold

Lt. Commander
Dabei seit
Juni 2011
Beiträge
1.543
Die sollen endlich mal die GK110 vorstellen (den sich wohl die meisten hier kaufen werden) und nicht irgendwelche DualGpu Karten.
 

Tombstone

Ensign
Dabei seit
Feb. 2008
Beiträge
207
wieso werden nicht 2 radiallüfter verbaut? würden die luftströme sich stören?

ich bin auf den test gespannt und ob die 2GB nicht doch zum flaschenhals werden.
Kurz gesagt ja!

Wie würdest du das denn realisieren? Wenn man 2 Lüfter nimmt welche ja an sich schon mal 360° um sich herum die Luft verdrängen, würde der Luftstrom beider intern irgendwo kollidieren und einen Hotspot verursachen... Oder aber man setzt auf 2 getrennte Kühler und Kammern die Räumlich getrennt wären was das PCB und die Konstruktion an sich um einiges aufwändiger machen würde. Außerdem würde dann eine der beiden Kammern die erwärmte Luft "nur" nach innen in das Gehäuse blasen können...

So allerdings setzt das gesamte Konstrukt auf einen komplexen Kühlkörper dessen abwärme zu 50% nach außen als auch nach innen geführt wird... Ob meine Theorie das jetzt 100%ig trifft will ich nicht mal behaupten, aber ich behaupte mal das sich da schon so diverse Ingenieure und Konstrukteure Gedanken zu gemacht haben! ;)


€dit:

...Muss extrem schwierig sein mal endlich über beide GPU´s einen Kühler samt Lüfter zu bauen. Das sollte mal bei dem Preis drinnen sein...
Ein Lüfter würde generell die warme Luft aus dem Gehäuse nehmen um sie "ins" Gehäuse zu blasen... den rest habe ich oben beschrieben ;)
 
Zuletzt bearbeitet: (vermeidung doppelpost)
D

Dawzon

Gast
Dass dieses Konzept nicht gerade leise ist hat AMD aber schon bei der HD6990 eindrucksvoll gezeigt. Und ich bezweifle dass nVidia es schafft diese Mühle leiser zu kühlen als AMD. ;)

Wer weiß, vielleicht verbaut AMD bei der HD7990 ja einen Axial Lüfter wie nVidia letztes Jahr bei der GTX 590. Quasi Lüftertausch. :p

Man hätte ja auch ein Kühlkonstrukt wie bei der HD5970 verbauen können, damit wäre die heiße Luft auch wirklich aus dem Gehäuse raus, und nicht 50:50. :freak:
 
Zuletzt bearbeitet:

Tombstone

Ensign
Dabei seit
Feb. 2008
Beiträge
207
Dass dieses Konzept nicht gerade leise ist hat AMD aber schon bei der HD6990 eindrucksvoll gezeigt. Und ich bezweifle dass nVidia es schafft diese Mühle leiser zu kühlen als AMD. ;)

Wer weiß, vielleicht verbaut AMD bei der HD7990 ja einen Axial Lüfter wie nVidia letztes Jahr bei der GTX 590. Quasi Lüftertausch. :p

Man hätte ja auch ein Kühlkonstrukt wie bei der HD5970 verbauen können, damit wäre die heiße Luft auch wirklich aus dem Gehäuse raus, und nicht 50:50. :freak:
Ich bezweifel jetzt einfach mal das ein potenzieller Käufer dieser Karten einen großen wert auf Silence legt oder dieser setzt gleich auf H²O

Was den letzten Satz angeht meinst du vermutlich einen am Ende des PCB platzierten Lüfter... Dieser würde ja quasi bereits erwärmte Luft einer GPU zum kühlen der zweiten GPU nach außen führen... Das würde vermutlich zu größeren Temperaturunterschieden beider GPUs und umliegenden Komponenten führen. Und ob das ideal ist entscheiden wohl ebenfalls die Ingenieure ;)
 

|SoulReaver|

Admiral
Dabei seit
Feb. 2011
Beiträge
7.225
Tombstone hast du jemals so eine Karte besessen? Ich hatte oben schon mal geschrieben man kann sich was basteln, wenn man kann. Ich habe bei meiner GTX 295 damals den mittleren Lüfter ausgebaut und dort die Öffnung für den Lüfter mit einer Kunststoffplatte verdeckt. Am Gehäuse wo die Kühler sitzen habe ich je einen Ausschnitt gemacht und vorne und hinten einen 80mm Lüfter schräg verbaut. Somit blasen diese Lüfter beide in Richtung der Karte nach außen. Zusätzlich habe ich noch hinten eine 80 mal 40mm Lüftungsstutzen der eine Muffe hat mit einem Durchmesser von 120 mm hat verbaut (bekommt man im Baumarkt). Somit kann man da einen 120 mm Lüfter einbauen der von hinten in die Karte bläst ( hinten muss die Karte ausgeschnitten werden)und beide schräg angebauten Lüfter unterstützt.

Alle drei Lüfter am Board angeschlossen. Das ganze hat astrein funktioniert und ich hatte gute Temperaturen damit erreicht. Das Ganze kann man auch wieder mit der neuen GTX 690 Karte machen sie ist ja gleich auf gebaut. Kaufen tue ich mir aber so eine Karte nicht mehr.
 
Zuletzt bearbeitet:

Tombstone

Ensign
Dabei seit
Feb. 2008
Beiträge
207
Hast du da mal Bilder von? Wenn ja schicke die mal an die einfallslosen Ingenieure von Nvidia und AMD... Vielleicht hast du dann ja bald nen gut bezahlten Job?

Jetzt mal im ernst... Ich dachte hier werden die Standards diskutiert und dessen was man konstruktionsbedingt kommerziell umsetzen kann. Ich glaube dir aufs Wort das du dir da mit einfachen Mitteln etwas brauchbares zusammengebaut hast das effektiver war, wäre dies denn auch Quad SLI tauglich gewesen?

PS: Und vor allem war die Konstruktion von dir leiser?
 
Zuletzt bearbeitet:

|SoulReaver|

Admiral
Dabei seit
Feb. 2011
Beiträge
7.225
Nein das ganze hätte zu viel Platz gebraucht. Geht sich in der Höhe nicht aus. Nvidia hat mit Sicherheit schlaue Köpfe und die warten nicht auf mich ;) Ich hab jetzt ja noch eine GTX 580 drinnen und somit keine Eile. Mal schauen was da noch kommt.
 
Zuletzt bearbeitet:

Tombstone

Ensign
Dabei seit
Feb. 2008
Beiträge
207
Nein das ganze hätte zu viel Platz gebraucht. Geht sich in der Höhe nicht aus. Nvidia hat mit Sicherheit schlaue Köpfe und die warten nicht auf mich. ich hab jetzt ja noch eine GTX 580 drinnen und somit keine Eile. Mal schauen was da noch kommt.
Da haste ja schon eigentlich deine Antwort selbst gebracht. Eine Dual GPU ist sicherlich kein Massenprodukt wo man noch Spielraum hat um verschiedene Lösungsansätze zu vermarkten. Am besten man bleibt da bei der Referenzlösung. Damit sich eine Entwicklung lohnt muss sie ja auch Käufer finden.

Und wie viele potenzielle Enthusiasten sich derweil für solche Dinge interessieren dafür gibt es die Marktforschung und die Historie ;)
 

LeXeL

Commander
Dabei seit
Nov. 2010
Beiträge
2.530
ich frag mich was hier immer alle gegen die dual karten haben?
beispiel gtx580 sli vs gtx590, da hat man immer min 100€ gespart bei der gtx590
und rechnet man dann noch 2x90€ vs 1x110€ für nen ordentlichen fullcover wasserkühler ist man schonwieder am sparen
also mMn lohnen sich die karten für jeden der eh überlegt nen sli system zu nutzen

außerdem bekommt man in weniger volumen mehr leistung als mit 2 karten^^

das solche karten ziemlich irrelevant sind für leute die max ne gtx670 oder ähnliches wollen ist klar, aber deswegen ist so ne karte immernoch nicht schlecht
(auch wenn oc nicht so gut geht, aber wenn man ehrlich ist bringts das bei so ner leistung eh nicht viel^^)
 
Top