News GeForce 9800 GX2 des Kühlers entledigt

erinnert mich unweigerlich an die vodoo 5 karten ^^
 
Der Kühler muss end-scheisse sein. SingleSlot, um 2 100W Chips zu kühlen? Das muss ja schreiend laut sein. Zumal der Lufteinlass verhältnismässig winzig ist. Ich find ATIs 1-PCB-Lösung deutlich sinnvoller.
 
HisN schrieb:
Auch die ATI ist eine halbgare Crossfire-Lösung^^
Die beiden GPUs sind auf EINEM EINZIGEN PCB verbaut, bei Nvidia auf zwei

Wintermute schrieb:
Die 3870 benutzt auch EINEN Kühler für beide Chips. So what? Nur weil nvidia hier 2 PCBs zusammenpappt, muss es nicht gleich schlecht sein. Im Endeffekt geht´s um die Leistung, die Kühlung wird passen.

Einen Kühler für EIN PCB die auf dem gleichen Chip liegen, NVidia nutzt hier zwei Kühler nebeneineinader, für 2 Chips auf 2 verschiedenen PCBs...

Also, wo wird mehr Material verbaucht, Nvidia...höheres Gewicht...
 
@ 29 BERBERJESUS
"Nächstes Jahr stecken wir dann alle unsere Mainboards auf die Grafikkarte!"

Hey aber klar doch!! Hab mir eh grad gedacht dass die langsam mal die Grafikkarteports auf nem Mainboard nach unten verlegen sollten so dass die Grafikkarten nicht die ganzen restlichen Ports verdecken...des is doch voll blöd! Dann könnte nVidia meinetwegen noch ein paar von den Dingern zusammenkleben...GeForce 9800 GX16 oder son Krampf ^^

@ 31 Rolf_1985
"während die CPU´s zur zeit auf sparflamme getrimmt werden, werden GPU´s immer stromhungriger."
Is doch ganz klar: Die stecken mit den Energiekonzernen unter einer Decke!!! Ich mein irgendwer muss ja den Strom "verbrauchen", den die CPU einspart ^^

So ma ganz ehrlich: Ich find des im Moment echt krank wies bei den CPUs und den GPUs abgeht!!! Des bei den Grafikkarten is echt voll die Abzocke!!! Und alles nur wegen ein paar Bildern in der Sekunde mehr bei ein paar Spielen... wer kann den sich des noch leisten?!? Ich find die sollten bei den GPUs auch mal auf Sparflamme gehn und sich mal weng besinnen - 200W und mehr für EINE popelige Karte is echt einfach zuuu viel. Die Karte verbraucht ja fast allein so viel Leistung wie mancher Laptop. Außerdem wird Strom auch immer teurer...
Und zu den Spielen die solche GPUs und CPUs benötigen: Irgendwie find ich geht öfters auch mal der Spielspaß flöten, aber hauptsache die Grafik is gut... ~> es geht auch einfach!!!
Siehe CS1.6 ~~> meines Wissens nach das weltweit am meisten gespielte Spiel und die Grafik is nicht die Welt, aber der Spaß stimmt halt.

So und zu guter letzt: Die Idee mit der Rolle Klebeband find ich gar nich mal soo schlecht ^^ aber bei dem Preis bitte eine Rolle Panzertape mit Goldgewebeeinlagen - oder besser Kupfergewebe. Das fördert dann vielleicht noch ein bisschen die Wärmeableitung weil ich find die Wärmeleitpaste sieht weng rücksichtslos auf die Chips geklatscht aus...

So jetzt hab ich mich mal ausgelassen... gutes Gefühl =D
MfG
Papst
 
Na mal schauen wie sie sich gegen die Hammer X2 von ATI schlägt. Auf jeden Fall mal ne neue und interessante Kühllösung

Haben die etwa schon nen Voltmod an der Karte gemacht (wegen dem blauen Kabel) :D
 
@Papst_Benedikt

Da hast du aber Glück, dass Ausrufezeichen derzeit sehr günstig sind. Du kannst also noch ein paar in deinen Kommentar einfügen. :D

@News

Merkwürdige Konstruktion. Mag ja schnell sein, aber der Energiebedarf geht echt nicht.
 
XdaywalkerX schrieb:
erinnert mich unweigerlich an die vodoo 5 karten ^^

Blasphemie !

So ein Gefrickel gab es bei der Voodoo 5 nicht !

Ok es gab den vsa auch im Sandwichdesign, aber dann waren das auch 8 GPUs(!), d.h. 4 pro Platine und nicht nur 2.


edith sagt : DAS hatte noch Style
 
Realsmasher schrieb:
Blasphemie !

So ein Gefrickel gab es bei der Voodoo 5 nicht !

Ok es gab den vsa auch im Sandwichdesign, aber dann waren das auch 8 GPUs(!), d.h. 4 pro Platine und nicht nur 2.


edith sagt : DAS hatte noch Style

ich meinte die gesamtsituation - nicht die karte selbst
 
Nvidia und ATI überbrücken jetzt halt die Zeit zum nächsten Chip mit SLI/CF Lösungen in einer Grafikkarte. Wer das kauft ist selbst Schuld, aber jedem das seine.
 
naja erinnern wir uns doch mal an die letzte Generation von NV und Ati :

- GF8 Serie startet mit Preisen über 600€
- x1900 Serie startet mit deutlich über 500€

Da ist mir eine Karte die Richtung 350€ geht doch deutlich angenehmer.
 
Servus.

Also ich finde die Konstruktion von Nvidia einfach nur geil! rein technisch gesehen macht es ja keinen unterschied ob man nun alles auf eine platine baut oder halt auf zwei. Sowohl die Ati als auch die Nvidia nutzen nach wie vor ihre Sli bzw Crossfire Technologie. Rein technisch gesehen macht das ja kein Unterschied.
Aber die Idee beide PCBs spiegelverkehrt auf einen einzigen symetrischen Kühler zu setzen und die luft über Löcher in der Platine aus beiden Richtungen anzusaugen find ich genial.
Ati hat ja extra den hinteren Kühler aus Kupfer gemacht um den Nachteil des Ansaugens von schon vorgewärmter Luft des vorderen Chips auszugleichen.
Nvidia hat das Problem einfach geschickt umgangen. Eine wirklich durchdachte Konstruktion:
Respect! Nvidia hats einfach drauf! Zumindest meiner Meinung nach;)
 
Merkwürdig dass diese Bilder gerade beim Release der X2 von ATi auftauchen. Soll bestimmt die Käufer noch etwas aufhalten. Wird
aber bestimmt ne nette Karte.
 
@Papst_Benedikt
"...wer kann den sich des noch leisten?!?...."

Wohl die Zeiten nicht erlebt wo ein Pentium 4 mal geschmeidig 2000DM und eine nvidia Karte mal schöne 1400DM gekostet haben, was?
Außerdem zwingt niemand alle Nase lang einen neue Graka oder CPU zu kaufen. :rolleyes::

@Mino86
Cool, zwei Chips die sich gegenüberliegen heizen sich gegenseitig auf in dem schmalen Schlitz indem der Kühlkörper installiert ist. Und der muss von einem einzigen Lüfter gekühlt werden - eine wirklich durchdachte Konstruktion :rolleyes:: (Wer die Ironie findet, darf sie behalten)
 
Wo ist hier die Innovation? Ein bisschen am PCB-Design rumbasteln, das Platinenlayout spiegeln und dann einen Kühlkörper dazwischen. So eine Karte hätte auch schon erheblich früher kommen können.

Für mich wirkt es so, als ob nVidia immoment nur das nötigste tut. Klar arbeiten parallel bereits Entwickler an der nächsten Generation, aber wieso steckt man Geld in solche Prestige-Objekte. Eine schnellere Veröffentlichung der neuen Generation könnte Abhilfe schaffen. Wenn dann endlich mal eine Generation mit annehmbaren Stromverbrauch herausgekommen ist, dann kann man über solche Projekte, wie dieser Dual-GPU Karte nachdenken.

Ich hoffe einfach mal, dass sie den Weg der Prozessorhersteller einschlagen und nun nach und nach kräftig in Optimierung investieren. Was möglich ist zeigen die neusten CPUs aus beiden Lagern.
 
Realsmasher schrieb:
naja erinnern wir uns doch mal an die letzte Generation von NV und Ati :

- GF8 Serie startet mit Preisen über 600€
- x1900 Serie startet mit deutlich über 500€
Hängt vielleicht auch ein wenig mit starken Eure bzw. schwachen Dollar zusammen. Vielleicht bemerken sie ja, dass sich Grafikkarten < €400,- besser verkaufen als > €500,- ;)
 
@ deepsilver

Wo ist denn der Unterschied ob man einen großen oder 2 kleine Kühler hat?
Bei der Ati arbeitet auch nur ein Lüfter. Nur wärmt sich bei der Ati Karte die hintere Gpu viel mehr auf als die vordere. Die bekommt ja schließlich die warme Luft von der ersten ab. was glaubst du warum der vordere Kühler aus alu und der hintere aus kupfer ist. Zudem hat der Lüfter der Nvidia karte die möglichkeit von oben und von unten Luft anzusaugen was logischerweise auch effektiver ist!
Ob das dann auch so funktioniert wie es soll kann man ja noch nicht wissen. Aber für mich ist die Kühlkonstruktion der Nvidia an sich besser als die der Ati.
 
Zurück
Oben