News Kühler der GeForce 9900 GTX auf Foto gebannt

""Schade das Bildung heutzutage nicht mehr so in Mode ist, wie vor ein paar Jahren mal, wo PC's noch ein Nieschendasein hatten und eher was für wohlhabende Familien, als für irgendwelche Kiddies, die zuviel Taschengeld bekommen-""

Du sprichst gelassen aus, was ich nur allzu oft denke. Aber ansonsten ist so eine reine Elitedenke mit moderner Technik und Bildung nur für Reiche ganz bestimmt auch nicht, was wir brauchen.

ICH jedenfalls werde mir so eine Stromschleuder nicht einbauen. Mein PC ist nahe an der Grenze zur Unhörbarkeit und soll es auch bleiben. Leistung hin oder her - immer nur Strukturen verkleinern und Mhz aufblasen ist nicht innovativ.
 
Bei den Cpus gehts doch auch.
... und ja, es gibt auch einen Markt für leistungsstarke Hardware, die gleichzeitig effizient und ökonomisch arbeitet.
Immer dieses Argument "viel hilft viel". Nervt mich.
 
Ein Halbleiterelement braucht Energie zur Elektronenverschiebung, sprich Lücken füllen und Überschüsse abbauen. Natürlich wird dabei die ganze Energie in Wärme umgesetzt, denn schlichtes "Rechnen" ist keiner physikalischen SI-Einheit zugeordnet!
Ein Core2Duo ist eine stärkere Heizung als eine Herdplatte, natürlich pro cm².
 
WTF 240 W TDP? Das nimmt ja überhaupt kein Ende, ich frage mich wann sie wieder sparsamere Karten machen. Ich hatte gehofft das dies bei der neuen Generation schon der Fall sein wird. :(
Vllt schaffts ja AMD mit ihrer neuen Generation endlich sparsamere Modelle zu entwickeln.

@Krautmaster:

was heißt "der Markt verlangt" man will schon lange sparsamere Modelle - ist schließlich auch ein Kostenfaktor!? Ich mein sonst schaut man bei jeder Kleinigkeit aufs Geld, rechne mal aus was so ein Sys an Watt verbrät!
 
Die Sache ist ja nur, daß mehr Leistung bei gleich viel mehr Energie kein Fortschritt ist. Sonst könnte man ja gleich nur die Riva TNT auf aktuelle Hertz-Niveaus takten und schon hat man die neueste Grafikkartenserie. (Natürlich war dies jetzt sehr überspitzt ausgedrückt. Es gibt ja immer wieder Verbesserungen, aber eben nichts revolutionäres. Das beste, was ich in letzter Zeit eigentlich nur gesehen habe, und auch selber gerade von profitiere, ist ATIs Stromsparmechanismus in der 3xxx-Serie.)

Natürlich möchte ich mir nicht selbst meine im Traum ach so tollen Grafikkarten bauen, aber Potenzial für massive Verbesserungen gibt es doch bestimmt. Aber natürlich wirfst man lieber halbjährlich irgendwas auf den Markt, man muß ja auch an seine paar Taler kommen.
 
Der Ganze TdP Wahn nimmt wohl nie ein Ende, die Netzteilhersteller hoffen natürlich darauf ihre 1000 Watt Ladenhüter verkaufen zu können....ich warte jedenfalls noch ein Jahr bis die 45w version erscheint....
 
auch wenn 240W TDP einen Maximalwert beschreibt, werden sicherlich beim zocken von DX10 Spielen 150-200W verbraucht. Manche Leute (natürlich nur, die diese kaufen) müssen eine Stromflatrate haben. Dann kommt (vermutlich) die sehr hohe Lautstärke des Lüfters und die Abwärme der Karte mit ins Spiel. Hat man dann noch Freunde am Spielen?
 
Finde ich schon. Mehr Leistung bei gleichzeitig mehr Energie (Stromverbrauch) ist je nach Verhältnis der beiden Grössen schlecht.
Wenns wirklich 200+ W wird sollte die Karte schon entsprechend was leisten können, mein Zimmer kann ich auch günstiger heizen..
Bis dahin bleibt die 3870 in der Kiste drin
 
Warum nicht?
Der Die des RV770 ist nur ein Bruchtteil des GT200 Die. Das so als ob du die 8800GTX mit einer (nicht existierenden) 2700XT vergleichen würdest.
RV770 muss schon im Doppelpack, mit all den CF Nachteilen gegen GT200 antreten.

Und der relativ große G92 ist auch bereits 50% schneller als RV670 ....
 
Nö G92b ist für die 9800. Wiki kannst du da vergessen, wie soll man auch sonst aus 2x128 ALUs auf einmal 240 ALUs zaubern?
Guck dir lieber das 9900GTX Platinenbild an.

Allein von den Daten ist dieser Hammer 2-3 Mal so schnell wie ein G80!
Ich verstehe einfach nicht, wie man darüber meckern kann. Warum soll man so eine tolle Architektur wegwerfen?
 
pci express liefert meines wissens 25 watt. also entweder bist du kein gamer, dann weiss ich nicht wieso du hier schreibst oder du hast noch nicht bemerkt das deine graka auch an einem separaten anschluss hängt. mittlerweile sind wir ja jetzt soweit das man schon 2 x 8pol anschluss benötigt. wobei ein 1 mal 8pol sowie 1 x 6pol liefern ja zusammen auch schon 300 watt, müsste ja eigentlich reichen. jetzt kann man wieder ein neues netzteil reinhauen oder auf die hälfte der funktionen verzichten.
 
Es scheint so als ob die High End Karten von ATi und Nvidia noch immer mächtig gekühlt werden müssen.
Ein komplettes Redesing der alten Chips scheint zu teuer. Mal sehen was rauskommt.
Aber wenn das so weitergeht haben 1000W+ Netzteile bald ihre daseinsberechtigung.
 
Mhm 240 Watt is schon ne Hausnummer bei einer 65nm Fertigung. Ich hoffe das die Karte im Idle bzw. Desktopbereich sich abschalten lässt bzw. extrem runter fährt. Dann wäre es schon interessant für mich.
Naja dann muss auch erstmall wieder nen neues MB + CPU her. Mal abwarten, welche Kombinationen sich da demnächst als gut herausstellen.
 
natürlich verlangt der Markt noch viel mehr nach sparsameren Modellen, und selbstverständlich ist es ein Kostenfaktor. Dies ändert nichts daran das es Millionen Leutz gibt die gerne 500 Euro für ein 240W Monster ausgeben, weil sie einfach die Mittel dazu haben. Schau dich mal bei den Sigs um, glaubst du ernsthaft diese Menschen werden genötigt sich eine 200W Graka einzubauen?
Nvida bedient diesen Markt, genau wie es AMD auch tut. Und das Ende der Fahnenstange wird mit dem Kühllimit erreicht werden...

Abei AMD muss man natürlich die super Stromspar Mechanismen loben, die in Idle den Verbrauch gut drücken. Nvida lässt die wegen Hybrid Power schleifen, sonst hätte man ja kaum ein Verkaufsargument dafür.
 
bei den CPU gehts au ja, weil da der Nutzer daraus gelernt hat das ein 50W CPU gefühlsmäßig einem 150W P4 kaum/nicht nachsteht. Wenn Intel oder AMD nun 8 Kerne draufquetschen würden würdest du davon zum jetztigen Stand der Dinge auch kaum was merken. Bis auf das dein Stromzähler schneller läuft. Bei CPU zieht das Stromsparargument um weiten besser als bei GPU.
In Buissness Anwendungen, wo CPU voll ausgelastet werden kannst du dir nen IBM z10 kaufen, der dann 20 Kerne hat und mehr verbrät als dein G200.
 
Stimmt, Wiki hat die interne Bezeichnung gerade geändert G92b-> GT200, außerdem behaupten sie das erst in 65nm gefertigt wird und später in 55nm.
Trotdem halte ich meine Euphorie in Grenzen. Solltest du auch tun Unyu, dann ist man nicht so enttäuscht wenns doch kein "Monster" wird.
Meine Bedenken liegen zb. beim Speicherinterface von 512bit -> normalerweise braucht man das noch nicht 384bit hätten es auch getan, das verbraucht schon ordentlich Strom, somit könnte die Karte ein bisschen ineffizienter werden als wir das sonst von NV gewohnt sind.
Von den theoretischen Werten müsste sie von der Rohleistung gleich auf mit der GX2 liegen, theoretisch...
Naja abwarten und Tee trinken wie immer ;)

http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units#GeForce_9_series

MfG Kasmo
 
Zuletzt bearbeitet:
Zurück
Oben