Hoher Stromverbrauch der neuen 260GTX?

zocker85

Lt. Commander
Dabei seit
Feb. 2008
Beiträge
1.090
jup, ist mir auch schon aufgefallen...

dacht das der 1. Test nicht seriös war..aber anscheinend schon, versteh die Welt nicht mehr :(
 

DooM

Lt. Junior Grade
Dabei seit
Apr. 2004
Beiträge
398
war auch immer der annahme dest kleiner das fertigungsverfahren dester energiie efizienter werden due cpus und gpus. aber ich bin der meinung gelesen zu haben das nvidia probleme bei der 55nm fertigung.aber ob das nur m beim g92 war oder gesamt das weis ich net mehr genau.
 
Zuletzt bearbeitet:

ManOki

Lt. Commander
Dabei seit
Juni 2008
Beiträge
1.305
außerdem werden tests immer nur zu einem exemplar gemacht, was kaum aussagekräftig für eine gesamte produktionslinie sein kann...sowas ist doch schon von cpus bekannt, dass manche mehr und manche weniger strom verbrauchen, aber alle den selben namen tragen bzw. die leistung zur verfügung stellen.
 

TK-Shockwave

Lt. Commander
Dabei seit
März 2003
Beiträge
1.261
Man o man, die Standardtaktraten der 55nm Version sind auch höher.
 

rubski

Commander
Dabei seit
März 2008
Beiträge
2.151
Also theoretisch sollte eine kleinere Fertigungsgrösse mit sich bringen, dass weniger Spannung zum schalten der Transistoren benötigt wird -> Weniger Verlustleistung-> Weniger Abwärme. Es ist deshelb sehr interessant, dass die bei der neuen GTX260 nicht der Fall ist.

MfG rubski

Edit: @über mir: Nein schau dir mal die Beschreibungen an.
 

Commander Alex

Fleet Admiral
Dabei seit
Dez. 2007
Beiträge
29.852
Wie schon gesagt Nvidia hat ja Probleme mit dem 55n, deshalb vermute ich das die Leckströme stark zugenommen haben und deshalb die GPU mehr verbraucht, wenn die Verbrauchstwerte den stimmen würden, der einzige Vorteil währe das Nvidia die Chips günstiger herstellen kann.
 

rubski

Commander
Dabei seit
März 2008
Beiträge
2.151
Wobei ich mir nicht sicher bin, ob bei dem neuen Prozess die Yieldraten schon auf einem überragenden Niveau sind, und ob so die Herstellungskosten pro Chip schon so sehr gesunken sind.

MfG rubski
 

rubski

Commander
Dabei seit
März 2008
Beiträge
2.151
Jo der Chip wird immer noch eine stattliche Grösse besitzen:D Und es ist schon so, dass je etablierter der Fertigungsprozess ist, desto mehr Ausbeute haben sie, aber eben, bis es soweit ist...

MfG rubski
 

zocker85

Lt. Commander
Dabei seit
Feb. 2008
Beiträge
1.090
jup, das versteh ich aucn net, wie dann GTX 280 angeblich rund 50 Watt weniger verbraten will...
 

Audioslave36

Lt. Commander
Dabei seit
Mai 2005
Beiträge
1.262
Das ist auch mein Problem im Augenblick.
denn eigentlich will ich umsteigen. Habe jetzt noch eine ganz normale mit 192 Shadern drin, wollte aber zuerst dann auf die 55nm umsteigen.
Nun ist die GTX 285 gross im Gerede und hat auch noch die gleiche Leistungsaufnahme wie die 260. Also mir gings beim Kauf nicht wirklich um die 100 Euro mehr, sondern um die Leistungsaufnahme und das ist nun egalisiert. Wenn dies wirklich Realität ist, das die neue Generation solche Unterschiede mit sich bringt, dann geh ich doch gerne an der 260 vorbei, verbraucht sie doch gleich viel wie die viel effizientere 285. Wobei ich sowieso an der Grenze steh, da ich damit einen 30 Zoll von dell antreibe der mit 2560x1600 läuft.
Für mich in diesem fall eine einfache Entscheidung, obwohl ich mich mehr über eine weniger fressende 260 gefreut hätte, was auch eigentlich logisch gewesen wäre. Würde mich echt mal interessieren was da eigentlich verbrochen wurde...
 
Zuletzt bearbeitet:

Marc53844

Lt. Commander
Dabei seit
Dez. 2008
Beiträge
1.439
beschwerst dich über bisschen mehr stromverbrauch, betreibst aber einen 30zoll ;-)

nunja, wie halt schon beschrieben ist der takt höher als bei einer normalen 260er. wenn du dir benchmarks von übertakteten 260er in 65nm anschaust wirst du auch dort höheren verbrauch messen können.
 

Audioslave36

Lt. Commander
Dabei seit
Mai 2005
Beiträge
1.262
Wenn Du ein klein wenig was verstehst, dann weisst Du das in dieser grösse der dell der sparsamste ist, ganz abgesehen davon was ein Fern verbraucht und da ich keinen fern habe ist das die günstigste Lösung.
Und ich hab alles durchgerechnet bevor ich den Schritt ging. Da ich auch Techniker bin kannst mir glauben das es schon passt.
Und zu Deinem Argument, auch die 285 bekommt höhere Taktraten und verbraucht dann doch weniger, also wo passt den das nun wieder?

Nachtrag:
Natürlich schaue ich auch mal Fern und auch Filme ganz gerne, aber eben alles auf dem Moni, deshalb auch der Vergleich.
Es würde andersrum mehr verbrauchen und ist dabei auch noch die bessere Lösung.
Ich hatte auch zuerst die HD 4870 dazu, doch die verbrauchte mir einfach zuviel, grade im Idle, wo die Karte zum grössten teil betrieben wird und hin und wieder auch ein spiel. Da komme ich dann zwar um eine grosse Karte nicht rum, aber das heisst ja nun nicht, das ich nicht Energie sparen möchte.
Habe zum Beispiel nur einen E7200 auf meinem P5Q-E, einfach weil der am wenigsten verbraucht.
Jedenfalls ist mir das nicht klar, warum es hier so einen Unterschied zur anderen Karte gibt, also bei der GTX 285, die GTX 260 aber weitermacht wie bisher, bis auf das, das sie schneller ist.
Ich werde in diesem Fall ganz klar zur GTX 285 greifen, vielleicht haben sie auch gerade das beabsichtigt, denn sicher denken nicht wenige so wie ich.
Was red ich denn, sorry Leute, also wenn die sogar noch mehr verbraucht als die GTX 285 ist das wohl der absolute Hohn, oder nicht?
 
Zuletzt bearbeitet:

Marc53844

Lt. Commander
Dabei seit
Dez. 2008
Beiträge
1.439
Hast du schon irgendwo "neutrale" Benchmarks der 285 gesehen?? Ich nicht.

Naja, es ist sicher nicht falsch auf den Stromverbrauch zu achten, aber wegen 10 watt mehr oder weniger ... da jetzt so ein Fass aufzumachen ...
Sicher, Erwartungen waren und sind hoch und irgendwie ist man ja immer enttäuscht.
Aber wie ich schonmal woanders geschrieben habe: Ich kaufe Highend und somit nehme ich auch einen gewissen Stromverbrauch in kauf. Ist ja fast so als wenn ich mioch beschwere das mein Porsche nicht unter 9 Liter zu fahren ist.

Warten wir mal ab bis ein paar fähige Leute diese Karte ausgiebig getestet haben. Vielleicht kann man ja auch die Spannung etwas runter drehen ... ohne das es Probleme macht. Die Hersteller neigen gerne dazu erstmal die "unoptimierten" Modelle auf den Markt zu schmeissen und nach und nach, des Marktwirtschaftswillen wegen, die "besseren" Modelle nachzureichen.

Aber korrigier mich wenn ich falsch liege.
 

Marc53844

Lt. Commander
Dabei seit
Dez. 2008
Beiträge
1.439
hab gerade meine 260 bekommen. so wie es aussieht 55nm. werde wohl morgen oder übermorgen ein paar tests starten. vorher muss ich mich mal ein bisschen ins bios modding reinlesen und erstmal sylvester feiern. oder sage ich die party heute ab? :-P
 

r4yn3

Vice Admiral
Dabei seit
Mai 2006
Beiträge
7.046
Imo wäre am interessantesten ein Versuch die VCore im BIOS zu senken, das Ding muss doch stromsparender werden :(
 

y33H@

Fleet Admiral
Dabei seit
Apr. 2006
Beiträge
25.535
Da liegt wohl auch das Prob. Der erste Tes wurde offenbar mit einem Pre-Production-Sample gemacht, wer weiß, wie hoch da die VCore war. Zumal nV die meisten 260er mittlerweile mit niedrigen Spannungen ausliefert, die ersten 55er werden da wohl noch mit mehr VCore kommen.

cYa
 

r4yn3

Vice Admiral
Dabei seit
Mai 2006
Beiträge
7.046
Wenigstens einer der mir zuversicht gibt :)
Wie schnell sollte sich das legen? Nicht das man zusätzlich bei den GTX260 auch noch nach Versionen mit niedriger VCore ausschau halten muss.
 
Top