News Wassergekühlte GTX 480 mit 810 MHz GPU-Takt

Tekpoint schrieb:
Ist die Wasserkühlung nicht dazu da, die entstanden wärme abzuführen? Wie soll da der Stromverbrauch gesenkt werden?

Kaltes Silikon ist effizientes Silikon. Irgendwo gibt es hier auch eine Ausführliche "Studie", die dies beweisen kann, aber ich bin zu faul, die jetzt zu suchen.

Und eine GTX 480 unter WaKü ist allgemein deutlich kühler als eine mit Standart-Luftkühler.
 
Crysis Warhead 1920x1200 8xAA 16xAF:

GTX480(oc): 36,32 FPS

@RediMischa

Janee ist klar ;) eine Normale schafft gerade mal 28bilder bei 4x AA bei crysis aber ein übertaktete im bereich der Kernspaltung schafft bei 8x AA 36bilder :) und 60bilder wenn man den Wasserdampf wieder dem Kernkraftwerk zurückführt! :D

https://www.computerbase.de/artikel...80-amp-test.1289/seite-3#abschnitt_benchmarks

eine Übertaktete Zotac schafft bei 4xAA gerade mal 1,5 bilder mehr und das bei 50 mhz ...
Wenn man den takt von 810 --> 3000 Mhz anhebt und die speicher mit anpasst... dann jaaa aber nur vielleicht ist diese dann schneller als die 5970 von ati
 
Lycos schrieb:
Ja ich geh im Winter auch immer bei -15 Grad mit meinem Fon auf den Balkon zum Haare trocknen. Da läuft der deutlich kühler und verbraucht somit nicht 1800 Watt sondern nur noch 1100 :stock:

was hat das damit zu tun? wenn man keine Ahnung hat...:rolleyes:

Tekpoint schrieb:
Ist die Wasserkühlung nicht dazu da, die entstanden wärme abzuführen? Wie soll da der Stromverbrauch gesenkt werden?

Leckströme ;)
mein system (i7@4ghz,gtx480@standard) braucht zb 155w idle und 335W bei furmark Xtreme burning mode, im cb test sinds 188W idle und 448W bei crysis..

Leistungsaufnahme: Einfluss Temperatur


Die Leistungsaufnahme einer Grafikkarte wird von zahlreichen Faktoren beeinflusst. Einer dieser Einflussfaktoren ist die GPU-Temperatur. Mit steigender Temperatur erhöht sich auch die Stromaufnahme. Die Ursache hierfür dürfte in erster Linie auf die steigenden Leckströme bei hohen Temperaturen sowie dem negativen Temperaturkoeffizienten (niedrigerer Widerstand bei höheren Temepraturen) der Transistoren zurückzuführen sein.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index9.php

@eVolutionplayer

dir ist schon klar dass man nicht verschiedene tests einfach so vergleichen kann?
 
Zuletzt bearbeitet:
@Benni16it: Herzlichen Dank für den Link. Da ergibt das schon sein Sinn jetzt. Den rein so wäre das ja unmöglich.
Aber das Thema Leckströme ist ja sehr bekannt bei den Silizium Chips.

Mal so noch wegen dein System udn CB Test, hast du auch das gleiche Netzteil (wegen Effizienz)?
 
@Benni16it

egal welchen test ich irendwo raußziehe , sofern alle richtig gebencht sind wird eine übertaktete karte nie ein Leistungsplus von 28 bilder auf 36 bei einem spiel machen wie Crysis. Das sind um die 30% ich glaube dann hätte Nvidia was falsch gemacht.
 
Lycos schrieb:
Ja ich geh im Winter auch immer bei -15 Grad mit meinem Fon auf den Balkon zum Haare trocknen. Da läuft der deutlich kühler und verbraucht somit nicht 1800 Watt sondern nur noch 1100 :stock:
Du glaubst also nicht, dass die Temperatur einen Einfluss auf den Stromverbrauch des GF100 hat?

Bei meiner GTX 480 steigt der Verbrauch am Netzteil um 15 W, wenn die Temperatur statt bei ca. 52 °C bei ca 62 °C liegt. Die Spannung müsste dabei auf 1 V gestellt gewesen sein.
Klar, amortisieren lässt sich damit eine Wakü nicht. Die Temperatur hat aber definitiv einen Einfluss auf den Stromverbrauch des GF100.

ciao Tom
 
Zuletzt bearbeitet:
Ich habe mal auf irgendeiner Seite eine Hitliste der hässlichsten Grafikkartenkarton-Figuren gesehen. Dieses Teil würde die Liste anführen :D ,
muss das immer sowas hässliches sein ?
 
@ eVolutionplayer

ist nicht dein ernst oder?

du bist seit 2003 hier angemeldet und denkst wie nen 10jähriger?:freak:...

jedes testsystem, jede testsequenz (und was weiß ich was sonst noch) unterscheidet sich von den jeweiligen tests

was meinst du warum unterschiedliche tests von unterschiedlichen homepages im web zu finden sind? weil man so ganz einfach auch paar abweichungen zu gesicht bekommt...
 
Die Karte mag ja schnell sein.
Mir ist sie aber:
a: zu teuer und
b: zu stromhungrig
Da bleibe ich lieber bei meiner 5870, auch wenn sie nicht so schnell ist wie die 480er.
 
@eVolutionplayer

im verlinken hardwareluxx test sind es 28,89 fps auf standard taktraten, mit starkem Oc (~25% taktsteigerung) 36,32. wenn du jetzt zu den 28,89 die 25% mehr takt dazurechnest kommst ziehmlich genau auf die 36fps. und dass Fermi ziehmlich genau mit dem takt skaliert kannst du hier nachlesen. ;)
 
@RediMischa

Du hast schwarz auf weiss geschrieben das die übertaktete 480 gtx schneller ist als eine 5970 , und ich hab dir schon mehrere tests gezeigt das es nicht so ist ... vielleicht solltest du den müll den du schreibst nicht untermauern wenn du im unrecht bist... hinzu kommt noch das deine art und weise wie du hier mit deinen mitmenschen umgehst sich mehr auf dem Niveau einer 10 jährigen bewegt als ich es tue...

Zeig mir einen Test von CB bei crysis wo die 480GTX egal ob oder nicht übertaktet bei 1920x1200 @4x oder 8xAA schneller ist als eine 5970 ? :freaky:

Nochmal fürs verständnis mir ist es egal welcher test es ist mit welchem rechner oder einstellung .... fakt ist nur die 480 Gtx ist einfach nur ein stück schneller als eine 5870 und bestimmt nicht annähernd so schnell wie eine 5970.

@Benni16it

Der Punkt ist nur das 4xAA gepostet ist aber 8xAA gemeint ist. Die test bei Crysis wurden bei 2xAA gebencht und somit ist die karte um 25% schneller ... was im grunde bei nicht hoher beanspruchung zu dem ergebnis kommt ... wichtiger wäre das ganze bei 4&8AA wovon ich die ganze zeit hier spreche.
 
Zuletzt bearbeitet:
Selbstmade kostet das 100 Euro weniger. Aber wenn man keinen Bock zum basteln hat isses doch nen gutes Angebot :-)

Joa, am besten nimmt man EVGA, bei denen erlischt die garantie ned bei kühlerwechsel :) aber da kommt man sogar noch etwas mehr als 100 euro billiger mit nem EK kühler. zumindest bei uns in der schweiz :)

wenn nicht bald ein refresh kommt, werde ich mir eine holen, sobald die neuen ATIs da sind, dann sinken die Preise sicher wieder :D

greez
 
Adam Gontier schrieb:
Es kostet zwar 100€ weniger, jedoch muss man ja auch erst mal den OC-Takt erreichen. ;)
Solche müden Takte erreicht jede GTX 480 mit Undervolten. Und verbraucht dabei natürlich auch weniger als die POV.
Partybu3 schrieb:
-fermi chip katastrophe
Ah ja, erzähl mal, wo ist die Katastrophe?
Ist es nicht eher so, daß immer mehr User von den HD 5xxx auf die GTX 4xxx umsteigen und froh sind, endlich keine Probleme mehr zu haben? Ich bin es jedenfalls und wie man im Thread lesen kann, bin ich damit nicht allein.
 
Zuletzt bearbeitet:
Bei der Verlustleistung könnte man den Wasserkreislauf ja gleich mit an die Heizung einbinden , dann würde das ja sogar Gas sparen und nicht nur Strom kosten...


Und warum vergleichen die Leute immer doppel GPU GKs mit der 480er?
Microruckler , Treiberprobleme , SLI oder Crossfire oder einfach 2 GPUs sind scheiße !
 
Zuletzt bearbeitet:
@ eVolutionplayer

ich hab dir in der tat mit einem test belegt das die gtx480, übertaktet auf 872/1050, schneller ist als eine hd5970(auf standart takt)
wenn du das nicht einsiehst oder nicht wahr haben möchtest, hast du pech gehabt...

ich bin raus hier...du bist mir echt zu peinlich
 
Der Preis "geht" sogar noch, aber wenn man es selber macht ist es billiger. Leider ist auch die Garantie futsch....

Aber das mit "zusatz Heizung", "Atomkraftbeführworterkarte", wirkt doch schon etwas Altbacken. Ich meine, ja sie ist ein Stromfresser, sie ist aber auch die schnellste Single-GPU und vor allem bei Tessellation bis her nicht zu schlagen.. Bin mal gespannt was die neuen
AMD 6000er bringen.

Z.Z. bin ich mit meiner 5770er recht zufrieden, müßte für solche Späße wie Wakü und diesem Teil hier (momentan lange^^) dafür sparen oder im Lotto spielen, was ich aber nicht mehr mache, weil auf dauer zu teuer, bei zu geringen Erfolgsaussichten:D

Blöde Spätschicht, eigentlich viel zu spät um noch meinen Senf beizugeben, lol
 
Point of View spricht von einer Wärmeabgabe von 300 Watt.

300W Wärmeabgabe!?
Das sind 300 Watt Verlustleistung allein bei der Grafikkarte --> für mich absolut inakzeptabel. :freak:
 
Gibt's genügend Dumme, die 300€ für den Kühler löhnen?
Oder ist der aus Gold?
Wohl kaum.^^
 
Viel zu teuer. Außerdem erst einmal die neuen Grafikkarten von AMD abwarten.
 
Und warum vergleichen die Leute immer doppel GPU GKs mit der 480er?

Weil die 480 die singles GPU karten abhängt :D kann mir das nur so erklären, daher suchen sie was neues, was "beweist" das etwas anderes schneller ist. da kommen halt nur noch die dual GPU karten zum zuge :)

ne mal echt. Fermi hat ein nachteil, die Verlustleistung. Das soll aber jeder selber entscheiden, ob er sich die Karte holt oder nicht. WIe schon einige hier gemeldet haben, kauft man mit einer 5870er oft 2 mal. Habe selber bei 3 Kollegen gesehen, wie sie mit den 5870er massive probleme haben/hatten. Seit sie eine 470/480er drin haben nicht mehr...

Wie gesagt, jedem das seine... :)
 
Zurück
Oben