GTX 570 beim Übertakten zerschossen?

@Amok68

Ja. Wie ich schon schrieb die 570er reagieren extrem allergisch auf Furemark.
 
Cool Master schrieb:
@Amok68

Ja. Wie ich schon schrieb die 570er reagieren extrem allergisch auf Furemark.

Dann habe ich damals ja Glück gehabt mit meiner GTX-580,die hatte ich damals auch mal mit Furmark gequält.
 
580er haben damit kein Problem...
 
Hm, dann halte ich mich ab jetzt wohl von FurMark fern :p
Schade, die GTX 570 hätte ich gerne weiterbenutzt.
Also nochmal zum Mitschreiben: Die Spannungswandler sind wegen Furmark überhitzt?
Komisch, denn die werden aktiv gekühlt (Lüfter und Alukühler). Ich werde den Kühler mal entfernen und mir das genauer anschauen, vielleicht kann ich sogar andere Spannungswandler anlöten.
 
Uftherr schrieb:
Also nochmal zum Mitschreiben: Die Spannungswandler sind wegen Furmark überhitzt?

Nein der Grafikchip wurde gebrutzelt weil er zu viel Spannung aufgenommen hat. Dadurch gabe es Leckströme und somit ein Kurzschluss.
 
Cool Master schrieb:
Das Problem an Furmark ist genau das was du schreibst.

Die GTX 570 ist eine der Karten die kein Schutz dagegen hat - auch nicht im Treiber. Das bedeutet die geht nicht nur auf 100% sondern auf 150%.

Das is quatsch, wo sollen denn die 50% her kommen? Aus der Luft? Mehr wie 100% auslastung geht nicht, Furmark nutzt nur alle Shader voll aus, was Spiele nicht machen das ist alles.

Wenn Grafikkarte + Furmark = Defekt... hatte die Karte vorher schon einen knacks. Eine GPU besteht halt aus mehreren einzelteilen.
 
Nureinnickname! schrieb:
Das is quatsch, wo sollen denn die 50% her kommen? Aus der Luft? Mehr wie 100% auslastung geht nicht,

Es geht hier nicht um GPU Auslastung sondern um die Stromaufnahme und da geht natürlich mehr als die 100% (225 Watt) und genau das bring tdie Karte um. Die GPU ist auf max. 225 Watt ausgelegt. Wird nun Furmark ausgeführt kann es sein das die Karte halt mal 275 Watt oder noch mehr zieht und dadurch wird sie - wie ich schon schrieb - durch Leckströme intern gegrillt.
 
Aber es wird doch durch den Treiber so eingestellt oder? Also ist es doch Nvidia ihr problem wenn die Karte verreckt. Oder was soll diese Option für einen Sinn haben?
 
Hast du den Thread überhaupt gelesen?

Ich schrieb doch schon das es bei einer GTX 570 nicht möglich ist auch nicht durch den Treiber.
 
Cool Master schrieb:
Ich schrieb doch schon das es bei einer GTX 570 nicht möglich ist auch nicht durch den Treiber.
Cool Master schrieb:
580er haben damit kein Problem...

Interessant, dass es laut deiner Aussage bei der 580er gehen soll - ist ja der selbe GF110-Chip...

Fakt ist, das die Leckströme mit zunehmendem Takt und Spannung zunehmen und damit die GPU mehr Strom benötigt - ist ja nicht so, als müssten die Spannungswandler diesen auch bereitstellen^^ (habe schon einige gesehen die zersprungen sind)
 
Ich kann nur sagen was EVGA mir gesagt hat. So wie mir es gesagt wurde liegt es einfach an der Bauweise der 570.
 
Das glaube ich dir, nur war es eine sehr allgemeine Aussage zu dieser Grafikkarte, auch wenn dein Gesprächspartner ein Techniker gewesen wäre, würde er nicht ins Detail gehen, denn das macht man nicht wenn man annehmen muss, dass der andere kein Techniker ist (war es kein Techniker, ist das Gespräch in diesem Zusammenhang eh nicht viel wert).

Trotzdem war die Aussage richtig, es liegt ja auch an der Bauweise der 570er, nur betrifft es nicht den Chip, denn dieser ist bei beiden gleich.
Bei der 570er hat NV eben bei Spannungswandlern gespart (12Stück für GPU), bei der 580er (18Stück für GPU), sieht es schon anders aus und sie zieht nicht 1/3 mehr- für die TDP alles kein Problem, wird diese durch OC, oder eben durch Furmark nennenswert überschritten ist bei der 570er schnell Feierabend und das hat mit der Überlastung der Spannungwandler und der bescheidener Kühlung dieser Bauteile zu tun.

Die Maximalbelastung der Bauteile ist eben direkt von deren Temperatur abhängig - natürlich nur im bestimmten Rahmen...
Wäre es anders, gäbe es keine OC Rekorde mit Stickstoffkühlung.
 
Zurück
Oben