FurMark zerstört Gafikkarte !

Eigentlich kann man froh sein, dass es so einen Benchmark gibt, der die hardware mehr als nur fordert. daran kann man gut feststellen, ob die Hardware die man hat auch bei starker Belastung fit ist oder eben nicht. Gerade im Sommer werden viele PC´s durch die Wärme und die zusätzliche Arbeit die gerade von ihm ab verlangt wird, stark gefordert. da ist für mich Persönlich so ein Programm klasse, den es geht noch über die schon eigentliche starke Belastung hinaus und fordert noch mehr. Ich habe Stress Prime und FurMark mal ne ganze Woche am stück laufen gehabt um zu erkunden, ob die eingestellten Werte meines Systems auch dauerhaft stabil sind und mein PC hat es ohne einen Absturz oder Fehler überstanden. Jetzt weiss ich erst, dass mein System mehr als nur Fit ist, denn auch danach lief mein PC ohne einen Absturz. Dieses ist nun ca zweieinhalb Monate her. Ich kann nur sagen: FurMark ist das krasseste was ich als Stabilitätsbenchmark je sehen habe aber wirklich gut !!!
 
@getexact
Ruhig Blut, irgendwie hat nVidia es geschafft Grid seit ein paar Treibern nicht richtig zum Laufen zu bekommen. Erst gab es ne ganze Weile so häftige SlowDowns, dass das Spielen unmöglich war, die FPS stimmten, aber es kam einem wie Mikroruckeln vor, trotz nur einer GPU. Ich habe den 190.38 drauf und da gibt es für so 1-2 Sekunden manchmal immernoch einen Slowdown (sieht so wie Zeitlupe aus) und dann läuft es problemlos weiter. Das tritt zu unterschiedlichen Zeiten innerhalb einen Rennens einmal bei mir auf.

Diese Auschläge nach oben sind schlicht Auslesefehler. Meine Karte hat da manchmal auch so lustige Werte. Die VRMs (unterschiedlich welcher) springen mal auf 125°C obwohl sie durchgängig bei max. 50°C liegen. Dann springt mal einer bis 125°C, genauso hatte ich auch schon mal eine Coretemp von 0°C. Solche Ausschläge kann man getrost unter Messfehler verbuchen.

Der Heatbug war bei den ersteren Modellen manchmal ein Thema, sollte heute aber nicht mehr aktuell sein.

@Nighthawk13
Na das liegt einfach am flaschen Kühlkonzept des Referenzkühlers, bzw. daran, dass nVidia die Spannung so hoch angesetzt hat und eine Reduzierung der Spannung heißt weniger Arbeit für die VRMs. Daher ist dann die Karte kühler, aber man sollte das Reduzieren des Lüfters nicht übertreiben, denn die VRMs brauchen diesen Luftzug. Ich hoffe auch inständig, dass ATi und nVidia das bei der nächsten Generation besser hinbekommen! Das ist beim G200 und RV770 setzen 6 für beide!

@sytek
Furmark dient aber definitiv NICHT dazu um stabile Taktraten zu ermitteln, nur um stabile Tempwerte zu erkennen. DAS sollte man wissen! um staible Taktraten für die Grafikkarte zu ermitteln ist Zocken immernoch das wichtigest und EINZIGE! So viele unterschiedliche Spiele(engies) wie möglich lange Zocken, erst dann bekommt man verlässliche OC Werte, denn jede Engine beansprucht nun mal die GPU unterschiedlich stark. Der Furmark beansprucht die GPU zwar sehr stark, aber er gibt eben keine verlässlichen CO Werte aus. Da schafft meine GPU auch 820MHz stundenlang ohne Probs, aber in CoD 4 und S.T.A.L.K.E.R. (ähnlich stark von der VRM Belastung wie Furmark!) und auch in div. anderen Spielen gab es nach nichtmal 10 Sekunden einen Hänger, bunte Farbmuster oder aber gar BSOD.
 
Zuletzt bearbeitet:
ich glaub aber nciht an auslesefehler, weil ich ja dann weiterhin dei Tempentwicklung per Harwaremonit beobschtet habe, sie ist wieder ganz langsame runter gegangen, erst 97° dann 91° halt ganz normal abgekühlt. wenns ein messfehler war, dann verhält sich das doch so, dass es wohl auf einmal so hochspringt und dann wieder absackt.

und dieses komische Stocken war meine ich eine reaktion des GRaka nennt man glaub ich throttlen.

ander kann ich mir das nciht erklären. was ich mir evtl. gedacht habe ist: ich steuere den Lüfter mit Hilfe vom RivaTuner. während des zockens bis ich mal auf den dektop gesprungen, weil ich was nachschauen wollte. kann es sein, dass RivaTuner dachte ich wäre im 2D Modus und als ich wieder ins Game ging, dass der Lüfter weiterhin "dachte" dass sich die Karte im 2D Modus befindet?

das heißt, dass der Lüfter auch im 3D weiterhin nur mit 40% lief?
 
Hatte mit meiner 4850er noch nie irgend ein Problem mit Grid, bin froh das sich ne ATI Karte besitze und keine von NVidia !!!
 
@getexact
Wenn es dann so mit Zwischenwerten sinkt ist es evtl. doch kein Auslesefehler, aber was dann da Sache ist weiß ich nicht. Habe mich dafür zu wenig mit dem Lüfter beschäftigt. Als ich mir die vor knapp nem Jahr kaufete kam nach nichtmal einem Tag Einsatz bei mir der Wasserkühler drauf, daher muss ich passen.

Na wenn du die Lüfterdrehzahl auch für 3D bei nur 40% gefixt hast könnte es ein Grund sein. Meine bei rund 60% war es noch so einigermaßen erträglich (wenn ich mich recht erinner). Das ist immer das Problem bei gefixten Werten, ratsamer wäre da eine eigene BIOS Modifikation, also selbst zu entscheiden bei welchen Temps der Lüfter sich wie zu regeln hat.

@sytek
Na ich denke keiner der beiden Hersteller hat sich mit Ruhm bekläckert (sowohl aus HW Sicht als auch aus Treibersicht!). Fakt ist nur, dass nVidia seit ein paar Treibern mal mehr und mal weniger Probs mit Grid hat.
 
Nachdem ich gesehen habe was Furmark mit meiner 4870x2 macht, halte ich das Programm auch für gefährlich. Innerhalb von einer Minute haben sich die Spawas um 70° erwärmt- von 45° auf 115°. Das kann nicht gesund sein. Seit dem nutze ich es überhaupt nicht mehr.
 
@mightysick
Tja, das ist das Prob von ATi. Die haben da was geändert im Treiber. Sobald ATi Nutzer die .exe umbenannt haben wurde die Karte viel zu warm. ATi hat ja auch expliziet darum gebeten dieses Programm nicht zu nutzen. HW Problem seitens der Herstellung?
 
cyrezz schrieb:
@getexact
Wenn es dann so mit Zwischenwerten sinkt ist es evtl. doch kein Auslesefehler, aber was dann da Sache ist weiß ich nicht. Habe mich dafür zu wenig mit dem Lüfter beschäftigt. Als ich mir die vor knapp nem Jahr kaufete kam nach nichtmal einem Tag Einsatz bei mir der Wasserkühler drauf, daher muss ich passen.

Ne den Lüfter hab ich natürlich nicht gefixt:)
wie gesagt hab mir meine eigene Lüftersteurung gemacht per Rivatuner, weil die Originallüftersteurung der GRaka nicht gefiel.

aber gut. anscheinend weiß niemand wie es dazu kommen konnte. egal. noch läuft meine Karte sehr sehr gut nur an Grid trau ich mich kaum mehr ran:)
 
Ja, ganz ehrlich, dann teste mal bitte einen älteren Treiber und du wirst sehen, die Slowdowns werden verschwinden. Nimm mal einen Treiber um 182. Als ich meine Karte neu hatte, gab es diese Probs auch nicht. Seit irgendeinem Treiber traten die Probs auf, waren fast weg bis weg und kamen wieder - welche Treiber davon betroffen sind weiß ich nicht genau, aber so um 184 meine ich häufen sich die Probs bis zum jetzigen.

Tritt das Verhalten denn auch in anderen Spielen auf?
 
hmm also mit slowdowns hat das eher nix zu tun. Es lief ne stunde lang alles perfekto. dann kurze pause gemacht und kurz aufen dettop geswitcht.

danach fing es nach einer zeit an regelrecht zu stoppen, nach 1-2 sekunden lief das spiel weiter, aber es beschleunigte auf einmal, also so das bild raste nun auf einmal...das kam dann alle paar sekunden so, sodass ich natürlich nicht weiter zocken konnte...dann hab ich das Spiel beendet und zurück aufen Dektop...Temp anzeige von 105° Core...

hammerhart dachte wie kommt das denn....

bisher in keinem anderen Spiel passiert (Crysis, UT3, Crysis Warhead oder CoD 4)
mein aktueller treiber ist 186.18
 
Der Inquirer hatte da vor ca. einen halben Jahr einen interessanten Artikel zur thermischen Wechselbelastung bei Nvidia-Karten. Das Problem dabei ist -ganz grob beschrieben-, das das Die ja auf einem Trägermaterial sitzt, das wiederum sitzt auf der Platine. Sobald die GPU arbeitet, erwärmt sie sich und dehnt sich aus. Sobald der Rechner aus ist, schrumpft die GPU wieder. Und das macht sie bei jedem Rechnerstart. Nun ists aber so, dass das Die nicht einfach so über der Platine schwebt, sondern auf dem Trägermaterial aufliegt, und eben dieses Trägermaterial sich bei den -sagen wir mal Delta T = 60°- Temperaturwechseln anders ausdehnt, weils ja ein anderes Material ist. Dadurch reibt das Die auf dem Trägermaterial, und irgendwann ist der Die so angescheuert, dass er kaputt ist. Dieses Scheuern ist normal, und die Chiphersteller rechnen diesen Verschleiß mit in die Lebenszeit des Chips mit ein. Beim G84 und g86 war halt Delta T ,vor allem in Notebooks, so hoch, dass darunter die Lebenszeit extrem litt (und außerdem wurde ein anderes Lötzinn verwendet, ist jetzt aber unwichtig).

Der eine oder andere fragt sich jetzt, warum ich diese Story -noch dazu vom Inquirer- einfach mal so erzähle. Ich denk mir dass durch die thermische Mehrbelastung des Felldonuts Delta T höher wird, und diese Mehrbelastung dann die GPU sehr viel schneller "altern" lässt.
 
Zuletzt bearbeitet:
Ich stelle mir das auch so ähnlich vor, die Karte wird von angenehmen 45 Grad innerhalb kürzester Zeit ans totale Limit getrieben, schlecht verarbeitete Karten können dann mal schnell ins Grass beissen, beim Ring of Death der x-box 360 ist es ja auch ähnlich. Und was wir in der Schule gelernt haben, das Wärme auseinaderzieht, und Kälte wieder zusammen, sollte klar sein und kann ein Grund mehr sein das Grakas kaputt gehen.

Die besten Tests sind Spiele, mein Favorit ist Crysis und Warhead, wenn das ne Stunde ohne Probleme läuft dann passt es, oder ein wenig Source oder Unreal3 Engine.

Seinen PC mit den ganzen Benchmarks stundenlang stressen ist mit Sicherheit nicht gesund, jeder so wie er meint, ich spiele lieber und wenn was nicht stimmt bekomme ich das dann auch sofort mit, und das macht mehr Spaß als den dummen Donut anzustarren und auf nen blauen zu warten, oder Chips und Spawas zu grillen :D

Wenn bei ATI schon empfohlen wird das Programm nicht zu nutzen, na dann mache ich mir schon Gedanken, und danke für die Info, das wußte ich noch nicht.
 
Mir hat der Donut auch mal eine gebraten....
Das war eine Sparkle 9800GTX+.
Diese hatte scheinbar eine zu schlechte kühlung für ihren VRam, jedenfalls traten ebi Furmark
anfangs noch wenige, mit der Zeit immer mehr Artefakte auf.
Die Karte hat dann immer mehr Müll produziert, ich denke wenn einmal ein Speicher-sektor
"weggeflammt" ist, dann reißt der nach und nach immer mehr mit sich in den Tod, weil ja der gesamtwiderstand sinkt.

Das passiert vielleicht auch ohne das man es merkt, weil die Fehler nur in kleinem Maße auftreten, aber irgendwann ist halt Sense.

Somit kann es schon sein, dass einige Karten mit zu schlechter Stock-Kühlung nach ein bis vier Wochen NACH benutzung von Furmark noch abrauchen.
 
Nichts ist für immer da!

Man wird wohl sowieso nicht sagen generell können das die Programme Grafikkarten zerstören oder auch nicht, meistens ist es wohl ein Zusammenspiel aus mehreren Faktoren wie schlechte, Kühlung, minderwetige oder halbdefekte oder nicht stabile Bauteile und ähnlichem. Zudem wird die Grafikkarte im PC ja meistens mit am meisten belastet.

Ich für meinen Teil habe Glück gehabt, in den letzten 8 Jahren ist mir keine Grafikkarte kaputt gegangen, habe aber auch nie übertaktet oder Furmark benutzt. :lol:
 
Sind ja doch noch schöne antworten gekommen,danke.

Wir vermuten das es eine kombination aus beiden war,zu starke beanspruchung der karten,hitzeentwicklung an kritischen stellen und minderwertige bauteile.

Allerdings stellt das wiederrum die kühldesigns der hersteller in frage,meint ihr nicht? Irgendwie wird da am falschen ende gespart.

Ich für meinen teil werde mit dem 3Dmark benchen,der sieht auch schöner aus ;),und ist auch ein bischen praxisnaher.

Fazit:
FurMark ist ein programm das mann doch mit sehr viel respekt benutzen sollte,wenn denn überhaupt,ich werde die finger davon lassen,das risiko ist mir hier einfach zu hoch,denn das die heutigen Grafikkarten nicht mehr so hochwertige bauteile haben,sollte ja jedem,angesichts der preise,bewusst sein.
 
Ich habe bis jetzt auch noch nicht gelesen das Gordon Freeman & Co.beispielsweise eine Grafikkarte zerstören. Allein in diesem Thread sind einige betroffen und auch seitens ATI gibts ne Warnung, wie auch immer das zusammenhängt, für mich ne klare Aussage.

Wenn dann noch ein Bios geflasht wird wo Spannungen erhöht werden kann das mit Furmark vieleicht mal nach hinten losgehen.

Auch Grafikkarten werden nach der Geiz ist Geil Methode hergestellt, und zudem in Massenproduktion, also würde mich das gar nicht wundern wenn Furmark schon so einige Karten zerstört hat, die waren dann aber wahrscheinlich selbst kurz davor den Löffel aubzugeben, und Fur Mark hat ein bischen nachgeholfen. :lol:
 
Das sehe ich genauso. Wenn du gute Hardware erwischt hast und du diese extrem gut kühlst, sollte deiner Hardware selbst bei extremen Arbeitsbedingungen, deine Hardware nicht kaputt gehen ! ! !
 
Deswegen nehme ich auch gerne die X-Box 360 in den ersten Revisionen als Beispiel dafür wie schnell Hardware defekt ist, rein von Fur Mark werden die Karten auch bestimmt nicht zerstört, aber dieses Programm trägt mit Sicherheit einen gewissen Teil dazu bei, genauso wie übertakten und schlechte Kühlung. Da kann man sich schnell mal überzeugen wenn man in einem übertakteten System unter Volleistung mal auf die NB fasst :lol:

Habe dieses Jahr schon Arbeitsspeicher und 2 Boards gekauft, das waren Markenprodukte a la Gigabyte und Corsair, hat ein paar Tage gedauert und die Sachen waren defekt, ein kleines Beispiel dafür das Hardware auch ohne entsprechende Übertaktung oder Furmark/Prime und Co. kaputt gehen kann. :freak:
 
Stoppson schrieb:
so ein schwachsinn, ist natürlich das Programm dran schuld wenn leute ihren PC/Hardware nicht richtig kühlen..
so ein non-sence

RAMMSTEiN0815 schrieb:
FurMark zerstört keine Grafikkarte, deine OC-Einstellungen killen die GPU
FurMark lastet die Karte nur stark aus
----

die Story ist fast so gut wie die von nem Kunden letztens
du scheinst ja so ein richtiger kompetenz-bolzen zu sein, so wie man deine geistigen ergüße liest. von physik hast du aufjedenfall überhaupt keine ahnung :)

mightysick schrieb:
Nachdem ich gesehen habe was Furmark mit meiner 4870x2 macht, halte ich das Programm auch für gefährlich. Innerhalb von einer Minute haben sich die Spawas um 70° erwärmt- von 45° auf 115°. Das kann nicht gesund sein. Seit dem nutze ich es überhaupt nicht mehr.
bingo, mir hat es anfang januar ebenfalls die hd4870 gegrillt, mit referenz design und standard-takt.

cyrezz schrieb:
@mightysick
Tja, das ist das Prob von ATi. Die haben da was geändert im Treiber. Sobald ATi Nutzer die .exe umbenannt haben wurde die Karte viel zu warm. ATi hat ja auch expliziet darum gebeten dieses Programm nicht zu nutzen. HW Problem seitens der Herstellung?
Bsp.
Wenn ihr euren Motor theoretisch im Fahrzeug dauerhaft auf 10.000U/min jaulen lasst und er eigentlich nur für 7.000U/min ausgelegt ist und dein motor am arsch ist, sind besimmt alle schuld außer du selbst?! :rolleyes:

Um zur Physik zurückzukommen:
schau dir mal den kühler genau an!
was wird hier aktiv gekühlt und was passiv? :)
arctic-cooling-accelero-xtreme-gtx200.jpg


und schon drauf gekommen?
Aktiv wird nur deine GPU gekühlt, nicht aber der VRAM und die SPAWAS. was schlussfolgern wir daraus? ja der VRAM und die SPAWAS werden nur mit einem lächerlichen lüftchen gekühlt, welches von oben runter wedelt.
schwank am rande: eine vram-kühlplatte bringt da nur bedingt nen vorteil, weil selbst dafür der airflow in der regel zu schwach ist. die spawas haben bei ihrer größe keine überlebens-chance da ihre kühlfläche nicht mal ansatzweise da noch kühlen kann.

denk doch mal nach, was für nen kühlgerüst nur auf deiner gpu klemmt, was ne kühlfläche die gpu hat und sie dennoch 75°C hat. dann denkste mal an deine SPAWAS oder den VRAM die nicht mal ein bruchteil der kühlfäche haben und im endeffekt fast schon passiv gekühlt werden. wie sollen die allein der logik nach bei diesen begebenheiten kühl bleiben? das ganze ist ne sache des logischen denkens und die physik kannst du nicht außer kraft setzen :rolleyes:

diese grafikkarten-kühler sind so lange super im gebrauch, wie man in einer natürlichen umgebung arbeitet (games) und sie nicht grillt wie im furmark.

der beste bench sind immernoch eure games, denn mehr als das was ihr zockt wird eurer hardware nicht beansprucht.
und zum thema, die grafikkarten vernichtung wäre die schuld der user selbst:rolleyes: :
https://www.computerbase.de/forum/threads/furmark-pc-geht-aus.623345/#post-6487041
https://www.computerbase.de/forum/threads/rampage-2-ex-defekt.624076/#post-6486966
https://www.computerbase.de/forum/threads/bildfehler-im-und-nach-dem-furmark-karte-defekt.623552/
 
Zurück
Oben