Grafikkarten-Hitzetod: Wieso wird das einfach so hingenommen?

Denke Dir bitte mal meine persönlichen Beispiele weg (vlt. hätte ich die direkt weglassen sollen, scheinbar könnt Ihr alle nicht über mein Pech hinweg sehen :D:p), und achte auf die Gesamtsituation: Ich finde, dass solche Geschichten gerade hier im Forum erschreckend oft auftauchen.

Dass Einige meinen, dass das nur mein subjektives Empfinden wäre, ist natürlich ne andere Sache ;)
 
@bemymonkey
Vor einigen Monaten hatte ich bei Planet 3DNow ebenfalls einen Thread über tendenziell kürzere Lebenszeiten von Grafikkarten geschrieben und mehrheitlich ähnliche dies verneinende Antworten erhalten wie du hier.

Auch dort wollte dies keiner Wahrhaben, die favorisierten Chip- und Platinenhersteller wurden in Schutz genommen und der Nutzwert einer 'alten' Grafikkarte zerredet.

Die teuren Hauptstromkonsumenten vieler Spieler-PCs altern durch thermische Last, deren Schwankungen und auch dank bleifreien Lotes schneller als vor fünf oder sieben Jahren.
Durch herstellerseitige Übertaktungen werden immer mehr Chips mit Taktraten und unter Spannungen außerhalb der Spezifikation betreiben.

Bei den vergleichsweise geringen Leistungssteigerungen und hohen Kartenpreisen der letzten Jahre, würden ohne die Defekte sicherlich merklich wenige Karten verkauft.
 
bemymonkey schrieb:
Lustig, dass einem immer direkt Inkompetenz unterstellt wird, wenn man auf Probleme hinweist.

Lustig ist, dass nirgends von einem angeblichen "Massensterben" von Grafikkarten zu lesen ist.
Nicht mal im "Allmighty Internet" in dem vermeintlich immer "alle" von Problem XYZ betroffen sind, nur weil sonst halt keiner schreibt, dass er das Problem nicht hat, ist davon etwas zu lesen!

Sicherlich sterben manche Karten einen Hitzetod. Genauso sterben sie weil der RAM defekt ist, die SpaWas den Geist aufgeben, der User Mist baut, Überspannungsschäden.... usw. usf.

Von einem generellen Problem zu reden ist wohl die Übertreibung der Woche.
 
Bei den vergleichsweise geringen Leistungssteigerungen und hohen Kartenpreisen der letzten Jahre, würden ohne die Defekte sicherlich merklich wenige Karten verkauft.

War ja klar, dass diese Verschwörungstheorie nicht fehlen darf.
 
Nennt man auch geplante Obsoleszenz ;) das wird im Grafikkarten-Bereich genauso existieren, wie bei Autos, Strümpfen oder Glühbirnen.
 
Klar, bei allen dem Renommee abträglichen Dingen können die in harter Konkurrenz zueinander stehenden Grafikkartenhersteller nicht Abseits stehen und müssen natürlich mitmachen, wenn es darum geht, die Lebensdauer der eigenen Produkte künstlich durch vorzeitigen Hitzetod zu verkürzen.

Und natürlich bekommt das trotz Internet so gut wie niemand mit, denn sonst gebe es ja wohl mehr Beiträge wegen dieser abscheulichen Geschäftemacherei auf Kosten des arglosen Kunden. ;)
 
"Früher war trotzdem alles besser." :cool_alt:
Meine alten abgelegten Geforce 2, 4, FX/PCX und 6 laufen noch immer problemlos bei Freunden und Familienmitglieder. Radeon 1900GT und neueres ist entweder schon defekt oder muss bei der einen oder anderen Grafikengine untertaktet werden, da wohl einige nur dort genutzte Schaltkreise nur mit 50-100MHz verringertem Takt stabil laufen.

IGPs und kleine GPUs scheinen noch immer recht zuverlässig zu laufen, aber bei Grafikkarten für Spieler scheint mehr Wert auf auffälliges Verpackungsdesign und 'hübsche' Kühllösungen denn auf Langlebigkeit gelegt zu werden.
 
Es ist natürlich schon richtig, das hier anzubringen, wenn man der Meinung ist, dass das Problem gar nicht erst exisitiert - lediglich die Art und Weise, wie das hier gemacht wird "Also bei mir läuft alles, scheinbar bist Du dafür einfach zu blöd, lass das lieber einen Profi machen!", die absolut nicht passt. Das ist reiner Kindergarten, und klingt so, als würde man sich persönlich angegriffen fühlen, weil jemand seine ach so tolle Grafikkarte nieder macht... mir wäre das ziemlich peinlich ;)

Leider habe ich auch keine Zeit, umfangreich diesbezüglich zu recherchieren, daher wird sich dieser Thread vermutlich eh im Sand verlaufen... aber scheinbar gibt es doch ein zwei Leute, die die Situation ähnlich empfinden wie ich. Bleibt nur leider doch die Frage, wer richtig empfindet :p


Meine Ursprungsfrage ist aber eigentlich mittlerweile beantwortet: Die Kundschaft lässt das mit sich machen, weil:

a) sie es (noch? :p) nicht persönlich erwischt hat
b) sie das Problem noch überhaupt nicht wahrgenommen haben (bzw. das Problem gar nicht in so großen Ausmaßen existiert, wie ich angenommen habe)


Ich hoffe für Euch alle, dass a) weiterhin so bleibt. Meine eigenen Konsequenzen habe ich daraus jedenfalls schon gezogen - ein Glück, dass für meine alten Spielchen eine Low-End Grafikkarte (6670 dümpelt bei so 60% Auslastung rum und wird dabei gerade mal so 50° heiss) schon locker reicht :)


Vlt. grabe ich den Thread in 2 oder 3 Jahren nochmal aus :D



SJR schrieb:
@bemymonkey
Vor einigen Monaten hatte ich bei Planet 3DNow ebenfalls einen Thread über tendenziell kürzere Lebenszeiten von Grafikkarten geschrieben und mehrheitlich ähnliche dies verneinende Antworten erhalten wie du hier.

Auch dort wollte dies keiner Wahrhaben, die favorisierten Chip- und Platinenhersteller wurden in Schutz genommen und der Nutzwert einer 'alten' Grafikkarte zerredet.

Die teuren Hauptstromkonsumenten vieler Spieler-PCs altern durch thermische Last, deren Schwankungen und auch dank bleifreien Lotes schneller als vor fünf oder sieben Jahren.
Durch herstellerseitige Übertaktungen werden immer mehr Chips mit Taktraten und unter Spannungen außerhalb der Spezifikation betreiben.

Bei den vergleichsweise geringen Leistungssteigerungen und hohen Kartenpreisen der letzten Jahre, würden ohne die Defekte sicherlich merklich wenige Karten verkauft.

Das ist auch zu 100% meine Vermutung... aber offenbar empfindet man hier doch anders - und wer weiss... vlt. sind wir auch einfach durch unsere Subjektivität verleitet, so zu denken. Kann man leider ohne umfangreiche Statistiken (auf die höchstens die Hersteller zugriff hätten) nicht wissen...
 
Zuletzt bearbeitet:
Es gibt nunmal vereinzelt Modelle, und das nicht nur im High-End Bereich, bei denen bei der Montage des Kühlkörpers oder bei der Kühlung der Spawa oder des RAMs "gepfuscht" wurde.

An sich sind 70°C für den Chip gar kein Problem. Auch 80 oder gar 90°C sind noch Ordnung. Erst ab 100°C sollte man aufpassen, ca 100°C entsprechen auch meist der vom Hersteller vorhergesehenen Peak-Temp.

Wenn eine Karte schon bei 70°C oder gar dadrunter ihren Geist aufgibt kann das eigentlich nur zwei Gründe haben:

1) Die Temp-Sensoren sind hinüber und zeigen falsche Werte an,

2) Die Spawa oder/und der GRAM werden nicht hinreichend gekühlt und erreichen deutlich! höhere Temps als die GPU selbst.

Letzeres ist zb bei meiner ASUS der Fall. Unter Furmark erreicht sie unter Standard-Lüftereinstellungen ca 72-74°C. Eigentlich ein unkritischer Bereich, dennoch resetet sich der Treiber und der PC bleibt hängen. Erst wenn ich den Lüfter manuell auf 40-50% laufen lasse, gibt es keine Abstürze mehr. Da habe ich halt ein Montagsmodell erwischt. Das passiert, dass man jedoch von einer Verschwörung seitens der Hersteller sprechen kann, halte ich für äußerst fragwürdig. Man muss eben bedenken, dass Graka immer stromhungriger werden und immer mehr Abwärme abgeben. Und so wie ich das sehe, bemühen sich die Hersteller wirklich diese Probelme in den Griff zu bekommen. Die Referenzdesings sind meist gelungen, und kühlen den jeweiligen Chip auch unter Extrembedingungen. Wenn man es jedoch gerne kühl und leise mag, dann greift amn eben zu Custom Designs.;)
 
Mein Bruder und ich haben uns zeitgleich PCs zusammengestellt mit identischer Hardware, nur er hatte eine 8800gt 512mb (Hersteller weisich nicht mehr) und ich eine Palit 8800gt 1024mb.

Er hatte nach einem 3/4 Jahr starke Probleme mit der Hitze, 3D Abstürze bis Garantie=>Umtausch.
Ich hatte noch keine Probleme und meine ist zumindest zeitweise übertaktet.
Sein Athlon 5200+ kommt @Stock beim spielen auf 72°C, meiner mit OC auf 2,9 auf 68°C im Sommer.

Das liegt sicher nicht zuletzt daran, dass er den PC nie Sauber macht ^^
Bei dem einen ist es die Bequemlichkeit des "Normalsufers", beim andern vllt OC potential bezüglich der Temperaturen. Ich denke die Lücken nach oben werden von den Herstellern bewusst gesetzt.
Ich nehme auch an, dass das wirklich "Lücken" sind und nicht etwas was man sich im Internet auf den Fingern saugt.
Den Laptop als Vergleich heranzuziehen finde persönlich garnicht mal so verkehrt. Würde bedeuten, dass diese Lücken existieren und auch ausgenutzt werden, dies dann aber nicht der Lebensdauer zu Gute kommt.
Kann mich täuschen, ich hab zumindest das Gefühl(!) Laptops, vorallem die günstigen mit dürftiger Kühlung und Ausstattung eher das Zeitliche segnen als TowerPCs.

Um die Frage, ob denn die Temperaturen um die 80-90° für eine GPU wirklich zu hoch sind, müsste man Ahnung von der Materie haben. Wenn da vllt jmd einen Fachbezogenen Artikel hat, von Ati/nVidia oder woher auch immer.


Zu dem Thread "Grafikkarten gesund backen":
Ja dieser Thread existiert. Ja dieser Thread ist recht lang. Aber man kann sicherlich nicht von Massensterben reden, oder dass der Großteil der Karten schnell verreckt.
Die jenigen, bei denen die Karte noch läuft sehen natürlich auch keinen Anlass sich in Foren deswegen zu melden.

Mir ist auch mal eine Ati9800pro 2 Wochen vor Garantieablauf mit grünen Streifen im Bios abgeraucht (wurde gegen neue getauscht), meine jetzige 8800gt ist etwas über 3 Jahre schon am arbeiten.
Ich würde mich nicht "aufregen", wenn sie jetzt in 2 Wochen den Geist auf gibt, sehe aber auch keinen Anlass darauf Wetten abzuschließen oder in Panik zu geraten.
Vllt habe ich das ja dem "Düsen-Jet-Kühler" zu verdanken, der mich dabei mit seinem akustischen Klängen beim Spielen begleitet.


@TE Kannst du vllt sagen, welcher physikalischen Grund dich zu deiner Annahme verleiten lässt? Oder kommst du lediglich darauf, weil die Usererfahrungen die du im Internet liest dich darauf bringen. No Offence, möchte nur wissen weshalb du genau annimmst die Temperaturen wären zu "hoch".


Grüße Chris
 
Noldo89 schrieb:
@TE Kannst du vllt sagen, welcher physikalischen Grund dich zu deiner Annahme verleiten lässt? Oder kommst du lediglich darauf, weil die Usererfahrungen die du im Internet liest dich darauf bringen. No Offence, möchte nur wissen weshalb du genau annimmst die Temperaturen wären zu "hoch".

Welche Annahme jetzt? Dass die Grafikkarten wegen hohen Temperaturen nicht mehr gehen? Das sind in der Tat einfach Überlegungen anhand der Berichte, die ich bis jetzt im Netz so gelesen und von Freunden & Bekannten gehört habe...

Ausschlaggebend war wohl, dass ich eine billige 8800GT kaufe, ein paar Tage später lese, dass diese Serie öfters mal brät, und kurz darauf die ersten Artefakte erscheinen :D
 
Zuletzt bearbeitet:
Genau das war wohl bei mir und meinem Bruder, ich weiß nicht welche er genau hatte, aber ich hatte die mit 1024mb Vram genommen, großem lauten(!) Kühler, vllt hat sie deshalb "überlebt"? ;)

GPU's gehen sicherlich bei hohen Temperaturen irgendwann nicht mehr.
Nur ist die Frage, ab wann kann man eine Temperatur genau als "hoch" bezeichnen.

Man hört auch schonmal, dass leute einen neuen Graka Treiber installieren, neu starten und dann dann die Graka versagt. Sie nehmen an, es liegt daran, dass sie einen neune Treiber installiert haben.
Ich gehe da definitiv von Zufall aus, dass genau sie genau dann einen Treiber installieren, wenn die Graka gedenkt abzudanken.
Oder wenn der PC plötzlich nicht mehr anspringt ohne vorher irgendwelche Abstürze zu zeigen oder Verschleiß erkennbar geworden ist.

Gibt ja genug Gerüchte, falsche Warheiten die sich rum erzählen, nicht nur hierrauf bezogen.
Und solange keinen triftigen wissenschaftlichen Grund kenne anzunehmen, 80°+ sind zu hoch bleibe ich noch bei der Aussage "80-90° sind idr kein Problem", weil zumindest die Statistik dem über Jahre hinweg recht gibt.

Schwierig aber irgendworauf muss man auch seine Meinung bilden.^^
Mir sind früher (als Kind) auch oft Festplatten binnen 1-2 Jahre abgedankt, die jetzigen laufen 4 und 6 Jahre.
Ich dachte auch eine Zeit, die aktuellen würden schnell ausfallen aufgrund meiner Erfahrung.
 
Wie gesagt, die Temperaturgrenze ist sicherlich keine Harte, und hängt auch sicherlich stark von der Betriebsdauer unter Last ab - 1000h Betrieb @80° sind vermutlich schädlicher als 100h @90° ;)
 
Und wenn die Nutzer deren Berichte du gefunden hast nach dem gleichen Prinzip vorgegangen sind?

Ich meine als bei einigen 570 nach vcore Erhöhung die VRMs durchgebrannt sind hatte man ja wenigstens den Beweis schwarz auf PCB :D
Aber wenn sich die Karte einfach so verabschiedet...

Ich habe sowieso das Gefühl das bedingt durch die Tatsache das viele die Temperaturen als so kritisch betrachten praktisch erst mal jeder Defekt auf zu hohe Temperaturen geschoben wird.
Bestes Beispiel ist doch der Bericht den Google mal veröffentlicht hat und der zeigt das die Festplatten die überdurchschnittlich oft ausgefallen sind nicht zu den wärmsten gehört haben…

Was die gebraucht gekauften Karten betrifft. Na ja, da besteht immer ein erweitertes Risiko.
Man kann sich nie sicher sein wie der Vorbesitzer die Karte behandelt hat.
Also bezüglich oc, Spannung erhöht wie blöde oder die Lüfter so langsam drehen lassen das die Karte tatsächlich immer mit über 100° gelaufen ist usw...
 
Sicherlich übertragbar von Maschinen und Bauteilen bezogen auf die Lebenszeit.
Da kenn ich auch ein paar Rechnungen aus der Uni, die einen schon erstaunen können was ein "paar °C" ausmachen können.

Wär schön, wenn es bezüglich GPU, oder generell ComputerHardware Rechnungen geben würde.
Zumindest die Techniker von Intel und Co werden auch Gründe für ihre Angaben haben.


Meine Graka ist auch nur mal für 2h am Tag für bestimmte Spiele hochgetaktet, für bestimmte Spiele. Fällt vllt daher auch nicht so sehr ins Gewicht. Bei den Spielen steigt die Temp bei Dauerbelastun 90%+ auch an die 80-85° je nach MemoryController load, bei manchen Spielen dann vom Idle@58° auf etwa 64° wegen der schnell schwankenden Auslastung.

€: @Psycho
Stimmt, Kaputte Graka =| durchgebrannt. Manche kaufen bei sowas auch gleich nen neuen PC :)
Kann ja auch sein, dass der Chip seine Lebenszeit vollendet hat und es trotzdem auf ein Durchbrennen wegen zu hoher Temps geschoben wird, weil die Leute es einfach nicht besser wissen.
Ist auch nichts dran auszusetzen im Generellen, hilft nichts, muss eh eine neue Karte her.
 
Zuletzt bearbeitet:
@ TE

Die Anzahl von google-Treffern oder Forenbeiträgen zu einem gewissen Problem ist nicht unbedingt als Grundlage dafür geeignet, Aussagen über die Fehleranfälligkeit eines gewissen Produkts zu treffen. ;)
Auch wenn's dir persönlich vllt. so vorkommt, als gäbe es heute viel mehr solcher Threads als früher, so kann das eben auch an der Tatsache liegen, dass heute einfach mehr Leute Internetforen nutzen. Daneben gibt es natürlich noch unzählige weitere Faktoren, die da mitreinspielen und keiner davon muss etwas mit schlechterer Fertigungsqualität seitens der Hersteller (oder was auch immer du vermutest) zusammenhängen.

Wenn du aus deinen persönlichen - nicht repräsentativen - Erfahrungen eine Lehre ziehen kannst, dann doch diejenige, keine gebrauchte Hardware mehr zu erwerben.
Ich selbst kaufe grundsätzlich keine gebrauchten CPUs, Grakas, HDDs, NTs etc., weil man einfach nicht weiß, wie lange und v.a. unter welchen Bedingungen die Teile gelaufen sind.

Grüße,
Peter_Shaw
 
Ich hab seit der allerersten Geforce 256 ausnahmslos jede Generation in meinen Rechnern gehabt.
Mir ist noch nie eine Nvidia flöten gegangen. Liegt vielleicht daran, dass ich nicht übertakte und (mit 1 Ausnahme) auch nie selbst an den Kühlungen herum bastle?
 
Wakü drauf und gut ist?

Ich musste inzwischen auch schon ansehen wie eine von mir gebrauchte GTX280 nach dem Zurückbau auf Lüftkühlung nach 6 Monaten den Geist aufgegeben hat. Die Hersteller dürfen halt seit einigen Jahren z.b. kein bleihaltiges Lot mehr benutzen (Umweltschutz, find ich gut). Der Nachteil daran ist eben dass das Bonding früher oder später aufgibt, und daran sterben die neueren Grafikkarten irgendwann. Das ist die momentane Sollbruchstelle jeder Grafikkarte. Den verbauten Chips sind 90° relativ egal. Bei siliziumbasierenden Halbleitern liegt die maximale Betriebstemperatur im Bereich von 150 °C. Also eine Temperatur die nie erreicht wird, weil die Grafikkarten vorher den Rechner abschalten. DEUTLICH vorher. Nur das Lot hält diese Temps nicht aus^^
 
Zuletzt bearbeitet:
bemymonkey schrieb:
Ich finde, dass solche Geschichten gerade hier im Forum erschreckend oft auftauchen.

1. Es ist ein Forum wo sich eben die Leute hilfesuchend an die Community wenden
2. Übertaktet jetzt jeder Depp inzwischen seine Hardware ohne wirklich zu wissen was er da tut, trotz Anleitungen, Hinweisen etc.

Die verbauten Kühlsysteme sind so konzipiert das sie die Hardware innerhalb der Spezifikationen halten können, sofern die Standardwerte gelassen werden. Dann kommt Hans Dampf und gleich mal schön schweinchenschlau irgendwelche Regler hochdrehen, weil geht ja alles voll einfach :freak:
Ebenso sind die Silizium Chips und deren Legierungen inzwischen für Temperaturen weit jenseits der 70°C ausgelegt.

Dazu kommt das Problem bei Hardware das inzwischen eher kalte Lötstellenin denen sich Mikrorisse bilden Probleme verursachen.
Daher hilft auch bei einigen Grafikkarten das sog. gesundbacken im Backofen (meistens auch nur ein paar Monate bis es wieder auftaucht). Davon können natürlich auch die Speicherchips betroffen sein.
Es ist also häufig nicht das Problem der Chipschmieden nvidia und AMD, diese liefern lediglich den Chip + Referenz Layout, sondern das die verwendeten Materialien minderwärtig sein können.

Und bei gebrauchter Hardware muss mich nichts mehr wundern. Es gibt soviele Leute die einfach Dinge unterschlagen, da werden dann Übertaktungen bzw deren Versuche verschwiegen, Kühler still und heimlich rückgebaut nur um den Wertverlust zu mindern bzw mehr rauszuholen und / oder potentielle Kaufinteressenten nicht abzuschrecken.... :rolleyes:
 
Zurück
Oben