Fatfire, das letzt Zitat ist aus dem Zusammenhang gerissen; es ist eine direkte und bis auf die Markennamen idente Wiedergabe des voran gegangenen Post und bewusst kein bisschen verändert. Es enthält gleich wenig Information wie der Post auf den ich mich bezog, und das war Absicht. Wobei ich gerade sehe - der Post, auf den ich geantwortet habe, wurde wohl ins Aquarium entsorgt. Daher steht die Aussage jetzt alleine und verlassen drinnen und hat auch so keinen Sinn mehr, wirkt sogar arrogant, gebe ich zu. Daher hier nochmal der Post, auf den ich mich bezog:
https://www.computerbase.de/forum/threads/847009/
"nein... dann doch lieber eine AMD karte, wer weiss ob nvidia sich so ein müll nicht auch mit der fermi serie erlaubt hat"
Und wenn du meine Antworten auf Themen liest, in denen jemand so ein Problem mit einer 8800 oder 9800 hat bin ich meist der erste der sagt dass es sich um einen Hardwaredefekt handelt und dass man mit dem Backopfen noch kurz- bis mittelfristig etwas Leben in eine solche Karte hauchen kann. Ich bin mir dessen also sehr wohl bewusst.
Meine Reaktion auf die Posts von Kaoznake sollen nur klarmachen, dass die Erklärungen von Semiaccurate aus meiner Sicht nicht haltbar sind. Sie mögen zwar logisch klingen, aber wenn man das ganze weiterdenkt und auch noch etwas mehr zum Thema weiß (wie eben zum Beispiel die Backofenmethode) weiß man auch dass sie falsch sein müssen. Nach Charlies Erklärkung sollte der Backofen die Karten umbringen; er tut aber das Gegenteil.
Wohlgemerkt - meine Aussage, dass es sich um das Lot selbst handelt, das auskristallisiert, ist auch nicht mehr als eine These - die ich aber nach bestem Wissen und Gewissen vertrete, und gegen die ich noch kein hieb- und stichfestes Argument gefunden oder gehört habe.
und was meine Aussagen zum Thema AMD angeht: ich gebe zu, ich bin kein Fan von AMD. Aber auch hier gilt wieder, ich versuche für mich selbst möglichst objektiv zu bleiben, auch wenn es mir sicher nicht immer gelingt. In gewissen Belangen ist derzeit AMD besser, in anderen schlechter. Ein K.O.-Kriterium für mich ist, das AMD auf Kosten der Bildqualität am Treiber Optionen verschlechtert um so bessere Benchmarkwerte zu erreichen. Ich habe das bei nVidia damals genauso wenig gut geheißen (Stichwort 3DMark). AMD hat in letzter Zeit aber mehrere solcher Eingriffe gewagt, erst die Anisotrope Filterung, die per default herabgesetzt wurde, dann Athlon-Prozessoren die Plötzlich als Phenom verkauft werden, und neuerdings die Tesselations"optimierung". Und dann noch Powertune, dass zwar den Stromverbrauch senken kann, aber auch unter einigen Bedingungen für plötzliche Frameeinbrüche sorgt, und zwar dann wenn man es am wenigsten brauchen kann - unter hoher Belastung - nur um bessere Verbrauchswerte zu erreichen. Wobei "besser" schön gesagt ist, die HD6970 hat den gesamten Vorsprung von AMD auf nVidia was den Stromverbrauch angeht verspielt. Idente Performance bei identem Verbrauch.
Daher meine Aussage, dass nVidia derzeit die "runderen" Produkte macht.
und nein, ich war alles andere als ein "Markenkind"

Wenn ich eine Marke hatte dann waren das Eigenmarken von Vögele. Levis oder Hilfiger habe ich noch nie besessen.
mfg