News Falsche Spezifikationen: Nvidia entschädigt US-Käufer der GeForce GTX 970

chatstar schrieb:
Nette Ausrede!
Aber schon komisch, NVIDIA gibt zu, daß das Marketing für technische Angaben zuständig ist und niemanden wundert das.

Das Marketing ist für die Kommunikation nach außen zuständig. Für die technischen Angaben sind sie auf Informationen aus der Technikabteilung angwiesen. Und da gab es halt das Problem, dass die beiden unterschiedlichen Konfigurationen des GM204 für 970/980 nicht sauber übermittelt wurden.
Die Shaderanzahl stimmt ja für die 970, ebenso sitzen 4GB und 256 Datenleitungen auf dem PCB. Dass diese 4GB aber segmentiert sind, und dass durch die Beschneidung auch ROPs/Cache weggefallen sind, ist bei der internen Kommunikation auf der Strecke geblieben.
 
Klingt sehr glaubhaftwuerdig.... Bei so einem Konzern....
es ist keinem Techniker aufgefallen und nVIDIA hat nicht darum gekämpft keinen Schadensersatz zu bezahlen.....In Anbetracht was nVIDIA sich früher und heute erlaubt...
 
Zuletzt bearbeitet:
ampre schrieb:
Und AMD gibt keinen Verbrauch von 150W an sondern eine Typical Design Power. Zudem konnte das Problem von AMD behoben werden mit den 75 Watt über den PCI Slot,

Da wurde überhaupt nichts behoben, die Karten verbrauchen mehr als die von AMD angegebenen 150W.
Ergänzung ()

Nai schrieb:
@ ampre
Mit dieser Defintion von API Support müsstest du auch sämtlichen Low Budget Karten den DX 12 Support absprechen.

Du solltest langsam einsehen, dass es keinen Sinn macht mit gewissen Usern hier zu diskutieren, denn entweder sind sie kognitiv nicht in der Lage, deinen Argumenten zu folgen oder sie wollen es einfach nicht verstehen. Du wiederholst dich hier mehrfach, ohne auch nur einen Schritt voranzukommen.

Ich lese deine Postings aber sehr gerne, weil sie für mich als Ingenieur der Informations- und Nachrichtentechnik, der aber schon einige Zeit aus der Soft- und Hardwareentwicklung raus ist, verständlich geschrieben sind. Weiter so. :daumen:
 
Freezehead schrieb:
Klingt sehr glaubhaftwuerdig.... Bei so einem Konzern....
es ist keinem Techniker aufgefallen und nVIDIA hat nicht darum gekämpft keinen Schadensersatz zu bezahlen.....

Warum sollte sich jemand aus der Produktentwicklung anschauen was das Marketing nach aussen kommuniziert? Am Ende der Entwicklung will Marketing Specs haben mit denen sie das neue Produkt bewerben können. Das wird dann von der Entwicklungsabteilung übermittelt und hinterher vom Marketing aufbereitet. Glaubst du ernsthaft da geht dann einer der Entwickler später auf die Nvidia Kundenseite und überprüft dort für alle neuen Produkte, dass auch ja überall die korrekten Specs eingetragen sind? Das ist sicher nicht der Job eines Entwicklers. Und mit Externen dürfen die schon zweimal nicht über Specs reden, also selbst *wenn* so jemand einen vermeintlichen Fehler in den Specs findet, die zB Computerbase beim Test der 970 auf Seite 1 listet, dann wird er Entwickler bestimmt net auf CB zugehen und sie drauf ansprechen dass sie die falschen Specs aufgelistet haben. Wer sensible Infos nach aussen kommuniziert kann ganz schnell seinen Job verlieren, und wenn jemand sensible Infos hat dann sind es die Entwickler. Deswegen reden die mit dem Marketing, und das redet dann mit der Öffentlichkeit.

Wahrscheinlich ist es intern schon irgendwann mal aufgefallen, dass da nur die halbe Wahrheit kommuniziert wurde (oder es war von Anfang an bekannt), aber man hat halt versucht, damit durchzukommen. Ggf. wurde dazu sogar eine Risikoabschätzung gemacht und die UVP entsprechend erhöht, um dann hinterher genau diesen Fall den man jetzt hat abfangen zu können.
 
CD schrieb:
Wahrscheinlich ist es intern schon irgendwann mal aufgefallen, dass da nur die halbe Wahrheit kommuniziert wurde (oder es war von Anfang an bekannt), aber man hat halt versucht, damit durchzukommen. Ggf. wurde dazu sogar eine Risikoabschätzung gemacht und die UVP entsprechend erhöht, um dann hinterher genau diesen Fall den man jetzt hat abfangen zu können.
Das ist der Punkt. ;)
 
@Kisser
AMD gibt eine TDP von 150W an macht aber keine Verbrauchsangaben das sind 2 Unterschiedliche Dinge. Der Chip braucht zum Kühlen sogar nur 110W also sind 150W TDP angaben für den Chip korrekt. Das einzige Problem war das über den PCI-E Steckplatz mehr als 75W gezogen wurden. Das wurde behoben.

Wenn du ein Ingenieur bist würdest du den Unterschied verstehen!

Auch würdest du verstehen das Nai rein vom Technischen spricht aber er nie an die Verbraucher denkt die hauptächlich technische Lion sind! Er ist schon soweit abgehoben das er nur noch technsiche Argumentationen akzeptiert. Es gibt aber auch die Wirtschaftliche und Persönliche Seite und die lässt Nai total aus.

Er hat recht wenn er schreibt das die DX12 Specs eingehalten werden. Er hat aber nicht recht das es gut ist so beim Kunden um seine Gunst zu werben aus Verbraucher sicht! Hier wird man als Verbraucher in die Irre geführt!
 
Zuletzt bearbeitet:
Nai schrieb:
@ janeeisklar
Wenn du unbedingt die Performance eines Features als Vorraussetzung für die Korrekheit des Ergebnises sehen willst, dann kann ich dies nicht ändern. Ich habe hier seitenlang nur erklärt, weshalb man die Performance eines Features nicht als Voraussetzung für den Support einer API hernimmt.

Nicht die Performance an sich, aber der Chronologischer Ablauf muss eingehalten werden.
Nvidia serialisiert aber wieder alles und macht es dann im "DX11 Style".
 
die 970gtx ist soo schlecht. komisch das sie der amd 480 mit 8gb in manchen spielen doch davonrennt:D.
klar war das verhalten seitens NV nicht korrekt, auch gut das sie zumindest Schadensersatz leisten müssen, aber, nvidia hat auch zu Zeiten der 4xx gtx reihe bis zur 600 gtx reihe beschissen, diese reihen haben dx11 auch nicht full supportet und trotzdem haben sie gut mitgehalten mit amd oder waren sogar vorne dran. also was soll das mit dx12, grundlegendes funktioniert auf dx 12 und Schnickschnack halt nicht, nichts neues bei nvidia;). btw musste amd auch vor kurzem seine hardware speccs durch eine Software korrigieren, nämlich die leistungsaufnahme der rx480, da schreit aber auch keiner danach^^
 
janeeisklar schrieb:
Nicht die Performance an sich, aber der Chronologischer Ablauf muss eingehalten werden.
Nvidia serialisiert aber wieder alles und macht es dann im "DX11 Style".

Was sich zwischen Treiber und GPU abspielt ist für den DX12-Programmierer nicht von Interesse, denn er "sieht" nur die API-Funktionen und ruft diese auf. Alles danach ist für den Entwickler eine Blackbox.
 
ampre schrieb:
30 Euro ist ein Witz. In deutschland hättest du jetzt noch die Möglichkeit die Karte gegen Bares zu tauschen. Ich bin mal gespannt was passiert wenn die Karte 2 Jahre alt ist, ob dann viele doch noch von Ihrem Rückgaberecht gebrauch machen.
Das ist falsch. Du hast als Käufer umgehend die Ware auf (offensichtliche) Mängel zu prüfen und diese anzuzeigen. Tust du das nicht, akzeptierst du die Ware wie sie ist. Da die 4GB-Geschichte aber wohlbekannt ist, kannst du nicht nach zwei Jahren rügen.
ampre schrieb:
Dann müsste aber die Granularität der Spec genauer sein. Denn so ist sie einfach nur eine Verbrauchertäuschung und suggeriert Leistung wo keine Leistung vorhanden ist!
Nein, hier haben irgendwelche Leute ohne Ahnung Erwartungen erweckt, die gar nicht erfüllt werden können.
ampre schrieb:
@Sonitin
Ein Verbrauchertäuschung ist es wenn man eine Karte mit 64 Rops verkäuft und diese nur 56 Rops hat
Eine Verbrauchertäuschung ist wenn man eine karte mit 2MB level 2 Chace verkäuft und dann nur 1,7vorhanden sind.
Trotzdem erbringt die Karte die Leistung die sie soll, die kleineren technischen Spitzfindigkeiten sind letztendlich irrelevant.
Und AMD gibt keinen Verbrauch von 150W an sondern eine Typical Design Power.
Das ist falsch, die Karte darf maximal nur 150W verbrauchen, mehr gibt die PCI-Spec nicht her. AMD verletzt nicht nur die Spec, sie bewerben die Karte auch falsch.
Zudem konnte das Problem von AMD behoben werden mit den 75 Watt über den PCI Slot,
Die Karte zieht trotz Wunderwtreiber immer noch mehr als 10% Leistung als sie maximal dürfte. AMD hat da gar nicht nachgebessert, nur das Problem verlagert. (Und irgendwo in den Untiefen der Treibermenus eine Option zu verstecken, die die Karte speckonform schaltet, dabei aber deutlich Leistung kostet, ist keine Lösung, zumindest wenn diese nicht voreingestellt ist.)
Des weiteren hat sich AMD gleich dafür entschuldigt und die Sache für sehr ernst genommen.
Man kann sich nicht entschuldigen, man kann nur um Entschuldigung bitten. Und wie ernst AMD die Sache nimmt, sieht man daran, dass sie bis heute ihre Kunden wissentlich verarschen.

Des weiteren kommt hinzu das bei der GTX 970 100% der Leute geschädigt sind. Bei AMD werden nur die Leute geschädigt
Geschädigt wurde niemand, die Karte tut genau das, was sie soll und verursacht keine Schäden. (Bevor es hier wieder einen Aufschrei gibt: Die Falschangaben sind natürlich nicht zu entschuldigen, aber beeinträchtigen die Funktion der Karte letztendlich genau gar nicht.) Bei der AMD-Geschichte sieht das anders aus, hier können Käufer tatsächlich geschädigt werden.
ampre schrieb:
@Kisser
AMD gibt eine TDP von 150W an macht aber keine Verbrauchsangaben
AMD macht sehr wohl Verbrauchsangaben, da die Karte eben maximal laut PCI-Spec nur 150W verbrauchen darf.
150W TDP angaben für den Chip korrekt.
Du gibst aber den Verbrauch der ganzen Karte an, nicht nur den eines einzelnen Bauteils.
Das einzige Problem war das über den PCI-E Steckplatz mehr als 75W gezogen wurden. Das wurde behoben.
Das war eben nicht das (alleinige) Problem. Das Problem ist der deutlich zu hohe, falsch angegebene Verbrauch, und das wurde eben nicht behoben.
Wenn du ein Ingenieur bist würdest du den Unterschied verstehen!
Wenn du einer wärst, würdest du eine solche drastische Verletzung der Spec nicht schön reden.
 
@ Jbauer
1.) Das muss Dir erst mal einer Nachweisen das du von dem Fehler gewusst hast!?! Du hast bei einer Gewährleistung eine 2 Jährige Verjährungsfrist bei der du lediglich nachweisen musst, das der Mangel schon beim Kauf vorhanden war.

2.) Nein es wurden keine Erwartungen geweckt. Wenn jemand die DX12.1 Spezifikationen liest glaubt der Lion User das die Karte all dies in Hardware kann und er nicht vielleicht noch eine schneller CPU braucht!? Deshalb sind die Specs von DX12 sehr undurchsichtig von den Tiers Versionen fange ich noch nicht mal an zu reden!

3.) Das Problem wurde beseitigt. Wenn du den ÖKO Mode aktivierst zieht die Karte 150Watt mehr muss sie nicht tun! Was du damit machst ist dir Überlassen. (Zudem wird das Thema überbewertet weil 99% der User selbst mit 20% Überlast wohl kaum ein Problem haben dürften)

http://www.tomshardware.de/amd-radeon-rx-480-polaris-grafikkarte-treiber,testberichte-242146.html
9 Watt das dürfte in Toleranz sein! Toleranz sagt dir was oder?

4.) Sie erbirngt eben gerade nicht Ihre Leistung 0,3MB fehlender Level 3 Cahche und Vram der nur mit einem Bruchteil der geschwindigkeit angebunden ist sowie die 8 fehlenden Rops fehlen der Karte in der Leistung!

5.) TDP = Thermal Desing Power und die bezieht sich rein auf den Chip und der Hat 110 W
https://de.wikipedia.org/wiki/Thermal_Design_Power
 
Zuletzt bearbeitet:
feidl74 schrieb:
btw musste amd auch vor kurzem seine hardware speccs durch eine Software korrigieren, nämlich die leistungsaufnahme der rx480, da schreit aber auch keiner danach^^
Weil die Karte trotzdem etwas schneller wurde...
 
ampre schrieb:
AMD gibt eine TDP von 150W an macht aber keine Verbrauchsangaben das sind 2 Unterschiedliche Dinge. Der Chip braucht zum Kühlen sogar nur 110W also sind 150W TDP angaben für den Chip korrekt. Das einzige Problem war das über den PCI-E Steckplatz mehr als 75W gezogen wurden. Das wurde behoben.

Interessant dass du dich an optionalen DX12 Features wie Nvidias Implementierung von AC aufhängst, aber eine offensichtliche Verletzung der PCIe/ATX Spezifikation bei der AMD Referenzkarte verteidigst.

AMD hat hier geschlampt, nachträglich an den Taktraten gebastelt um die Karte besser da stehen zu lassen und dazu noch alle Partner vorm Kopf gestoßen. Aber sei es drum. Die wenigsten Netzteile können mit der Mehrbelastung nicht umgehen und haufenweise Mainboards abgeraucht sind dabei auch nicht. Trotzdem hat hier AMD in die Scheiße gegriffen und deren Lösung ist, anstatt PCIe nun die ATX Spezifikationen zu verletzen oder OPTIONAL die Karte mit weniger Leistung laufen zu lassen.

AC mal außen vor... Dazu wurde schon genug geschrieben. Technisch gesehen müsste AMD, wie Nvidia seinerzeit bei der GTX970, die Karten zurücknehmen oder den Kunden eine Entschädigung zahlen, weil die Karten mit den beworbenen Specs nicht innerhalb der Spezifikation zu betreiben sind.

Geschlampt wurde hier aber auf jeden Fall entweder bei der Zertifizierung der Hardware oder es wurde nachträglich an den Betriebsparametern gebastelt. Da die Zertifizierung aber leider nur freiwillig ist und es vermutlich nie einen Kläger geben wird sind sie mit einem blauen Auge davon gekommen.
http://www.heise.de/newsticker/meld...darf-PCIe-Logo-noch-nicht-tragen-3262762.html

Sei es drum. Marketing Abteilungen sind darauf spezialisiert die positiven Eigenschaften der Produkte hervorzuheben und die negativen gut zu kaschieren. Da man hier oder dort mal über das Ziel schießt ist keine Seltenheit.
 
Zuletzt bearbeitet:
Man muss auch alles in Verhältnis setzen! Wie viele Leute betrifft es! Welche Auswirkungen hat es! Die Auswkriungen sind bei AMD sehr gering. Die Spannungsüberhöhung dürfte nicht mal 1% der Nutzer betreffen und die die es Betrifft haben keinen Shaden da das Netzteil bei Überlast eigentlich abschalten soll. (Außer man hat ein Chinaböller Netzteil, da ist man dann aber auch selbst dran schuld)

Hinzu kommt das die Überlast sehr gering ausfällt und auch dem Netzteil sonst nichts ausmachen sollte.
Nichts desto trotzt hat AMD dies zu Korriegieren. Was sie auch in wenigen Tagen getan haben und die Sache sehr ernst genommen haben!

Bei Nvidia betrifft es 100% der Nutzer! Alle werden sie früher oder Später Probleme mit dem Speicher bekommen! Hie rkann man auch nichts nachbessern! Das mindeste wäre eine Entschuldigung an die User gewesen! Aber dann kommt noch der Hohn vom Chef der die 0,5GB als Feature anpreist :D
"It's not a bug, it's a feature"

Lasst euch das mal durch den Kopf gehen!
 
Zuletzt bearbeitet:
@ ampre
Nein Grotestk ist das nicht sondern Vorschritt und Transparenz! Man könnte ja trotzdem eine Label entwerfen welches sagt läuft auch mit DX XYZ.
Das haben wir ja bereits mit dem Supports DirectX 12 was überall so drauf steht.

Hinzu kommt das die Hardwareunsterützungen besser Gekennzeichnet werden müssen. Denke da an eine Ampel die man auf die Verpackung drucken muss wo jedes Feaute bewertet wird wie es auf der Karte abgebildet wird. Rot = Nicht Vorhanden. Gelb = Wird Emuliert. Grün = In Hardware gegossen
Diese Idee ist auch sehr schlecht. Ersteinmal ist es sehr schwer zu definieren, was genau Hardwareunterstützung heißen soll. Viele Sachen auf einer GPU sind so halb in Hardware halb in Software gelöst. Dann sagt ja eine vorhandene Hardwareunterstützung für ein Feature nichts über die Performance entsprechenden Features aus. Aber selbst die Performance eines bestimmten Features ist letztendlich wieder irrelevant (ich kenne keinen Irren der die ganze Zeit ein synthetisches Benchmark wie Nais Benchmark laufen lässt), was einem interessiert ist die Gesamtperformance in bestimmten Anwendungsfällen. Diese würde bei deinem Vorschlag gar nicht mit einfließen. Und selbst bei dieser Gesamtperformance spielt es für den Verbraucher im Endeffekt auch wieder keine Rolle, wie genau sie erreicht wird. Die eine GPU mag das durch mehr Rechenkerne machen, die andere durch mehr Speicherbandbreite; letztendlich ist das egal. Somit wären diese Label auch ziemlich irreführend: Eine GPU die alles in Hardware kann, könnte deutlich langsamer sein, als eine GPU die nichts in Hardware kann. Zudem ist diese Gesamtperformance wiederum extrem vom Anwendungsfall abhängig und lässt sich nicht auf einen einzigen Wert reduzieren. Deshalb sollten sich auch Kunden vor einem GPU Kauf Benchmarks studieren und nicht einfach Blind kaufen. Aber das gilt ja eigentlich überall im Hardwaresektor.

Auch würdest du verstehen das Nai rein vom Technischen spricht aber er nie an die Verbraucher denkt die hauptächlich technische Lion sind! Er ist schon soweit abgehoben das er nur noch technsiche Argumentationen akzeptiert. Es gibt aber auch die Wirtschaftliche und Persönliche Seite und die lässt Nai total aus.
Nur weil ich eure Fehler in der technischen Argumentation aufzeige (darum ging es ja die letzten Seiten) und nicht auf den Hypetrain mit aufspringe, wo NVIDIA das Evil Empire ist?
Er hat recht wenn er schreibt das die DX12 Specs eingehalten werden. Er hat aber nicht recht das es gut ist so beim Kunden um seine Gunst zu werben aus Verbraucher sicht! Hier wird man als Verbraucher in die Irre geführt!
Ich habe nie gesagt, dass irgendeine Werbung moralisch gut oder schlecht sei. Persönlich empfinde ich jede Werbung als moralisch schlecht, da sie nie berät sondern immer Nachteile verschweigt und Vorteile überbetont. Ich habe nur gesagt, dass eure Kritik am mangelnden DX12 Support von NVIDIA nicht gerechtfertigt ist, und weshalb es sinnvoll ist, dass eine Spec keine Aussagen über die Performance macht.

@ janeeisklar
Nicht die Performance an sich, aber der Chronologischer Ablauf muss eingehalten werden.
Wie bereits fünfmal erwähnt: Der chronologische Ablauf wird doch auch bei NVIDIA gemäß der Ordering Constraints eingehalten, so dass das Ergebnis korrekt ist. Denn für diese Korrektheit ist es letztendlich wieder irrelevant, ob die Implementierung jetzt im Endeffekt zwei voneinander unabhägngige Aufgaben seriell oder parallel abarbeitet, sofern an den Synchronisationspunkten die korrekten Werte im Speicher stehen.

@ Kisser
Danke ;). Und ja ich merke, dass ich hier nicht vorankomme:heul:. Bin deshalb auch hier raus . . . .
 
Zuletzt bearbeitet:
@Nai

Schön wie du dich in Wiedersprüche verstrickst. Erst ist es ganz Simpel mit DX12 und in dem Post jetzt ist es auf einmal gar nicht mehr so einfach! Genau das meine ich! Kein Mensch weiß was einem die ganzen Angaben bringen etc. Die Tiers und DX12.0 und DX12.1 sind zu nichts zu gebrauchen! Außer das es mit der Karte DX12 Spiele funktionieren. Wie gut oder wie Lahm liest man aber nicht daraus. Das suggeriern hier aber einige im Forum!

Wie eine GPU die nichts in Hardware kann schneller sein kann als eine in Hardware musst du mir erst mal zeigen! Immerhin wurde die Hardware dann auf diese Funktion hin optimiert! Das war schon immer so. Sag mir ein Feature was schneller auf der GPU läuft als Emuliert auf der CPU? Hinzu kommt das man sich abhängig macht von einer 2 Komponenten. Wenn du nur nen ollen i3 hasst kann in Hardware gegossen das Zünglein an der Waage sein!

Async Compute ist doch das beste Beispiel dafür. AMD machts in Hardware und erlebt den neuen Frühling! Kann so kostbare Chipfläche sparen! Schon mal aufgefallen das in DX12 und Vulkan AMDs Karten gut vorne liegen trotz meist geringer Chipfläche? Und dabei werden die Dx12 Features noch gar nicht alle ausgefahren!

Im übrigen hat das nichts mit Hype Train zu tun! Ich war auch mal Nvidia Fan, bis sie so einen Mist wie mit der GTX 970 abgezogen haben. Bei DX 11.1 hab ich noch nicht mal den Mund aufgemacht der unterschied zu DX11 war eh minimal (Verhältnismäßigkeit)! Erst als ein Treiber meine Karte geschrottet hat und man wieder nur verhalten Rückmeldung von Nvidia bekommen hat, bin ich gewechselt!
 
Zuletzt bearbeitet:
ampre schrieb:
@ Jbauer
1.) Das muss Dir erst mal einer Nachweisen das du von dem Fehler gewusst hast!?! Du hast bei einer Gewährleistung eine 2 Jährige Verjährungsfrist bei der du lediglich nachweisen musst, das der Mangel schon beim Kauf vorhanden war.
Das ist falsch. Bei dem Medienrummel darum ist der Fehler offensichtlich, wenn du ihn also nicht zeitnah angezeigt hast, hast du die Karte, so wie sie ist, akzeptiert.
2.) Nein es wurden keine Erwartungen geweckt. Wenn jemand die DX12.1 Spezifikationen liest glaubt der Lion User das die Karte all dies in Hardware kann und er nicht vielleicht noch eine schneller CPU braucht!? Deshalb sind die Specs von DX12 sehr undurchsichtig von den Tiers Versionen fange ich noch nicht mal an zu reden!
Hast du sie überhaupt gelesen? Nichtsdestotrotz gibt es in der sogenannten "Fachpresse" einen irrsinnigen Hype um DX12 ohne das auf die damit einhergehenden Schwierigkeiten und Probleme hingewiesen wird.

3.) Das Problem wurde beseitigt. Wenn du den ÖKO Mode aktivierst
Wie du selbst schreibst, wurde nichts behoben. Erst wenn man irgendwo in den Untiefen des Treibers einen mysteriösen Schalter betätigt, verhält sich Karte speckonform. Im Auslieferungszustand verletzt sie weiterhin die Spec.
(Zudem wird das Thema überbewertet
Das Thema wird leider nicht überbewertet, ganz im Gegenteil! Wenn erst mal ein Hersteller damit ungeschoren durchkommt, brechen alle Dämme. Und das ist ganz bestimmt nicht im Sinne des Kunden.

Spec sagt 150W. Spec sagt nichts von einer Toleranz. ==> Karte verhält sich nicht konform zur Spec.

4.) Sie erbirngt eben gerade nicht Ihre Leistung 0,3MB fehlender Level 3 Cahche und Vram der nur mit einem Bruchteil der geschwindigkeit angebunden ist sowie die 8 fehlenden Rops fehlen der Karte in der Leistung!
Ach, wo fehlt denn die Leistung? Die Benchmarks der Tests sind nach bekannt werden des Fehlers noch genauso wie davor.
5.) TDP = Thermal Desing Power und die bezieht sich rein auf den Chip und der Hat 110 W
https://de.wikipedia.org/wiki/Thermal_Design_Power
Was bitte interessiert der Chip? Der CHip alleine funktioniert nicht, da braucht es die ganze Karte. Und diese zieht nun einmal knapp 170W.
 
ampre schrieb:
Bei Nvidia betrifft es 100% der Nutzer! Alle werden sie früher oder Später Probleme mit dem Speicher bekommen!

Bei Nvidia betrifft es zunächst einmal "nur" die GTX970 Nutzer. Dann betrifft nur eine geringfügige Anzahl Spiele/Auflösungen. Vermutlich merken 99% der Nutzer nie etwas davon, schließlich wird bei den ungünstigen Kombinationen wo man den Fehler überhaupt merkt die Karte nur langsamer.

Genauer gesagt kann der "Fehler" nur auftreten wenn ein Spiel unbedingt mehr als 3,5GB und weniger als 4GB VRAM braucht. In allen anderen Fällen verhält sich die Karte wie jede andere auch.

Trotzdem hat man hier einen Fehler gemacht. Man kann die Schuld nicht einmal auf das Marketing schieben. Die haben 4GB Speicher beworben und 4GB Speicher sind auch drin. Allerdings hat man bei den Specs beschönigt und 4GB Speicher + 256Bit Interface angegeben. Darauf hat man erst die Klage aufgebaut.

Bei AMD wird das leider nicht möglich sein, da AMD selbst keine Karten herstellt. Eine Sammelklage müsste man hier gegen jeden einzelnen Hersteller richten, der das Referenzdesign auf den Markt gebracht hat. Es wäre zwar interessant zu erfahren wie dazu kam, bei den geringen Verkaufszahlen der Referenzkarten lohnt es sich aber kaum zu klagen.

Hier darf man vor allem eines nicht vergessen. Schon die GTX970 kommt gerade mal auf 5% der Nutzer auf Steam und ist damit die erfolgreichste Karte. Dagegen dürften die Verkaufszahlen der Referenz RX480 praktisch unbedeutend sein. Es ist ja sowieso immer lustig zu sehen wie hier im Computerforum diverse Behauptungen immer als Tatsachen dargestellt werden die keine sind. Wenn man bedenkt, dass gerad einmal 10% der Steam Nutzer eine Grafikkarte mit 4GB oder mehr VRAM besitzen kann man sich leicht denken wie viel so manche Behauptungen hier in den Foren wert sind.
 
Zuletzt bearbeitet:
Jup, irgendwann geht jeder Karte der Speicher aus.
 
Zurück
Oben