Wahrscheinlich fiept sie weil zwei VRAM-Chips an einem Speicherport hängen und sich so durchquetschen müssen mit dem Geräuschtunichgut schrieb:Trotzdem ist GTX 970 ansich ne tolle Karte,wenn sie nicht fiept.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher
- Ersteller Jan
- Erstellt am
- Zur News: GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher
"4GB
256bit"
bedeutet nach dem maßgeblichen objektiven Erklärungswert nicht, dass auf der Karte irgendwo 4GB verbaut sind und unter Umständen 256bit anliegen. Sondern sie bedeuten, dass die 4GB jederzeit mit 256bit angesprochen werden. Dass hier eine vollkommen unerwartete Lösung vorhanden ist, ist ein Umstand, über den aufgeklärt werden muss, wenn man den o.g. zwangsläufig entstehenden Eindruck (4GB jederzeit mit 256bit) beseitigen will und muss, weil er falsch ist.
Im Übrigen wird der RAM meines Erachtens niemals mit 256bit angesprochen, sondern immer nur mit 224bit. Entweder es werden nur 7 MC benutzt (7*32bit=224bit). Und wenn auch das restliche halbe Gigabyte benötigt wird, dann müssen sich vier der 13 Shaderblöcke den Zugang zu zwei Memorycontrollern hälftig teilen, was den Durchsatz zwangsläufig halbiert.
Bei Anandtech steht das ausdrücklich drin:
"Ultimately due to the design of the crossbars and the memory controllers, it is not possible for 1 crossbar port to carry the full load of 2 memory channels in all circumstances. The crossbar port and its attached ROP/L2 unit can access both memory channels at once, splitting up the 4 operations among them, but there is only 1 read return bus and 1 write data bas, and hence in practice it cannot issue identical operations to both memory channels at once ."
Bereits deshalb wird sich zwangsläufig der Durchsatz der MC Nr. 7 und 8 (bei Benutzung von Nr. 8) exakt halbieren, sodass dann die zwei MC mit jeweils 32bit auch insgesamt nur 32bit transportieren können. Es bleibt bei 224bit.
Der Satz "die Karte hat auch 256bit" ist daher aus Hardwaresicht mit 8*32bit MC die auch vorhanden sind richtig, aber sie werden eben nicht BENUTZT, es fliessen keine 256bit hindurch, wodurch die Angabe falsch wird. Wer sagt "die Karte hat 256bit" der sagt eben nicht nur, dass hardwaretechnisch irgendwie 256bit vorhanden sind, sondern konkludent auch dass sie benutzt werden. Bei der Speicherbandbreite (die sich aus der Multiplikation mit 256bit ergibt) steht auch nicht 224GB/s, sondern hier steht nur wohlweislich "bis zu 224GB/s". Gleiches hätte daher auch bei Angabe der Breite des Speicherbusses gemacht werden müssen mit "bis zu 256bit", wobei das meines Erachtens auch schon falsch wäre. Es können wegen der hälftigen Teilung des Zugangs zu den zwei MC eben nie mehr als 224bit in einem Takt durch, das geht überhaupt nicht, die Frage ist nur, gehen 7*32bit durch (99%) = 224bit, oder gehen 6*32bit durch + 2*16bit = 224bit, weil dann die beiden letzten MC mit jeweils 32bit nur zur Hälfte gefüttert werden können und sich dessen Durchsatz halbiert, es bleiben 224bit und es ändert sich nichts.
Die großen etablierten Seiten versuchen meines Erachtens SEHR WOHLWOLLEND gegenüber Nvidia (man will ja wieder mal gleich zu Anfang Testmuster von neuer Hardware haben), die Sache zu kaschieren und behaupten, die 256bit und 4GB seien beide erfüllt. Das ist aber meiner Meinung nach bezüglich der 256bit definitiv falsch, weil nie 256bit auf einmal benutzt werden können. Es werden nie 256bit auf einmal durchgeschaufelt, dass 8 MC mit 32bit technisch vorhanden sind, rechtfertigt nicht die Angabe, die Karte hätte 256bit.
Damit hat die Karte einen Mangel. Und im Wettbewerbsrecht gilt folgender Grundsatz:
Eine Lüge stellt es auch dar, wenn ein Sachverhalt so dargestellt wird, dass er von Dritten falsch verstanden wird.
Daher bin ich mir sicher, dass Nvidia in den USA eine Sammelklage an den Hals bekommt, die sie auch verlieren werden, wozu es nicht kommen wird, weil Nvidia vorher klein beigibt.
256bit"
bedeutet nach dem maßgeblichen objektiven Erklärungswert nicht, dass auf der Karte irgendwo 4GB verbaut sind und unter Umständen 256bit anliegen. Sondern sie bedeuten, dass die 4GB jederzeit mit 256bit angesprochen werden. Dass hier eine vollkommen unerwartete Lösung vorhanden ist, ist ein Umstand, über den aufgeklärt werden muss, wenn man den o.g. zwangsläufig entstehenden Eindruck (4GB jederzeit mit 256bit) beseitigen will und muss, weil er falsch ist.
Im Übrigen wird der RAM meines Erachtens niemals mit 256bit angesprochen, sondern immer nur mit 224bit. Entweder es werden nur 7 MC benutzt (7*32bit=224bit). Und wenn auch das restliche halbe Gigabyte benötigt wird, dann müssen sich vier der 13 Shaderblöcke den Zugang zu zwei Memorycontrollern hälftig teilen, was den Durchsatz zwangsläufig halbiert.
Bei Anandtech steht das ausdrücklich drin:
"Ultimately due to the design of the crossbars and the memory controllers, it is not possible for 1 crossbar port to carry the full load of 2 memory channels in all circumstances. The crossbar port and its attached ROP/L2 unit can access both memory channels at once, splitting up the 4 operations among them, but there is only 1 read return bus and 1 write data bas, and hence in practice it cannot issue identical operations to both memory channels at once ."
Bereits deshalb wird sich zwangsläufig der Durchsatz der MC Nr. 7 und 8 (bei Benutzung von Nr. 8) exakt halbieren, sodass dann die zwei MC mit jeweils 32bit auch insgesamt nur 32bit transportieren können. Es bleibt bei 224bit.
Der Satz "die Karte hat auch 256bit" ist daher aus Hardwaresicht mit 8*32bit MC die auch vorhanden sind richtig, aber sie werden eben nicht BENUTZT, es fliessen keine 256bit hindurch, wodurch die Angabe falsch wird. Wer sagt "die Karte hat 256bit" der sagt eben nicht nur, dass hardwaretechnisch irgendwie 256bit vorhanden sind, sondern konkludent auch dass sie benutzt werden. Bei der Speicherbandbreite (die sich aus der Multiplikation mit 256bit ergibt) steht auch nicht 224GB/s, sondern hier steht nur wohlweislich "bis zu 224GB/s". Gleiches hätte daher auch bei Angabe der Breite des Speicherbusses gemacht werden müssen mit "bis zu 256bit", wobei das meines Erachtens auch schon falsch wäre. Es können wegen der hälftigen Teilung des Zugangs zu den zwei MC eben nie mehr als 224bit in einem Takt durch, das geht überhaupt nicht, die Frage ist nur, gehen 7*32bit durch (99%) = 224bit, oder gehen 6*32bit durch + 2*16bit = 224bit, weil dann die beiden letzten MC mit jeweils 32bit nur zur Hälfte gefüttert werden können und sich dessen Durchsatz halbiert, es bleiben 224bit und es ändert sich nichts.
Die großen etablierten Seiten versuchen meines Erachtens SEHR WOHLWOLLEND gegenüber Nvidia (man will ja wieder mal gleich zu Anfang Testmuster von neuer Hardware haben), die Sache zu kaschieren und behaupten, die 256bit und 4GB seien beide erfüllt. Das ist aber meiner Meinung nach bezüglich der 256bit definitiv falsch, weil nie 256bit auf einmal benutzt werden können. Es werden nie 256bit auf einmal durchgeschaufelt, dass 8 MC mit 32bit technisch vorhanden sind, rechtfertigt nicht die Angabe, die Karte hätte 256bit.
Damit hat die Karte einen Mangel. Und im Wettbewerbsrecht gilt folgender Grundsatz:
Eine Lüge stellt es auch dar, wenn ein Sachverhalt so dargestellt wird, dass er von Dritten falsch verstanden wird.
Daher bin ich mir sicher, dass Nvidia in den USA eine Sammelklage an den Hals bekommt, die sie auch verlieren werden, wozu es nicht kommen wird, weil Nvidia vorher klein beigibt.
- Registriert
- Dez. 2001
- Beiträge
- 3.219
Rechtlich könnte man es mit sarkastischer Fantasie auch so sehen:
Für nVidia wird finanziell alles bestens ausgehen. Die Unzufriedenen schicken ihre Karten zurück und kaufen sich nun 980er und wenn ein Regress gegen nVidia seitens der geschädigten Händler besteht, die die Karten per Gesetz zurück nehmen müssen (und nicht aus Kulanz) und ihren Endkunden den Kaufpreis erstatten, dann sitzt nVidia die Sache einfach bis zum Inkrafttreten des TTIP aus und verklagt die deutschen Steuerzahler final auf Schadensersatz.
Für nVidia wird finanziell alles bestens ausgehen. Die Unzufriedenen schicken ihre Karten zurück und kaufen sich nun 980er und wenn ein Regress gegen nVidia seitens der geschädigten Händler besteht, die die Karten per Gesetz zurück nehmen müssen (und nicht aus Kulanz) und ihren Endkunden den Kaufpreis erstatten, dann sitzt nVidia die Sache einfach bis zum Inkrafttreten des TTIP aus und verklagt die deutschen Steuerzahler final auf Schadensersatz.
Der Puritaner
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.704
So langsam ist Schluss mit Lustig, Nvidia sollte mal in die Puschen kommen und eine Dicke Entschuldigung mit Kniefall schreiben.
Ich empfinde das als Arglistige Täuschung was Nvidia da abgezogen hat.
Ich empfinde das als Arglistige Täuschung was Nvidia da abgezogen hat.
Peter/HT4U
Cadet 3rd Year
- Registriert
- Feb. 2008
- Beiträge
- 45
staui schrieb:Ich bin mal gespannt was AMD zu der ganzen Sache noch sagen wird.
Ich denke die warten jetzt mal ab, wie Nvidia da weiter vorgeht.
Also ich drücke mich einmal vorsichtig aus. AMD dürfte der Umstand aktuell noch gar nicht recht schmecken, denn sollte NVIDIA beispielsweise die Preise für die GTX 970 senken, oder sogar soweit gehen - wie von manchen hier süffisant in den Raum gestellt - die Modelle als "GTX 965" zu verkaufen, was sollte AMD aktuell außer Preissenkungen dagegen setzen? Denn im Ergebnis bleibt die 970 in den Benchmarks auch weiterhin auf dem Leistungsniveau wie gezeigt wird. Daran ändert die derzeitige Situation wohl überhaupt nichts.
DrToxic
Rear Admiral
- Registriert
- Juni 2008
- Beiträge
- 6.068
Der Puritaner schrieb:eine Dicke Entschuldigung mit Kniefall schreiben.
Haben sie doch schon:
http://www.hardwareluxx.de/index.ph...rgeschwindigkeit-bei-der-geforce-gtx-970.htmlSo bedauert man es bei NVIDIA, dass man diesen Umstand nicht direkt zum Launch der GeForce GTX 970 kommuniziert habe. Die Konzentration auf die GeForce GTX 980 habe dazu geführt, dass diese geringe Einschränkung beim Grafikspeicher unerwähnt bliebe und auch dem mehrmaligem Review durch das Marketing- und Technik-Team nicht aufgefallen sei.
@Peter/HT4U Bei einer (imo gleich starken) R290X (gibt's ja auch mit 8GB) wird es bei einigen dann wohl mit dem aktuellen Netzteil recht eng, davon gab's jetzt einige Threads hier in den letzten Tagen. Und so wirklich will auch niemand mehr eine "alte" Karte kaufen, wenn die neuen quasi vor der Tür stehen - verständlich.
Zuletzt bearbeitet:
A
Amusens
Gast
also bei den Händeln ist wohl noch nicht angekommen mit den nur 3,5GB VRAM
staui
Lieutenant
- Registriert
- März 2008
- Beiträge
- 514
Ich meinte das nicht auf neue Produkte bezogen. Ich könnte mir vorstellen, je nachdem wie Nvidia weiter vorgeht, dass da ebenfalls zumindest geprüft wird, ob da evtl. Schadensersatzmäßig Möglichkeiten bestehen.
Und um gleich vorzubeugen, dass ist nicht mein Wunsch, aber ich sehe das schon im Bereich des möglichen.
Darum gehe ich davon aus, das Nvidia sehr genau überlegt, was sie weiter zu der Geschichte sagen.
Und um gleich vorzubeugen, dass ist nicht mein Wunsch, aber ich sehe das schon im Bereich des möglichen.
Darum gehe ich davon aus, das Nvidia sehr genau überlegt, was sie weiter zu der Geschichte sagen.
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.408
Mit der Vernunft ist es hier wirklich nicht gut bestellt.
Night Shift
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.109
Die Karte hat 4GB Brutto 
Netto bleiben nur noch 3,5GB Übrig
Das wäre auf der Arbeit ja auch richtig toll
Vorstellungsgespräch: Was bekomme ich den?
4K.
Okay, bin dabei
Am ende sind es nur 3,5K , UPPS, das haben wir wohl falsch Kommuniziert
Wieder blöder vergleich, aber es ist einfach nicht OK.
Sogar noch mehr als das, ein SKANDAL ist das!
Mann... und die neuen AMDs kommen erst im Sommer...
Da ist durchhalten und Standhaftigkeit gefragt
Netto bleiben nur noch 3,5GB Übrig
Das wäre auf der Arbeit ja auch richtig toll
Vorstellungsgespräch: Was bekomme ich den?
4K.
Okay, bin dabei
Am ende sind es nur 3,5K , UPPS, das haben wir wohl falsch Kommuniziert
Wieder blöder vergleich, aber es ist einfach nicht OK.
Sogar noch mehr als das, ein SKANDAL ist das!
Mann... und die neuen AMDs kommen erst im Sommer...
Da ist durchhalten und Standhaftigkeit gefragt
Zuletzt bearbeitet:
Night Shift
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.109
Man tut was man kann, zur Allgemeinen Belustigung 
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
Krautmaster schrieb:>.< Kleines Experiment zur Speicherplatz / Anbindung Thematik (nicht zur Fehlinformation selbst)
Schaut euch einfach an wie viele damals zur GTX 680 satt zur HD7970 gegriffen haben - und das obwohl letztere 1/3 bzw 1024MB mehr VRam bietet mit besserer Anbindung - und dann überlegt was hier für ein Fass wegen den letzten vielleicht 500, vielleicht 300, vielleicht 200 MB gemacht wird bei der die GTX 970 zur GTX 980. Schon faszinierend![]()
Ich denke viele sind von deinen Relativierungposts genervt.
Was heißt da 200/300mb? Es sind 512mb.
Und was das mit 7970 3GB vs GTX 680 2GB zu tun hat, ist mir ein Rätsel.
Heute zeigt sich dass die GTX 680 mit 2GB Probleme mit dem V-ram hat und die 7970 nicht.
Wirklich faszinierend, wie du versuchst das Thema ständig zu zerreden und danach wenn du entlarvt bist, wieder so tust, als wolltest du das damit nicht tun.
Man müsste ihn ergänzen, damit er komplett richtig wird.c0mpu schrieb:@Night Shift
"nVidiaGate" ist ja schon schlimm genug, aber dein mieser Vergleich ist noch schlimmer![]()
Sie bekommen meistens nur 3,5GB, aber wenn sie wirklich 4GB wollen, dann hauen wir ihnen dabei ständig eine in die Fr**** (Ruckeln). Also suchen sie sich aus was sie wollen!
jownes schrieb:eine andere alternative wäre, man behält die karte solange bis die 380 rauskommt und schickt sie dann erst zurück
Dann ist dein Verhalten nicht besser als das von Nvidia.
Ist man nicht (mehr) zufrieden, schickt man sie gleich zurück.
Ice-Lord
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.407
Das erinnert mich an diesen Post.
Damals hab ich noch nicht gewusst was das noch für ein riesen Ding werden wird.
https://www.computerbase.de/forum/threads/1440045/
Damals hab ich noch nicht gewusst was das noch für ein riesen Ding werden wird.
https://www.computerbase.de/forum/threads/1440045/
- Registriert
- Dez. 2001
- Beiträge
- 3.219
janbatos schrieb:
Leider ist das wohl KEINE Alternative, finde ich, weil viel zu hohe Leistungsspitzen, generell höherer Verbrauch, höhere Temperatur und vor allem lauter als die leiseste GTX970.
---
PS: Schon aufgefallen, dass geizhals.at/.de heute den ganzen Tag nicht richtig funktioniert? Vielleicht, weil ich ihnen vor einigen Tagen sagte, sie sollen bei jeder 970er auf die 3,5GB-Problematik hinweisen? - Ich frag' mich jedenfalls, was ich nun schon wieder falsch gemacht habe...
PPS: Humor, selbst wenn er nicht mit der unterirdischen Nivea-Creme à la Mario Barth eingeschmiert ist, versteht ihr hier hoffentlich noch. Falls nicht, dann muss ich wohl mal wieder mit Doc Brown auf Reisen gehen... denn alles in allem ist dieses Thema hier zwar tragisch, aber da nun schon ein Tag verging auch wiederum komisch, denn Drama + Zeit = Komödie, wie wir alle wissen (sollten).
Zuletzt bearbeitet:
(Dein Hamster!)
DrToxic
Rear Admiral
- Registriert
- Juni 2008
- Beiträge
- 6.068
Müsste bei BF4 dank Mantle sogar noch deutlich besser sein?janbatos schrieb:ähnlich sieht es bei BF4 etc aus...
GeilIce-Lord schrieb:
Genau so sachlich sollte das diskutiert werden!
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 1.645
- Antworten
- 10
- Aufrufe
- 1.756

