News Nvidia-CEO macht GTX-970-Limitierung zur neuen Funktion

Hopsekäse schrieb:
Ich will das Ganze jetzt nicht schön reden, aber ganz ehrlich gesagt halte ich es im Vergleich zu anderen Sachen auch für kein sooo großes Ding. Wenn man mal mit AMD im CPU-Bereich vergleicht, dann werden die FX-Prozessoren auch überall als vollwertige 8-Kerner verkauft. Mit Taktraten jenseits der 4Ghz. Nur weil man es online in Foren nicht so sehr mitbekommt, heißt das nicht, dass AMD damit keine erfolgreiche Bauernfängerei betreibt.

Ganz ehrlich, solche unpassenden Vergleiche die nichts miteinander zu tun haben ( Die Specs von BD sind mit CMT bekannt und waren korrekt ) und man kann durchaus von 8 Kernen sprechen.
Das passt einfach nicht in einen Vergleich mit fehlendem schnell angebundenen V-ram.
DAs ist ein klares Schönreden, weil du dich offenbar nicht an die Sachlage hältst, sondern versucht andere Themen, die nichts damit zu tun haben, als Rechtfertigung dafür herzunehmen.
Ergänzung ()

Zotac2012 schrieb:
Das mag vielleicht so sein, aber das kann Dich doch nicht mehr interessieren, hast ja jetzt eine AMD Grafikkarte und bist daher nicht mehr betroffen. Deswegen verstehe ich nicht, wieso Du Dich aber immer noch über die GTX 970 aufregst. Ich habe eine und lebe auch damit und kann trotzdem ruhig Schlafen, weil mir die Leistung derzeit vollends ausreicht.

Und weil du eine hast, ist jeder Beitrag von dir hier eine Beschönigung der Fakten.
Schau dir Attilla an, hier ist eine GTX 970 trotz Full HD im Problembereich.
 
@smilefaker
Hat doch mit Beschönigung nichts zu tun, sondern erlebe es doch selbst in den Games wie sich die Grafikkarte verhält. Und jetzt wirfst Du mir ein Game hin das vielleicht 0,1 Promille User spielen und das soll ich jetzt als Maßstab nehmen, ist nicht Dein ernst, Oder ? Da könnte ich ja jetzt auch irgendwelche Games nennen, bei denen eine AMD Grafikkarte nicht gut aussieht und dann sind diese auch alle "Sche...", das ist doch Schwachsinn. Es gibt immer und wird immer Games geben, wo mal die eine mal die andere Grafikkarte der beiden Herteller AMD und Nvidia etwas besser ist, je nachdem für welche der Graka`s das Game besser Optimiert wurde. Und bei dem wo das Game dann nicht so toll läuft, der versucht es dann über den Treiber zu optimieren. ;)
 
Greffetikill schrieb:
- Ich werde NIEVIDA mehr kaufen
- Ich werde meine Freunde genau von der "Kommunikation" berichten.
- Ich werde jeden der mich Fragt von Nvidia abraten, egal wie toll Ihre zukünftigen Produkte werden.

Aber was machst du wenn die Karte eben schneller läuft als eine ati?

Zumal eine ATI noch mehr strom verbrät. Wäre es nicht ratsamer eine NVIDIA trozdem zu kaufen?

Damit will ich sagen es gibt keine wirklichen alternativen mehr und bei einer Monopolierung passiert sowas einfach mal früher oder später.

Zudem ist die Karte ja nicht unbedingt langsamer, dass sie nur 3,5 + 512 MB hat.

Einmal ist kein mal sagt man ja und ein Fehler im Marketing kann da schon mal vorkommen.
Ich verstehe es soweiso nicht wie es dazu kommen könnte. Aber an sich ist das fast nichts neues das selbe gabs damals bei der GTX 6 Serie oder ich glaub 7 dort wurde der Speicher auch nicht vollständig ausgelastet.
 
Zuletzt bearbeitet:
Aber was amchst du wenn die Karte eben schneller läuft als eine ati?

Zumal eine ATI noch mehr strom verbrät. Wäre es nicht ratsamer eine NVIDIA trozdem zu kaufen?

Diese Rechtschreibung, es graust mir. Außerdem liegst du falsch, die Ati HD 5000er Reihe war sehr viel effizienter wie die damaligen Nvidias.

Aber an sich ist das fast nichts neues das selbe gabs damals bei der GTX 6 Serie oder ich glaub 7 dort wurde der Speicher auch nicht vollständig ausgelastet.

Keine Ahnung, aber hauptsache mal schreiben. Die GTX 660Ti hatte das gleiche Problem, damals wurde es aber ordentlich kommuniziert.
 
Je länger ich darüber nachdenke, umso mehr glaube ich das es sogar von Anfang an geplant war die falschen technischen Daten an die Presse zu geben (und nicht 4 Monate "aus versehen" vergessen wurde die falschen Daten zu korrigieren)

Stellen wir uns folgende Situation vor:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Alle haben volle 4GB die voll angebunden sind (laut technischen Daten).


Welcher Redakteur investiert dann seine Zeit um aufwändig Unterschiede bei Auslastungen nahe 4GB "auszutesten"?

KEINER! Weil sowieso keine Unterschiede zu erwarten sind und entsprechend der Redakteur seine knappe Zeit für andere Tests verwendet.

Jetzt die alternative Situation:

Eine Redaktion testet 3 Highend Grafikkarten. GTX980 GTX970 und 290X.

Zwei haben volle 4GB die voll angebunden sind und eine hat so ein merkwürdiges kombinierten System das man nicht so richtig einschätzen kann.


Worauf wird der Redakteur auf jeden Fall einige Zeit verwenden? Natürlich genau auf den Aspekt das ein Teil des Speichers nicht richtig angebunden ist! Hier wird er versuchen herauszufinden was genau im Grenzbereich 3,5GB - 4GB passiert.

Ja und was wird er da finden? Genau das in diesem Bereich Probleme auftreten.

Daraufhin werden alle Reviews mit dem "Haken" bzw. bitteren Beigeschmack abgeschlossen, dass die Karte an sich zwar schnell ist aber bei hoher Speicherbelastung im Grenzbereich zu starkem Ruckeln neigt während die Konkurrenz diese Probleme nicht hat.

Aus der supergünstigen eierlegenden Wollmilchsau die von allen in höchsten Tönen gelobt wird, wird auf einmal ein Produkt das zwar gut ist aber auch einen klaren Schönheitsmakel hat.

Durch die korrekte Bekanntgabe der technischen Daten wäre also sogar richtig der Finger in die Wunde bei der GTX970 gelegt worden. Erst dadurch das man die technischen Daten nicht richtig angegeben hat, konnte die GTX970 erst zu so einer "Hype" Karte werden, mit entsprechend hohen Verkaufszahlen natürlich.
 
Zotac2012 schrieb:
@smilefaker
Hat doch mit Beschönigung nichts zu tun, sondern erlebe es doch selbst in den Games wie sich die Grafikkarte verhält. Und jetzt wirfst Du mir ein Game hin das vielleicht 0,1 Promille User spielen und das soll ich jetzt als Maßstab nehmen, ist nicht Dein ernst, Oder ?

Leute die Evolve, Skyrim mit Mods und Atilla, Morders Schatten etc.. spielen sind doch keine 0,1 Promille.:freak:
Schau, schon wieder ein Satz der völlig absurd ist und das ganze beschönigt.

Klar das Thema ist ausgelutscht, keine Frage, aber nicht zu verstehen, warum sich die Leute dezent aufregen, wenn Jensen das Zeug als Feature verkauft, kann ich nicht nachvollziehen.
Jensen tritt hier nochmal nach, völlig ohne Sinn und Verstand.

"Da könnte ich ja jetzt auch irgendwelche Games nennen, bei denen eine AMD Grafikkarte nicht gut aussieht und dann sind diese auch alle "Sche...", das ist doch Schwachsinn."

Hier hält es sich aber zwischen NV und AMD die Waage, während es hier ein Problem gibt, das zusätzlich hinzukommt.
Aktuell wüsste ich kein Game wo AMD schlecht aussieht, das wurde alles zumindest in ein paar Gameworks Titeln recht gut gefixed, in anderen Titeln hatte man sowieso nie Probleme, sondern war mit der Cryengine schon teils deutlich schneller wie NV.

"Und bei dem wo das Game dann nicht so toll läuft, der versucht es dann über den Treiber zu optimieren."

Fehlenden schnellen V-ram kann man aber nicht durch einen Treiber ersetzen.
Frag die GTX 970 User mal in einem Jahr, wie zufrieden sie sind.:freaky:

redfirediablo schrieb:
Je länger ich darüber nachdenke, umso mehr glaube ich das es sogar von Anfang an geplant war die falschen technischen Daten an die Presse zu geben (und nicht 4 Monate "aus versehen" vergessen wurde die falschen Daten zu korrigieren)

Wieso, das Thema ist doch gar nicht strittig. Es ist doch völlig klar das NV absichtlich falsche Daten veröffentlicht hat.

Durch die korrekte Bekanntgabe der technischen Daten wäre also sogar richtig der Finger in die Wunde bei der GTX970 gelegt worden. Erst dadurch das man die technischen Daten nicht richtig angegeben hat, konnte die GTX970 erst zu so einer "Hype" Karte werden, mit entsprechend hohen Verkaufszahlen natürlich.

Man hätte sicherlich einen Extrateil gewidmet und dies als negative Eigenschaft aufgezählt, keine Frage.
Die Verkäufe wären nie sogut gewesen, wie aktuell. DAs hat alleine schon psychologische Gründe.
 
Zuletzt bearbeitet:
moshimoshi schrieb:
als eine ati?
Zumal eine ATI .

Seltsam wo du herkommst,
Das man noch bei ATI stecken blieb.....
:o


ATI gibt's eigentlich seit 2006 nicht mehr,
bzw. seit ende 2010 wurde das Label ATI nicht mehr verwendet:freak:
 
Zuletzt bearbeitet:
Ich hatte früher fast ausschließlich Nvidia und war immer zufrieden. Und ja, sie haben auch noch immer gute Produkte. Aber was dieser CEO schon alles an Bockmist von sich gegeben hat, ist unglaublich. Ich präsentiere ihm zumindest von meiner Seite die Rechnung und werde in nächster Zeit keine Nvidia mehr kaufen.
 
Hopsekäse schrieb:
Wenn man mal zurück denkt, ist das für Nvidia auch tatsächlich nicht so ganz üblich. Denn der Speicher wurde bisher immer in Relation zu den ROPs mit beschnitten. Man siehe 780+770 (3-2 GB, 48-32 ROPs), 580+570 (1,5 - 1,25 GB, 48-40 ROPs) aber auch 680+670 (2-2 GB, 32-32 ROPs).


Also da muss man ja mal korrigieren... Die GTX770 (Bin stolzer Besitzer einer Msi TF4 Version) hat rein GARNICHTS mit der GTX780 noch mit irgendeiner GTX#70 zu tun! Die GTX770 ist ganz offiziell und auch nach Tests und PCB eine leicht verbesserte GTX680 -> d.h. eine Kepler 1.0 und hat auch nix mit der GTX780 der Art Kepler2.0 am Hut!

Das wird auch zb. in CBs Test/Bericht nochmals klar deutlich da auch ein rascher Blick auf das Datenblatt genügt um das festzustellen!

Zitat aus CBs Test:
Fazit
Anders als die GeForce GTX Titan und die GeForce GTX 780 macht die GeForce GTX 770 nicht viel neu. Man nehme eine GeForce GTX 680, hebe den Arbeitstakt leicht an, senke den Leerlauf-Takt und schraube einen GTX-Titan-Kühler drauf – fertig. Allerdings muss das keine schlechte Kombination sein.


Als 970käufer... Ja würd ich auch austicken! Aber nur weil Nvidia da mal wieder ne GTX#70 beschnitten hat (worunter die GTX770 nicht zählt, weswegen ich die auch gekauft habe) ist das für mich kein Aus für nVidia! Ich bin mit meiner Karte und dessen Support größtenteils zufrieden und die Karte hält auch wenigstens lange und raucht nicht ab! Hatte leider schlechte Exemplare im Haus von Ati/AMD: 4850 nach 1,5 Jahren Bildausgänge verschmort, dasselbe mit ner HD6870 nach einem Jahr, beide Karten von einem Familienmitglied und letztendlich meine HD7870 auch nach einem Jahr an Bildfehlern bei zu hoher Temperatur komplett verreckt... Und das auch im BIOS und unter 2D!

Bleibe definitiv bei nVidia weil ich immer noch verstärkt auf Spiele mit OpenGL (Quake2/3engine), Minecraft(mit Shadern) und DirectX9.0c (Trackmania²,Shootmania,CS:GO) setze welche einfach eine bessere Performance mit einer nVidia haben als unter einer AMD!
(Unter Quake2engine schlägt eine GTS8800 512MB eine HD7870?!? Ist tatsächlich so!)
Für DX11 nutzer und eben denen Leuten die verstärkt auf aktuelle Spiele mit aktuellen Engines setzen empfehle ich AMDkarten! Aber da auch eher die neuen also die 290/X da die anderen (270/X,280/X) ja nur rebrands sind^^ Ja ich weiß ist meine 770 auch aber der Rebrand war besser als die von AMD!


Hoffe dass da auch andere Leute meiner Meinung sind!
 
Zuletzt bearbeitet:
Bin "Fan" der ersten Stunde dieses Features... aber was manche hier verzapfen ist noch schlimmer als die scheiße die der CEO gelabert hat.

@pro_marijan

Setz mal deine Grüne Brille ab, dann siehst du auch mal wieder klar. Selten so einen Müll gelesen, R9 290(X) rebrands? Achsooooo
Wenigstens hat es AMD schon vor über einem Jahr geschafft, 4 GB schnell anzubinden ;)
Hatte leider schlechte Exemplare im Haus von Ati/AMD: 4850 nach 1,5 Jahren Bildausgänge verschmort, dasselbe mit ner HD6870 nach einem Jahr, beide Karten von einem Familienmitglied und letztendlich meine HD7870 auch nach einem Jahr an Bildfehlern bei zu hoher Temperatur komplett verreckt... Und das auch im BIOS und unter 2D!
Auch wieder nur AMD "gebashe".... kann ich gleiches über Nvidia sagen....

Geforce 6800GT nach 1,5 Jahren PCB abgeraucht
Geforce GT 8800 nach 2 Jahren ging von heute auf morgen einfach nichts mehr
GTX 680 nach einem Jahr ist der Ram aberaucht...

Meine "Todesliste" ist wahr, deine auch ? Wie immer man auch die Bildausgänge verschmoren lassen kann :D

Was hier manch eingeschnappter Fanboy über sein liebes Nvidia schreibt ist einfach nur zum schießen komisch. Wie kann man so einen Laden noch unterstützen, gar verteidigen ? Könnte hier Stundenlang zitiieren und jedes Statement der NieWidia Fanboys in der Luft zerreißen. Das traurigst ist aber das CB immer noch eine Empfehlung für die Karte ausspricht. Wundert mich ja eh das hier auf NvidiaBase das Statement als "News" kam. Trotzdem hat man sich von dem Fehler weit distanziert und wollte kaum "richtig" Stellung nehmen, naja wenn man gesponsert wird.
 
Depp_vom_Dienst schrieb:
Sind sie auch nicht, weil der Treiber das mit aller Gewalt verhindert.

was ja auch gut so ist. Wenn aber die 3,5GB dicht sind und die Software weiter Ram belegen will (nicht nur rein zum precaching...) bekommt sie auch 4GB - siehe Anandtech. In jeder API, egal ob DX, OpenCL, OpenGL, Cuda...
Dass Nvidia bei der Adressierung so vorgeht ist angesichts der echten Specs nur logisch.
 
@black&white

liegt vlt auch am benutzer, ich hatte bereits 3 nvidia karten und die haben alle über 3 jahre gehalten und wurden getauscht vor ihrem ableben ;)
 
smilefaker schrieb:
Also den Terminus " voll nutzbar" würde ich angesichts der Situation eher nicht verwenden.:rolleyes:

du weißt genau dass das rein auf den Speicherplatz bezogen war :rolleyes:

Vom Speed her etwa auf HD5570 Niveau. Klar, wenn ein Game mehr als 3584 MB aktiv Texturen vorhalten muss kann das durchaus mal auffallen- kann und tut es wohl auch. Hätte sie aber nur 3GB / 3,5 GB fix wäre das Ergebnis auch nicht besser, im Gegenteil.
 
Black&White schrieb:
Setz mal deine Grüne Brille ab, dann siehst du auch mal wieder klar. Selten so einen Müll gelesen, R9 290(X) rebrands? Achsooooo
Wenigstens hat es AMD schon vor über einem Jahr geschafft, 4 GB schnell anzubinden ;)

Auch wieder nur AMD "gebashe".... kann ich gleiches über Nvidia sagen....

Geforce 6800GT nach 1,5 Jahren PCB abgeraucht
Geforce GT 8800 nach 2 Jahren ging von heute auf morgen einfach nichts mehr
GTX 680 nach einem Jahr ist der Ram aberaucht...

Meine "Todesliste" ist wahr, deine auch ? Wie immer man auch die Bildausgänge verschmoren lassen kann :D

Was hier manch eingeschnappter Fanboy über sein liebes Nvidia schreibt ist einfach nur zum schießen komisch. Wie kann man so einen Laden noch unterstützen, gar verteidigen ? Könnte hier Stundenlang zitiieren und jedes Statement der NieWidia Fanboys in der Luft zerreißen. Das traurigst ist aber das CB immer noch eine Empfehlung für die Karte ausspricht. Wundert mich ja eh das hier auf NvidiaBase das Statement als "News" kam. Trotzdem hat man sich von dem Fehler weit distanziert und wollte kaum "richtig" Stellung nehmen, naja wenn man gesponsert wird.

Grüne Brille kenn ich nicht... Nur Rot Cyan^^
Ich habe doch gesagt dass ich leider blöde Exemplare hatte... Dass es das bei nVidia zuhauft genauso gab ist mir sehr wohl bewusst!
R9 290(X) ist kein Rebrand, hab ich auch nie behaupted! R9 270(X)/280(X) hingegen sind es schon, genauer lesen hilft ;D

Nochmal zur grünen Brille:
Ich mag nVidia so wie es damals (FX5700zeiten) war und genau so fühlt es sich mit meiner 770(gepimpten680) auch an! Alles andere ist lächerlich genau so wie die schei* Aussage die nVidia da wieder gemacht hat! Wie es schon einige gesagt haben, hätten sie es von Anfang an gesagt, dass die nur 3,5Gb hat wärs ok aber das is halt ein rießen Fail was letztendlich rauskam...

Fanboy ist auch so eine Definitionssache die einige NICHT verstehen wollen... *FACEPALM* Hab ich jemals nVidia gelobt? Nein ich habe nur gesagt dass für meine Zwecke (oben genannt) nVidia von den Treibern zb. besser passt als AMD! Da ich auch AMD hatte und 3 Bildschirme weiß ich auch wie derbst geil Eyefinity is zum Beispiel und das is ne Sache die mich an nVidia mega ankotzt!

Gleiche kackdiskussion wie bei iOS vs Android... Man kann es nicht allen Recht machen! Das wird auch immer so bleiben und lieber Black&White ich bitte dich deine Blutrot getränkte Schlächterbrille abzunehmen! Du darfst gerne über nVidias Statements und Fehler und Sonstwas flamen... Aber nicht grundsätzlich verdammen... Die hatten auch mal gute Zeiten wie sie Voodoo und Matrox mal hatten... Und jetzt ist halt AMD an der Reihe was richtig fettes rauszuhauen!

Beide Seiten haben Vorteile und Nachteile... Momentan sitzt halt AMD am deutlich längeren Hebel... Sollten sie ausnutzen! Denn wenn ich mal später auf aktuellere Games umsteige... Dann wunder dich nicht wenns ne AMD wird MIT allen Funktionen die es in der Grafikwelt gibt! Der Traum von ausgereiftem Freesync, Trueaudio und Eyefinity in einem!


Ja der ganze Text klingt sehr zwiespaltig, das Problem ist halt dass es auch genau so ist und das sollten alle sich mal genauer ansehen! Alle haben irgendwo Macken, die einen heute, die anderen morgen!
 
Zuletzt bearbeitet:
redfirediablo schrieb:
Nvidia hat seine Kunden und die Konkurrenz beschissen um bessere Verkaufszahlen und mehr Gewinn einzufahren. Das keinem innerhalb 4 Monaten einfällt das die technischen Daten komplett falsch sind können die ihrer Oma erzählen.

Fakt ist:

Wären die technischen Daten und die damit verbundenen Nachteile schon beim Release bekannt gewesen dann wären

  • die Reviews zwar okay aber nicht überragend ausgefallen
  • die Verkaufszahlen bei gleichem Preis deutlich niedriger gewesen
  • deutlich mehr 290/290X verkauft worden

...

Was hätte sich denn an den Benchmarks geändert wenn das vorher bekannt gewesen wäre? Glaubst du die Benchmarks wären dann eingeschnappt auf Nvidia gewesen oder wie? ^^ Das ist ja das tolle es ändert nichts an den Review Ergebnissen denn es wurde mit dieser Karte gemacht und die Verkaufszahlen wäre sicherlich niedriger aber nicht signifikant. Denn wen betrifft das denn überhaupt? Alle die > 1080p zocken was bei der gesamt Zahl der Verkäufe sicherlich im niedrigen zweistelligen Prozent Bereich liegt. Und die hätten sich dann vermutlich eher die 980 gekauft also die Kohle wäre bei Nvidia geblieben nur mit höherem Gewinn für Nvidia.
 
Zurück
Oben