News GeForce GTX 970: Nvidia bestätigt Limitierungen am Speicher

Der Landvogt schrieb:


Mit den Links hast Du das ueberhaupt nicht verstanden. Ich wuerde mich freuen, wuerdest Du Links posten, welche zeigen, dass AMD Karten bei den Shops guenstiger anbietet, welche die Karte ohnehin guenstiger als andere vertreiben (ja, ich weiss, AMD legt den Verkaufspreis der Shops nicht selber fest). Du streust hier naemlich schon jetzt, dass AMD den Kunden an der Nase herum fuehren koennte. Das muss man sich mal ueberlegen. AMD wittert eine Chance Gewinn zu machen auf eine Art, die auch fuer Neukunden lukrativ ist (win-win) und Du machst das schon schlecht, bevor es losgeht. Das ist billige Stimmungsmache.


Der Landvogt schrieb:
Klar, die sollen einfach ne 980 bekommen und noch eine zweite als Entschädigung.
7+1GB wären ja eigentlich ein guter Ausgleich, aber nein es MÜSSEN der L2 und die ROPs sein. Denn genau darauf hat man ja beim Kauf so geachtet. Ja ne is klar... :freak:

Liest Du eigentlich selber worauf Du antwortest und was Du schreibst? Du machst hier Leute an, weil sie ganz einfach das haben wollen, wofuer geworben und bezahlt wurde. Dass die Werbung nicht astrein ist, das duerfte mittlerweile nun wirlich jedem klar geworden sein. Was das nun mit zwei GTX980er Modellen zu tun haben soll... Hab ich gar nciht erwaehnt, aber ok ^^

Der Landvogt schrieb:
Auf den Rest gehe ich gar nicht mehr so wie du alles aus dem Zusammenhang reißt und komplett falsch darstellst.
Schade. NVIDIA-Style eben :D
 
fanatiXalpha schrieb:
ich würde sagen du solltest dich weiter in die Materie einarbeiten
das was du sagst ist bullshit, da nicht jedes Spiel unter 4k extrem viel VRAM braucht
die Aussage mag auf einige neue Titel zutreffen
aber auch da nicht immer

Natürlich will man grafisch aufwendige Spiele in 4K Spielen, deshalb zahlt man ja viel Geld für eine High End Karte.
Und alle aktuellen grafisch aufwendigen Spiele brauchen unter 4K mehr als 4GB VRAM.
 
ja, aber deine Aussage vorhin war so nicht korrekt, da du nicht spezifiziert hast welche Spiele du meinst
ich kann das alte Hitman 2 Silent Assassin in 4k spielen und komm nicht mal an 1GB VRAM ran
wie gesagt, pauschal kann man das nicht sagen
zudem denke ich (kann ich leider nicht nachprüfen), dass wenn man nur die Auflösung auf 4k stellt und die Texturen bei mittel usw. hält man auch noch mit 4GB gut auskommt ;)
 
fanatiXalpha schrieb:

Das du keine Ahnung von der Materie hast stimmt auf jeden Fall.
Wenn du "solche Spiele" nicht hast dann verstehst du auch nicht, wie hoch die Anforderungen an den VRAM sind. Wegen solchen Spielen kaufen sich hier die Leute High End Grafikkarten, nicht wegen Hitman 2 Silent Assassin. Du bist im falschen Thread...
 
Red_Bull schrieb:
eben dem ist es egal hauptsache die käufer niedermachen die das haben wollen wofür sie teuer geld bezahlt haben


Leute, lasst euch doch nicht immer aus der Reserve locken ! Nach >2500 Beiträgen allein in diesem Thread sollte nun wirklich jedem klar sein, worum es den Betroffenen geht. Da würde ich mich auch gar nicht zu irgendwelchen Rechtfertigungen hinreißen lassen.
 
du bist ziemlich ignorant und auch sehr arrogant
ich wollte nur sagen, dass die Aussage "für 4k sind 4GB VRAM zu wenig" keine allgemeine Gültigkeit hat

das du mein "keine Ahnung" dann schön aus dem Zusammenhang reißt ist die Spitze, denn es war nicht auf das 4k Thema bezogen sondern auf die Frage von SgtIceTea

ich hab Skyrim mit Mods und unter 4k war ich da nicht weit weg von 4GB
aber immer noch drunter
ich habe schon "solche" Spiele, aber nicht die, an die du gedacht hast

es gibt Leute, die kaufen mal wieder ne High-End Karte weil sie halt die nächste Zeit Ruhe haben wollen und/oder "alte" Spiele maximiert genießen wollen
 
Zuletzt bearbeitet:
Jop da hat fanati recht Ich habe bisher AC1 bis AC: Brotherhood mit der Karte gespielt, aber selbst da hatte sie kurze Aussetzer und das nur bei FullHD und nicht mal vollen Vram aber DSR sollte ich dort wirklich mal probieren.
 
Der Landvogt schrieb:
Mir kann niemand erzählen, dass er auf ROPs oder gar L2 geachtet hat und das das Kaufkriterium war. Bandbreite, naja.
Mit 7+1GB wäre das aber klar ausgeglichen.
Hier zeigt sich wer sich aus der Sache einfach nur persönlich bereichern will.

Auf das SI, den V-ram hat man imho aber schon geachtet und das spielt auch jetzt wiederum keine Rolle, denn der Betrug von Nvidia ist geschehen.
Und warum sollte sich jemand bereichern, wenn er den Kauf für ungültig erklärt, oder bei Nvidia bleiben will und für Fehlleistungen eine entschädigung verlangt?
Sind wir jetzt wirklich schon soweit Nvidia hier nochmal in Schutz zu nehmen, während die Händler bluten?

Das kann man nMn nicht so sagen. Dass es zur Präsentation ein Missverständnis gegeben hat halte ich für nachvollziehbar.
Unglaubwürdig wird es erst wenn das ganze intern erst im Januar 2015 bemerkt wurde.

Nein, da gab es kein Missverständnis. Man hat die realen Specs einfach zurückgehalten.
Und wenn davon irgendwelche Marketingheinis nichts wussten, spielt das letztendlich überhaupt keine Rolle.
Die Drahtzieher die die Kunden angelogen haben, wussten es bestens und das war sicherlich das Management des Unternehmens.

Das mit dem Treiber wurde hier auch schon erklärt. Die Entwickler stehen mit Marketingteam in so einem großen Konzern sicher nicht so sehr in Kontakt. Aber auch hier hätte es vor Januar 2015 jemandem auffallen müssen. Da sind wir dann wieder bei der Unglaubwürdigkeit. Das läuft letztendlich nur auf den Zeitpunkt raus ab dem es unglaubwürdig wurde.

Unglaubwürdig ist es bereits bei Release oder eher vor Release der Karte als die Daten rausgegeben wurden... und nicht erst danach.

Genau da behaupte ich, dass bis dahin auch keine 4GB mehr reichen würden. Das Limit wäre so oder so überschritten. Und in 2 Jahren muss man bei der Karte so oder so reduzieren. Ggü. der ursprünglich beworbenen 4GB reduziert man dann AA oder Texturen um eine Stufe.

Die Spiele werden ja imho für ~4 GB V-ram entwickelt.
Ich würds da nicht sogut finden, wenn eine Karte dann aus der Reihe tanzt.
Und diese Argumentation bei einer HIgh End Karte zu treffen, dass 4GB V-ram sowieso nicht ausgenutzt werden können, wenn es heuteige Titel schon bei üblichen Settings tun können. Ja gut. Verstehe ich nicht.

Genau da behaupte ich, dass bis dahin auch keine 4GB mehr reichen würden. Das Limit wäre so oder so überschritten. Und in 2 Jahren muss man bei der Karte so oder so reduzieren. Ggü. der ursprünglich beworbenen 4GB reduziert man dann AA oder Texturen um eine Stufe.

Kurz und knapp Unsinn.

Das sagt viel über AMD aus. Mir werden dadurch nur noch weiter unsympathischer. Ich meine, man kann ja ruhig mal einen Witz darüber machen, aber man kann es auch übertreiben. Und AMD hat die Grenze des Guten mMn schon lange überschritten.

Oh, da ist aber einer persönlich abgefressen. Ich finde das was AMD sagt ehrlichgesagt zurecht gesagt.
Ein neues Fixer Video und ein Gewinnspiel + 4GB are 4GB Hastag. OMG, das ist doch das mindeste.

Natürlich nicht, charakterlich wesentlich besser ist AMD aber auch nicht.

Das wird dich jetzt vielleicht schockieren, aber soviel wie man bei einer Firma von Charakter reden kann, ist mir AMD zumindest deutlich sympathischer, vor allem was die Firmenpolitik betrifft.

Siehe GTX 970, Siehe GPU Physx, siehe Gameworks, siehe G-sync, was auch Verarsche ist. ;)
 
ich kann nicht mehr muahahahahahaha

hab die ganze zeit die Ruckler bei far cry4 u bf 4 auf 2560 gehabt und gedacht die kommen vom ling long monitor aber fehler gottseidang entdeckt und ausgemerzt..
 
kisser schrieb:
Und dummerweise haben sie sich für b) entschieden, weshalb sie jetzt die - vermutlich deutlich größere - Welle der Entrüstung zu Recht voll trifft.

Wieso dummerweise.
Sie haben sich halt dafür entschieden den ersten Hype mitzunehmen, inkl. der Möglichkeit das die ganze Sache nicht aufgedeckt wird.
Die haben sich das schon genau durchgerechnet und ich denke die Rechnung geht auf. Die sitzen das ganze jetzt erst mal aus, ein vermutlich sehr geringer Teil wird die Karte zurückgeben, die anderen maulen weiter, vielleicht gibt's noch irgendeine Kompensierung und danach gibt es wieder Business as usual.
 
Also man kann das "marketing" von AMD finden wie man will - aber wenigstens hab ich bislang von der Firma immer auch Hardware bekommen die MINDESTENS das konnte was spezifiziert war.

Das kann man jetzt finden wie man will. Aber wenn ich in Zukunft nochmal entscheiden muss ob es A oder B sein sollen dann wird diese Tatsache sicherlich auch eine Rolle spielen.
 
Lyle schrieb:
Mit den Links hast Du das ueberhaupt nicht verstanden. Ich wuerde mich freuen, wuerdest Du Links posten, welche zeigen, dass AMD Karten bei den Shops guenstiger anbietet, welche die Karte ohnehin guenstiger als andere vertreiben (ja, ich weiss, AMD legt den Verkaufspreis der Shops nicht selber fest). Du streust hier naemlich schon jetzt, dass AMD den Kunden an der Nase herum fuehren koennte.
Lies nochmal alles genau durch. Vielleicht fällt dir dann endlich mal was auf.

Lyle schrieb:
Liest Du eigentlich selber worauf Du antwortest und was Du schreibst?
Tust du doch selbst nicht. Zuviel rot vor der Nase?

CyberdyneSystem schrieb:
Daying Light soll wohl unter Full HD bereits den Vram komplett füllen (3,5GB) und für heftige Aussetzer sorgen
Das ist aber auch mies programmiert. Klar könnte das auch bei sauberer Programmierung des Spiels passieren, aber dieses Spiel würde ich nicht als Maßstab nehmen.

smilefaker schrieb:
Auf das SI, den V-ram hat man imho aber schon geachtet und das spielt auch jetzt wiederum keine Rolle, denn der Betrug von Nvidia ist geschehen.
Und warum sollte sich jemand bereichern, wenn er den Kauf für ungültig erklärt, oder bei Nvidia bleiben will und für Fehlleistungen eine entschädigung verlangt?
Und genau SI und VRAM wären ja dadurch insgesamt ausgeglichen worden. Aber das allein würde einigen ja nicht reichen, sie wollen einfach noch mehr.
Es geht doch gar nicht darum den Kauf für ungültig zu erklären sondern um das (fiktive) auflöten von doppeltem Speicher was hier jemand angestoßen hat.

smilefaker schrieb:
Nein, da gab es kein Missverständnis. Man hat die realen Specs einfach zurückgehalten.
Und wenn davon irgendwelche Marketingheinis nichts wussten, spielt das letztendlich überhaupt keine Rolle.
Die Drahtzieher die die Kunden angelogen haben, wussten es bestens und das war sicherlich das Management des Unternehmens.
Da scheint ja jemand sehr gut informiert zu sein. Gibts da auch Beweise oder ist das eine Behauptung? Ich meine du widersprichst ja dem was ich sage komplett und stellst es als Fakt dar.

smilefaker schrieb:
Die Spiele werden ja imho für ~4 GB V-ram entwickelt.
Ich würds da nicht sogut finden, wenn eine Karte dann aus der Reihe tanzt.
Und diese Argumentation bei einer HIgh End Karte zu treffen, dass 4GB V-ram sowieso nicht ausgenutzt werden können, wenn es heuteige Titel schon bei üblichen Settings tun können. Ja gut. Verstehe ich nicht.
Der Verbrauch hängt aber auch von Faktoren wie der Auflösung ab, da wird nichts auf exakt 4GB und die speziellen technischen Daten entwickelt. Das würde beim PC auch gar nicht möglich aufgrund der Vielfalt.
Eine heutige 350€-Karte ist in 2 Jahren nicht mehr Highend und durchgehend für max. Details oder gar 4k geeignet. Wer das glaubt glaubt auch noch an den Weihnachtsmann. Schau dir Witcher 3 an, da wird auch eine 980 kräftig zu schlucken haben. Und das kommt bereits bald.

smilefaker schrieb:
Das wird dich jetzt vielleicht schockieren, aber soviel wie man bei einer Firma von Charakter reden kann, ist mir AMD zumindest deutlich sympathischer, vor allem was die Firmenpolitik betrifft.

Siehe GTX 970, Siehe GPU Physx, siehe Gameworks, siehe G-sync, was auch Verarsche ist. ;)
Da kann AMD mit seinem Treibersupport und beworbenen Technologien die kaum jemandem was bringen und v.a. nur auf bestimmter und teils willkürlich ausgesuchter Hardware verfügbar sind locker mithalten.
Der Treibersupport erinnert mich an so manchen Mobilgerätehersteller. Hatte 2 Mal das Vergnügen mit AMD/ATI. Beide Male von AMD im Stich gelassen worden, einmal konnte ich das Notebook verkaufen weil es für mich nicht mehr brauchbar war. Ja, sehr sympathisch.
Sorry, aber da haben beide genug Dreck am stecken. Da sieht AMD wirklich nicht besser aus.

Gibts zu GSync eigentlich schon einen seriösen Artikel oder nur Forenposts? Nicht dass ich groß dran Zweifel, aber ein fundierter Bericht wäre mir da schon lieber. Auch wenn mich Gsync an und für sich gar nicht interessiert.
 
pcper hat einen Artikel.
Es handelst sich anscheinend aber nicht um einen Hack, sondern um einen geleakten Beta Treiber. Damit kann anscheinend auf jedem Mobile Monitor Gsync aktiviert werden.

Hier Bitte
 
Der Landvogt schrieb:
Da kann AMD mit seinem Treibersupport und beworbenen Technologien die kaum jemandem was bringen und v.a. nur auf bestimmter und teils willkürlich ausgesuchter Hardware verfügbar sind locker mithalten.
Der Treibersupport erinnert mich an so manchen Mobilgerätehersteller. Hatte 2 Mal das Vergnügen mit AMD/ATI. Beide Male von AMD im Stich gelassen worden, einmal konnte ich das Notebook verkaufen weil es für mich nicht mehr brauchbar war. Ja, sehr sympathisch.
Sorry, aber da haben beide genug Dreck am stecken. Da sieht AMD wirklich nicht besser aus.

Klingt nach persönlicher Einstellung, aber hier geht es ja um Fakten und ob du oder sonst jemand etwas mit AMD Technologien anfangen kann oder nicht steht hier auch nicht zur Debatte, sondern um einen klaren Betrug, mindestens aber absichtlichen Etikettenschwindel.

Geschönte Previews sind in der Hardwarebranche Tagesordnung, nur auf dem Endprodukt muss stehen, was auch drin ist, das sind Fakten.
 
@ Landvogt welche Probleme hat dein Notebook denn gemacht? Bildfehler selbst unter dem Desktop weil sich die gpu selber ausgelötet hat?

Hab ich mit diversen Chips der g9x-klasse durch. Desktop und notebook.

Also komm mir nicht mit amd hat aber. Hatte bis vor einem jahr nur nvidia-karten. Die sind keinen Deut besser im Gegenteil.
 
Zu der G-Sync Thematik. Laut offiziellen Aussagen wird das Modul bei Notebooks (wohl aus Stromspargründen) weggelassen, dadurch soll es aber auch nicht auf dem Niveau von externen Monitoren mit Modul liegen. Das deckt sich mit den bisherigen Infos dass Free-Sync nicht ganz an G-Sync heran käme (wobei die Vorstellung von AMD nun wirklich Katastrophal war, daran besteht kein Zweifel).
Bei normalen Monitoren soll G-Sync dank des Moduls besser funktionieren; da es dann eben auch kein Adaptive-Sync verwendet.
Somit kann man also davon ausgehen dass grundsätzlich die NV GPUs in der Lage sind mit Adaptive-Sync umzugehen, aber eben zusätzlich noch mit dem G-Sync Modul klar kommen.

Das ganze stützt sich natürlich auf die Aussagen NVidias. Also der Firma die auch von einer korrekt beworbenen 970 spricht.
 
Zuletzt bearbeitet:
Zurück
Oben