• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Nvidia arbeitet an FPS-Problemen von Kepler-GPUs

sry aber A****löcher mehr gibt's nicht zu sagen
 
Zahlreiche Nutzer vermuten deshalb, dass Nvidia GPUs mit älterer Architektur mit den Treibern der vergangenen Monate künstlich beschnitten habe, um den Verkauf aktueller Maxwell-GPUs anzukurbeln.

Schaut man sich die Geschäftspraktiken von NVIDIA an, so liegt diese Vermutung auch sehr nahe.
 
Wie beim Speicher der 970 wird das bestimmt ein Feature.
Soll die Hardware vor Beschädigungen schützen oder sowas :evillol:
 
Potente Hardware? Das lese ich jedes mal zu Witcher und halte ein 4 Jahre alten i5-2500k und 270X nicht gerade für das Maß für potente Hardware. Das ist gerade mal Mittelklasse. Damit läuft es in FullHD auf hoch bis ultra mit 30 FPS. Somit lässt sich das auf Niedrig/Mittel auf noch schlechterer Hardware problemlos spielen.

Dazu wird der Prozi nicht mal ansatzweise benötigt. Sprich ein kleiner 4-Kern Prozi mit Mittelklasse Grafikkarte und Witcher 3 sollte kein Problem sein. Jeder 500-600€ PC sollte Witcher problemlos spielen können, wenn man nicht auf die Grafik fixiert ist. Auf Mittel sollte das Spiel ja auch wie auf jeder Konsole aussehen.

@Thema

NVIDIA bescheidet künstlich die Grafikkarten, damit man sich ja eine neue zulegt.
 
Und der Treiber wird bestimmt den Technisch absurd hohen x64 Faktor auf x32 senken, man sieht Optisch keinen Unterschied, aber die Performance steigt (~15-20%) dann endlich auf das Maß, was der 780 gerecht wird, womit sie ihre Leistung auch auf die Straße bringt :)
Ähnlich dem, was im CCC vom Endnutzer selbst gemacht werden kann, dem Nvidia Kunden aber verwehrt wird. Täte allgemein gut, dass man derartige Features seinen Settings entsprechend einstellen kann, zumal ja bekannt ist, dass x16 keinen Optischen Unterschied bringt ( trockene Haare ) bzw. es sogar besser aussehen lässt ( Wasser ) x32 für die Haare aber doch ganz ok ist, sobald die Haare " nass " sind, sieht man unter x16 doch noch einen guten Unterschied, der bei x32 aber dann auch weg ist.

Woran mich das jetzt erinnert ist folgendes: Problem, Reaktion, Lösung – Erschaffe ein Problem, warte die Reaktion ab und dann biete die Lösung an…und alle jubeln..
 
Zuletzt bearbeitet:
Naja die Kepler sind nicht langsamer geworden, sondern die Maxwell sind schneller geworden,
ein ähnliches Phänomen sieht man beim AMD R9285 auch.
 
Doch, sie wurden langsamer gemacht, da sie mit x64 Faktor quasi ausgebremst werden. Dass dieser Wert nicht wirklich Sinnvoll ist, lässt einem, auch wenn es nur eine Vermutung ist, doch recht verwunderlich stimmen.
Zumal ja keiner behaupten kann, sie würden es nicht vorher wissen, haben doch eng mit dem Studio daran gearbeitet.

Mal sehen was genau geändert wird, intern im Treiber, was den generellen Tess Faktor betrifft.
Da dies von CB nicht weiter verfolgt wird, müssen es wieder die User machen. Schade.
 
Zuletzt bearbeitet:
Kartenlehrling schrieb:
Naja die Kepler sind nicht langsamer geworden, sondern die Maxwell sind schneller geworden,
ein ähnliches Phänomen sieht man beim AMD R9285 auch.

Interessant ist aber, bei Hairworks on, ändert sich das Bild für die R9 285 und die 280X ist wieder schneller. Dabei ist die R9 285 eigentlich jene Karte, die mit Tessellation besser umgehen kann.
 
Ein Treiberproblem also :)
Nvidia glaubt man bekanntlich alles aufs Wort^^

Ist es nicht auch "eigentlich" ein Nvidia-GameWorks Titel? :D
 
Zuletzt bearbeitet:
Ich finde das Argument mit der Tesselation auch dahingehend etwas merkwürdig da die 290er von AMD ja bei hoher Tesselation ebenfalls recht stark einbrechen, die 290(x) aber in dem Spiel ohne Hairworks eine ziemlich gute Performance abliefert.

Und zumindest im CB Test die Kepler Karten bei hohem Tesselationsfaktor besser abschneiden als der Hawaii Chip, daher kann ich mir schon gut vorstellen dass da künstlich die Bremse angelegt wurde :/ Kann ja nicht sein dass eine popelige 960 mit einer 780 gleichzieht ...

Edit:

Und das Nvidia immer wieder zwielichtige Aktionen bringt ist ja nix neues und machen sie ja immer wieder mal gerne, wie das erneute blockieren von OC der mobile Karten erst kürzlich und dann das erneute Zurückrudern weil es die Leute halt doch wieder gecheckt haben und sich zurecht aufgeregt haben.
 
Zuletzt bearbeitet:
pipip schrieb:
Interessant ist aber, bei Hairworks on, ändert sich das Bild für die R9 285 und die 280X ist wieder schneller. Dabei ist die R9 285 eigentlich jene Karte, die mit Tessellation besser umgehen kann.

Das erklärt ebenfalls nicht den plötzlich wachsenden Abstand der 290(X) zur 780(Ti), ich bin da deiner Meinung!
Es sieht einfach so aus als würden Kepler GPUs gebremst werden.
 
berkeley schrieb:
Ein Treiberproblem also :)
Nvidia glaubt man bekanntlich alles aufs Wort^^

Naja wenn der Faktor zu hoch eingestellt ist, dann ist es an sich ein Treiber Problem. Diese Aussage wäre also korrekt. Ob das absichtlich so gemacht wurde und nur weil es aufgeflogen ist geändert wird ändert daran nichts.
 
Kann man das rein Software technisch betrachtet irgend wie nachweisen, das nVidia die Treiber so manipuliert, das man "gezwungen" wird eine neuere / stärkere Grafikkarte zu kaufen ?

Falls ja wird man gerichtlich gegen nVidia vorgehen oder werden wieder mal sehr viele Leute die Klappe halten und nichts dagegen unternehmen ?

Ist das normal, das nVidia solche Praktiken anwendet ?

O.K. mir fällt nur diese aktuelle Sache mit der VRAM und der GTX 970 ein, wie war es denn so in der Vergangenheit ? Hat da nVidia auch ähnliche Praktiken angewendet oder waren die so brav wie AMD / ATI ?

Ist das nicht anlügen und betrügen gegenüber dem Kunden / Gamer ?
 
..zumindest kümmert sich nivida um seine kunden.

:D schon, wer sonst bietet seinen Kunden solche tollen "Features" wie krüppel Speicheranbindung von dem die kunden "begeistert" waren :p (ich hoffe doch ich versteh deine Aussage richtig als ironisch gemeint ;) ).

Edit:

wie war es denn so in der Vergangenheit ? Hat da nVidia auch ähnliche Praktiken angewendet oder waren die so brav wie AMD / ATI ?

Also wenn ich mich korrekt erinnere gabs das auch schon bei der GTX 660 in der 2GB Variante, da waren 1 GB auch nur mit 128bit angebunden und der rest mit mehr, müsste jetzt aber danach suchen, könnte die Zahlen falsch im Kopf haben.
 
Zuletzt bearbeitet:
schön das NV hier verbesserungen nachliefert.

was macht denn AMD? wigt es da auch nen neuen WHQL Treiber oder etwas aktuelle was nicht BETA ist?
 
@tnoay,

ja. Nachdem man wieder laut schreien musste... wurde auch mal langsam Zeit, waren doch von Anfang an bei der Entwicklung dabei, wieso fällt denen das denn nicht auf?

@Buttermilch,

was will ich mit nem WHQL. Der sagt nix über den Treiber aus. Sieht man ja, bei dem WHQL Treiber, wie der funktioniert: GeForce Forum viele viele Whiners, abstürze usw.
Und wozu soll sich AMD denn beeilen, dass Spiel läuft ohne Treiber Optimierungen bereits gut. Die kommenden werden das bestehende ja noch weiter verbessern. Out of the Box 0 Problemo mit einer 1 Jahre alten GPU in einem GW Spiel.
 
Zuletzt bearbeitet:
Buttermilch schrieb:
was macht denn AMD? wigt es da auch nen neuen WHQL Treiber oder etwas aktuelle was nicht BETA ist?
Keine Ahnung, gibt es denn irgendwelche Leistungsprobleme mit The Witcher 3? :D Oder sonst irgendwelche? Mir sind keine aufgefallen (PCars mal ausgeschlossen, wurde aber auch nur von/für Nvidia programmiert).
 
Zurück
Oben