News GeForce 337.50: die Funktionsweise bleibt unklar

nVVater schrieb:
warum sollte die Grafik ohne HT schlechter werden

Theoretisch unmöglich wäre es nicht. Das Spiel oder auch der Grafiktreiber könnten bei weniger zur Verfügung stehenden CPU-Threads die Qualität automatisch reduzieren.
Aber das ist schon sehr unwahrscheinlich. Zumal bisher niemandem sonst sowas aufgefallen ist.
 
Wird mal zeit das in einem NewsUpdate auch mal darauf hingewiesen wird, das Nvidia das Temp.-Target der Karten rauf gesetzt hat. Dadurch takten die Karten dann auch teils höher als mit anderen Treibern. Nvidia trixt an allen Ecken um ihre noch nicht mal 5% Durchschnittssteigerung zu erhalten!
 
Wird mal zeit das in einem NewsUpdate auch mal darauf hingewiesen wird, das Nvidia das Temp.-Target der Karten rauf gesetzt hat. Dadurch takten die Karten dann auch teils höher als mit anderen Treibern. Nvidia trixt an allen Ecken um ihre noch nicht mal 5% Durchschnittssteigerung zu erhalten!

Haben sie nicht, wird auch im Artikel erwähnt ... aber anscheinend haste den garnicht gelesen und verbreitest lieber Käse.
 
Ich glaube ja eher das in den Treibern bisher Bremsen eingebaut wurden die man je nach Modell bisschen lockern konnte und Aufgrund von Mantle die Handbremsen ganz lösen musste. Anders kann ich mir das nicht so recht erklären wenn man so schnell auf Mantle reagieren kann.
 
tobi14 schrieb:
Wird mal zeit das in einem NewsUpdate auch mal darauf hingewiesen wird, das Nvidia das Temp.-Target der Karten rauf gesetzt hat. Dadurch takten die Karten dann auch teils höher als mit anderen Treibern. Nvidia trixt an allen Ecken um ihre noch nicht mal 5% Durchschnittssteigerung zu erhalten!

Noch so ein völlig verblendeter Troll....wird ja immer besser :lol:!

Computerbase schrieb:
Einzig die in Foren aufgekommene Theorie, dass Nvidia mit dem GeForce 337.50 das Temperature Target und damit den Boost-Takt angehoben haben soll, können wir entkräften: an dieser Einstellung hat es keine Anpassung gegeben.

Steht dazu noch in dieser News......
 
Retaliator_75 schrieb:
Die Ladezeiten bei BF4 haben sich deutlich verbessert!

Crysis 3 läuft deutlich besser - wie Crysis 2
(wobei ich das Game nur damals paar Monate nach erscheinen gezockt habe)

Der VRAM Verbrauch bei Cry 3 ist auf 3.200MB gestiegen.

FarCry3 @2560x1440p & 8MSAA Intro läuft wie Butter (war sonst minimal rucklig).

4960X, 64GB RAM, 3-way-Titan-SLI

Ich glaube es kommt gar nicht mal so sehr auf die FPS Steigerung an, sondern irgendwie
das die Grafikkarten die Texturen besser "cachen"

Für BF4 habe ich keine FPS aber gefühlt läuft es noch runder.

VRam Verbrauch ist bei mir in BF4 auch um einiges angestiegen, musste von Res.Scale 135% auf 125% runter damit meine 2GB nicht so oft zum nachladen gezwungen werden. Finde ich auch nicht so schlimm da die 690GTX einfach ein Speicherkrüppel ist ;). Was hattest du vorher so im Durchschnitt?
Kann das noch jemand bestätigen?

Die Bildqualität ist auch gleich geblieben, ich mache gerade ein paar Tests mit den High Quality Settings und bin mit dem Treiber schon mal sehr zufrieden.
 
Zuletzt bearbeitet von einem Moderator:
Trolle? Das war berechtigt. Schau dir doch mal die Textur links an der Wand an und vergleiche sie mit dem Bild mit HTT, genauso der Griff an der Waffe und die rechte Hand am Abzug. Ich bin doch nicht blind.
nVVater schrieb:
 
Zuletzt bearbeitet:
Herdware schrieb:
Das Spiel oder auch der Grafiktreiber könnten bei weniger zur Verfügung stehenden CPU-Threads die Qualität automatisch reduzieren.

Wobei das auch die Leistungsverschlechterung mit aktiviertem HT erklären könnte. Der Treiber "denkt" er habe 4 Kerne zur Verfügung, setzt alles, was er vorher ausgeblendet/verändert hatte wieder auf Normalzustand, hat aber eben nicht diese 4 Kerne und "bricht dadurch ein" (sind ja nur 25 FPS). Die Tatsache, dass die GPU-Usage unter HT sinkt, man also schneller ins CPU-Limit rennt, bestärkt das ganze auch noch.
Der Screenshot mit HTT sieht nämlich tatsächlich um einiges besser aus. Man achte nur auf die Textur des Containers links des Charakters. Man sollte der Sache in jedem Fall mal nachgehen.
 
Ich glaube ja eher das in den Treibern bisher Bremsen eingebaut wurden die man je nach Modell bisschen lockern konnte und Aufgrund von Mantle die Handbremsen ganz lösen musste. Anders kann ich mir das nicht so recht erklären wenn man so schnell auf Mantle reagieren kann.

Das glaube ich kaum, zumal man ja nicht wirklich "schnell" reagiert hat, Mantle ist immerhin seit geraumer Zeit angekündigt und dass das nicht nur heiße Luft wird hat sich Nvidia sicher ausrechnen können und ich bezweifel dass sie da nicht schon früh Planungen hatten um auf Mantle reagieren zu können. Dass es jetzt doch so schnell ging mit dem ersten Release eines Treibers kann natürlich mit der vielleicht doch für Nvidia überraschend hohen Leistungssteigerung zusammenhängen.

@Tobi4s, igor1234, MaLow17

Euch ist schon klar dass ihr gerade behauptet dass die CPU für die Qualität der TEXTUREN verantwortlich sein soll ? Die hat damit garnix am Hut ... und da für beide Screens der gleiche Treiber gewählt wurde kann es auch nicht daran liegen also bitte lasst doch solche Kommentare...
Über weniger Rauch oder schlechtere Schatten würde ich ja noch diskutieren, da diese auch von der CPU berechnet werden, aber Texturen haben damit absolut nichts zu tun und daher ist das hier einfach nur Käse was ihr labert.
 
Zuletzt bearbeitet:
MaLow17 schrieb:
Trolle? Das war berechtigt. Schau dir doch mal die Textur links an der Wand an und vergleiche sie mit dem Bild mit HTT, genauso der Griff an der Waffe und die rechte Hand am Abzug. Ich bin doch nicht blind.

das liegt daran weil ich nicht exakt die selbe Position hingekommen habe
Der griff an der Waffe liegt am motion blur, die waffe bewegt sich schließlich

zwei Screenshot hintereinander:



siehe Waffen griff, siehe Soldat.
Es liegt halt am motion blur, das kann man nicht deaktivieren, jedenfalls nicht im Menü.

dieses mal in ultra damit nicht noch der nächste ankommt mit erfundenen quatsch.

HT AUS


HT AN


sonst noch irgendwas?
 
Zuletzt bearbeitet:
Das dachte ich auch am Anfang mit Motion Blur, aber die Wand bewegt sich ja nicht oder hast du beim Screenshot noch den Kopf leicht gedreht (also bei deinen 2 ersten Bildern)? Die ganze Szene hätte dann eigentlich "verwaschen" aussehen müssen beim Motion Blur. Naja lassen wir das mal, trotzdem interessiert mich das (dein) Problem mit aktiviertem HT und warum es so ist. Ich wollte dich bestimmt nicht angreifen. Nur eine Erklärung finden.

Interessant wäre auch zu sehen, wie sich das ganze unter Windows 8.1 verhält oder mit einem nativen 8 Kerner bzw. 6 Kerner (ohne aktivierter HTT) und wenn man bei diesen Prozessoren bei einem weiteren Benchmark nur 4 Kerne aktiviert und dann wieder auf 8 bzw. 6 Kerne umschaltet, ob Battlefield 4 sich dann irgendwie komisch verhält.


Gruß
MaLow
 
Zuletzt bearbeitet:
lol, BF4 verwendet motion nicht gleichzeitig für alle sachen.

Wieso verwaschen?

Spiel mal mit low details, lod distanze verändert sich jedesmal wenn man nicht Punkt genau an der gleichen stelle steht.
Und nein das hat kein Performance Einfluss
 
Dass die Grafikqualität bei unterschiedlicher CPU Leistung/Threads sich unbemerkt im Hintergrund ändert, würde ich einfach mal ausschließen. Begründungen, warum es in diesem einen Bsp. anders aussieht, wurden ja bereits geliefert. Ich denke, dass wäre auch schon einigen Medien aufgefallen, da man sowas sehr gerne testet (siehe Mantle wo es in BF anfangs Probleme gab, die zuerst auf mindere Qualität hindeuteten, auch wenn sie es nicht gewesen ist).
Wir haben hier aktuell aus meiner Sicht ein einfaches Treiberupdate mit spieleorientierten Verbesserungen, wie sonst auch. 3-4% sind doch nicht unüblich und das dann einige Spiele sowohl positiv als auch negativ aus der Reihe springen (>+10% und > -1%) ist doch auch normal.
Nvidia hat mit dem Treiber allerdings was ganz anderes versprochen (Kennt man ja), was bisher niemand nachvollziehen oder beweisen kann, da man einfach fast null davon merkt ... nicht mehr als sonst auch. Eventuell setzt man sich auch einfach hin und wartet ab, ob nvidia darauf nochmal reagiert, nachdem sie sich nun in stillschweigen wiegen.
 
PhilAd schrieb:
Dass die Grafikqualität bei unterschiedlicher CPU Leistung/Threads sich unbemerkt im Hintergrund ändert, würde ich einfach mal ausschließen. Begründungen, warum es in diesem einen Bsp. anders aussieht, wurden ja bereits geliefert. Ich denke, dass wäre auch schon einigen Medien aufgefallen, da man sowas sehr gerne testet (siehe Mantle wo es in BF anfangs Probleme gab, die zuerst auf mindere Qualität hindeuteten, auch wenn sie es nicht gewesen ist).
Wir haben hier aktuell aus meiner Sicht ein einfaches Treiberupdate mit spieleorientierten Verbesserungen, wie sonst auch. 3-4% sind doch nicht unüblich und das dann einige Spiele sowohl positiv als auch negativ aus der Reihe springen (>+10% und > -1%) ist doch auch normal.
Nvidia hat mit dem Treiber allerdings was ganz anderes versprochen (Kennt man ja), was bisher niemand nachvollziehen oder beweisen kann, da man einfach fast null davon merkt ... nicht mehr als sonst auch. Eventuell setzt man sich auch einfach hin und wartet ab, ob nvidia darauf nochmal reagiert, nachdem sie sich nun in stillschweigen wiegen.

50-80% steigerungen in star swarm und 20-40% in hitman sind also schon wieder ein normales treiberupdate.....soso
 
IceyJones schrieb:
50-80% steigerungen in star swarm und 20-40% in hitman sind also schon wieder ein normales treiberupdate.....soso
natürlich gibt es einzelne ausreißer. in der Vergangenheit hat es auch schon extreme Ausreißer gegeben, wenn ein Hersteller auf ein Spiel zuerst garnicht klar gekommen ist oder garnicht erst gestartet hat. Dann sind 50FPS auch direkt mal 500% Steigerung. Kann man statischtisch natürlich alles toll darstellen.
Bei Star Swarm sind es von rund 7FPS, nun 13FPS. Bei so niedrigen FPS, sind 5FPS natürlich in % extrem viel, auch wenn eine einfache Demo eher unbedeutend ist.
Am Ende macht der Treiber nunmal im Gesamtschnitt 3-4% und hat auch Negativausrisse die ebenso 2-stellig sind (tes5 minfps -10%).
 
StarSwarm muss man sowieso mindesten 10x Durchläufe nehmen und davon ein Schnittwert errechnen,
diese Demo ist doch dynamisch für einfache Benchmarks ungeeignet.
 
Starswarm ist eine eigens für mantle angefertigte techdemo, klar dass es dort noch viel Optimierungspotential gab..
 
PhilAd schrieb:
Bei Star Swarm sind es von rund 7FPS, nun 13FPS. Bei so niedrigen FPS, sind 5FPS natürlich in % extrem viel, auch wenn eine einfache Demo eher unbedeutend ist.
Am Ende macht der Treiber nunmal im Gesamtschnitt 3-4% und hat auch Negativausrisse die ebenso 2-stellig sind (tes5 minfps -10%).

Bei Mantle hatte Star Swarm die grössten Steigerungen zu DirectX. Da war es eine Revolution statt eines Ausreisers nach oben bei einer praxisfernen Demo. Kommt nun NVidia und zieht nach ist es plötzlich "unbedeutend". So sind die AMD Fanboys.
 
Zurück
Oben