Notiz Nvidia: GeForce 391.01 legt um bis zu 7 Prozent in PUBG zu

Ist zwar nett, aber das Game ist doch eh ein CPU Fresser oder irre ich mich?
 
Das Spiel ist Software Müll wie ARK und beinahe jeder andere Early-Access Titel
Das Spiel nutzt grade mal 4 Kerne :freak:
Das Spiel bezieht seinen Hardwarehunger aus dem Jenseits.

Is aber auch egal! Hauptsache es gibt eine Xbox und Playstation Version
Achso und neuerdings auch auf Mobiltelefonen (iOS, Android!)

Cash-Cow das ganze.
Und jeder Feiert es ab :D
 
Ich hatte ehrlich gesagt nie Probleme mit PUBG, was die Performance angeht.
Zuerst mit Vega56 und dann mit ner 1080.

Aber "gratis Leistungsplus" ist natürlich immer gut.
 
-Ps-Y-cO- schrieb:
Das Spiel ist Software Müll wie ARK und beinahe jeder andere Early-Access Titel
Das Spiel nutzt grade mal 4 Kerne :freak:
Das Spiel bezieht seinen Hardwarehunger aus dem Jenseits.

Is aber auch egal! Hauptsache es gibt eine Xbox und Playstation Version
Achso und neuerdings auch auf Mobiltelefonen (iOS, Android!)

Cash-Cow das ganze.
Und jeder Feiert es ab :D


so viel Leistung frisst es jetzt auch nicht
und Ark braucht eigentlich nur auf der Wüsten Map viel Grafik Leistung ( und halt über 11 GB Ram )
 
Also Ich konnte mit meinem R7 1700 + Vega 56 Locker 96FPS erreichen. AVG... (OC + UV)
... dennoch... Das Game bzw. die Engine ist bisschen oldschool!
 
WoT in 1.0 schaut einfach Hammer haus, allerdings hab ich da eh mehr als 160fps in Ultra und WQHD, da die neue Engine besser programmiert wurde und nicht mehr unterschwellig CPU limitiert arbeitet
 
Das game ist doch Arma3 nur in billig. Keine ahnung wieso man so ein billig schrott titel hyped, qualität sieht anders aus.

"Die Bessere Leistung in PUBG gilt für die gesamte GeForce-1000-Serie unter Windows 10."

Heißt unterm strich, lief schon vorher auf der selben performance mit Win7.... glückwunsch, lasst die Korken knallen.

Diese ganze nvidia first day experience propaganda, da gibts etliche angebliche optimierung und unterm strich gibts genau die selben fps wie mit den alten treiber und von den latence problemen mit jeder zweiten oder dritten version fange ich am besten erst gar nicht an.
 
Da meldet man sich extra für dem GF Experience Dreck an weil man es sonst nicht nutzen kann und es zeigt einem noch nicht einmal an, dass es einen neuen Treiber gibt :mad:
 
@MXE
bei mir schon.. kurz vor 16.00 uhr, als ich meinen rechner gestartet hatte. :)
 
-Ps-Y-cO- schrieb:
Das Spiel nutzt grade mal 4 Kerne :freak:

So wie gefühlt 99% aller Spiele... Wobei auch da ein Teil dabei ist, der nur zwei Kerne effektiv nutzt.

Wer seinen CPU Kauf auf Spiele auslegt, die "vielleicht" irgend wann mal anfangen von mehr Kernen Gebrauch zu machen, dafür aber bei der IPC bzw. aktuellen Spielen einbußen hinnimmt, soll sich nicht beschweren. Jedem steht frei zu kaufen, was er will und die Lage aktuell zeigt ganz klar, dass (meistens) 4 bis höchstens 8 (seltener) Threads in fordernden Spielen völlig normal sind. Die Titel, die mehr Kerne ausnutzen können sind a) fast schon eine Ausnahme und b) ziehen selbst aus 20 Threads keine signifikanten Vorteile gegenüber nen 4 oder 6 Kerner mit SMT.

Ein Game, das also 4 Kerne ausnutzt ist absolut nichts ungewöhnliches und sowas mit nem ":freak:" smiley zu kennzeichnen zeigt nur, wie weit das Wunschdenken von der Realität entfernt liegt.


Es wird vermutlich auch in Zukunft so bleiben, dass Spiele, die nur wenige Kerne nutzen weiterhin in der großen Überzahl sind.
Genauso wie der Leistungsertrag mit zunehmender Anzahl an Kernen überproportional Abnimmt, so wird auch die Zahl bzw. der Anteil der Spiele, die immer mehr und immer mehr Kerne ausnutzen können im Verhältnis zu den Spielen, die wenig kerne nutzen überproportional klein sein.
Kurz: Je mehr Kerne zur Verfügung stehen, desto weniger groß ist der Leistungsgewinn und desto weniger Spiele machen davon gebrauch. Nicht nur wegen geringem Leistungsgewinn, sondern auch wegen dem überproportional steigenden Entwicklungsaufwand bei steigender Anzahl an Kernen. Und das ist ein riesiges Problem. Je mehr Kerne, desto schweirieger das Ausnutzen selbiger. Jedem sollte klar sein, dass man da sehr schnell an einen Punkt kommt, an dems nicht mehr weiter geht.
 
Zuletzt bearbeitet von einem Moderator:
Dank rivatuner reicht mein 2600k noch immer vollkommen aus, und das mit stock taktraten. :freak: Die gtx 1080Ti kann ich hingegen relativ leicht mit msaa auf 100% treiben. Beispiel wäre R6 Siege in wqhd oder Hunt Showdown wo die Karte ohne Kantenglättung sogar zwische 60 und 75 % ausgelastet ist. Natürlich immer mit 60 fps Limitierung. In world of tanks ist der cpu verbrauch noch geringer und das mit 30 spielern auf der map.
 
Zuletzt bearbeitet:
Laggy.NET
Sehe ich ähnlich, darum habe ich mir auch einen 8700K@5GHz@Geköpft@1,26v gekauft, man sah ja wie sich der Phenom2x6 oder die Visheras gehalten haben, bis die ihre Kerne ausspielen können/konnten waren sie schon lange überholt.
 
G00fY schrieb:
Ist zwar nett, aber das Game ist doch eh ein CPU Fresser oder irre ich mich?

ggf API Bottleneck (auf meist einem Thread). Gerade bei weniger guten Engines der Fall. Ergo an dieser Stelle optimieren und man hat die Mehrleistung...

Weil das Game wohl oft über CPU bremst lässt sich da meist über Grafiktreiber was rausholen.
 
Weiß einer ob der Treiber Verbesserungen bei Kingdom Come: Deliverance bringt?
 
Kein Bier vor 4?

PUBG läuft auch auf einer R9 270X und ganz lustig ist, dass auch in 2018 kaum jemand 8 Core-CPU´s für Gaming nutzt.

Ich kenne Leute die es sich auf Single Core antun. Hardwarehunger?

Vielleicht das nächste Gehirn an und Bildschirm aus.

​Gruß
 
Der GeForce 391.01 trägt das WHQL-Zertifikat und steht für Windows 7, Windows 8 sowie Windows 10 in der 64-Bit-Ausführung zur Verfügung. Der Treiber kann ab sofort im Download-Archiv von ComputerBase oder bei Nvidia heruntergeladen werden.
hmm.. brauch ich zwar nicht, aber der treiber steht doch auch für 32-bit zur verfügung?
und wo finde ich den download dirkt von CB? alles links führen doch zu Nv?
 
Zurück
Oben