Notiz Nvidia: GeForce 391.01 legt um bis zu 7 Prozent in PUBG zu

Dabei seit
Aug. 2009
Beiträge
2.671
#2
Ist zwar nett, aber das Game ist doch eh ein CPU Fresser oder irre ich mich?
 
Dabei seit
Okt. 2007
Beiträge
3.607
#3
Das Spiel ist Software Müll wie ARK und beinahe jeder andere Early-Access Titel
Das Spiel nutzt grade mal 4 Kerne :freak:
Das Spiel bezieht seinen Hardwarehunger aus dem Jenseits.

Is aber auch egal! Hauptsache es gibt eine Xbox und Playstation Version
Achso und neuerdings auch auf Mobiltelefonen (iOS, Android!)

Cash-Cow das ganze.
Und jeder Feiert es ab :D
 
Dabei seit
März 2012
Beiträge
916
#5
Ich hatte ehrlich gesagt nie Probleme mit PUBG, was die Performance angeht.
Zuerst mit Vega56 und dann mit ner 1080.

Aber "gratis Leistungsplus" ist natürlich immer gut.
 
Dabei seit
Dez. 2015
Beiträge
1.197
#6
Das Spiel ist Software Müll wie ARK und beinahe jeder andere Early-Access Titel
Das Spiel nutzt grade mal 4 Kerne :freak:
Das Spiel bezieht seinen Hardwarehunger aus dem Jenseits.

Is aber auch egal! Hauptsache es gibt eine Xbox und Playstation Version
Achso und neuerdings auch auf Mobiltelefonen (iOS, Android!)

Cash-Cow das ganze.
Und jeder Feiert es ab :D

so viel Leistung frisst es jetzt auch nicht
und Ark braucht eigentlich nur auf der Wüsten Map viel Grafik Leistung ( und halt über 11 GB Ram )
 
Dabei seit
Okt. 2007
Beiträge
3.607
#8
Also Ich konnte mit meinem R7 1700 + Vega 56 Locker 96FPS erreichen. AVG... (OC + UV)
... dennoch... Das Game bzw. die Engine ist bisschen oldschool!
 

Palmdale

Lt. Commander
Dabei seit
Apr. 2009
Beiträge
1.572
#9
WoT in 1.0 schaut einfach Hammer haus, allerdings hab ich da eh mehr als 160fps in Ultra und WQHD, da die neue Engine besser programmiert wurde und nicht mehr unterschwellig CPU limitiert arbeitet
 

m.Kobold

Lt. Commander
Dabei seit
Feb. 2002
Beiträge
1.197
#10
Das game ist doch Arma3 nur in billig. Keine ahnung wieso man so ein billig schrott titel hyped, qualität sieht anders aus.

"Die Bessere Leistung in PUBG gilt für die gesamte GeForce-1000-Serie unter Windows 10."

Heißt unterm strich, lief schon vorher auf der selben performance mit Win7.... glückwunsch, lasst die Korken knallen.

Diese ganze nvidia first day experience propaganda, da gibts etliche angebliche optimierung und unterm strich gibts genau die selben fps wie mit den alten treiber und von den latence problemen mit jeder zweiten oder dritten version fange ich am besten erst gar nicht an.
 

MXE

Lt. Commander
Dabei seit
März 2013
Beiträge
1.426
#11
Da meldet man sich extra für dem GF Experience Dreck an weil man es sonst nicht nutzen kann und es zeigt einem noch nicht einmal an, dass es einen neuen Treiber gibt :mad:
 
Dabei seit
Nov. 2009
Beiträge
839
#12
@MXE
bei mir schon.. kurz vor 16.00 uhr, als ich meinen rechner gestartet hatte. :)
 
Dabei seit
Juli 2010
Beiträge
3.747
#13
So wie gefühlt 99% aller Spiele... Wobei auch da ein Teil dabei ist, der nur zwei Kerne effektiv nutzt.

Wer seinen CPU Kauf auf Spiele auslegt, die "vielleicht" irgend wann mal anfangen von mehr Kernen Gebrauch zu machen, dafür aber bei der IPC bzw. aktuellen Spielen einbußen hinnimmt, soll sich nicht beschweren. Jedem steht frei zu kaufen, was er will und die Lage aktuell zeigt ganz klar, dass (meistens) 4 bis höchstens 8 (seltener) Threads in fordernden Spielen völlig normal sind. Die Titel, die mehr Kerne ausnutzen können sind a) fast schon eine Ausnahme und b) ziehen selbst aus 20 Threads keine signifikanten Vorteile gegenüber nen 4 oder 6 Kerner mit SMT.

Ein Game, das also 4 Kerne ausnutzt ist absolut nichts ungewöhnliches und sowas mit nem ":freak:" smiley zu kennzeichnen zeigt nur, wie weit das Wunschdenken von der Realität entfernt liegt.


Es wird vermutlich auch in Zukunft so bleiben, dass Spiele, die nur wenige Kerne nutzen weiterhin in der großen Überzahl sind.
Genauso wie der Leistungsertrag mit zunehmender Anzahl an Kernen überproportional Abnimmt, so wird auch die Zahl bzw. der Anteil der Spiele, die immer mehr und immer mehr Kerne ausnutzen können im Verhältnis zu den Spielen, die wenig kerne nutzen überproportional klein sein.
Kurz: Je mehr Kerne zur Verfügung stehen, desto weniger groß ist der Leistungsgewinn und desto weniger Spiele machen davon gebrauch. Nicht nur wegen geringem Leistungsgewinn, sondern auch wegen dem überproportional steigenden Entwicklungsaufwand bei steigender Anzahl an Kernen. Und das ist ein riesiges Problem. Je mehr Kerne, desto schweirieger das Ausnutzen selbiger. Jedem sollte klar sein, dass man da sehr schnell an einen Punkt kommt, an dems nicht mehr weiter geht.
 
Zuletzt bearbeitet:
Dabei seit
Apr. 2011
Beiträge
130
#14
Dank rivatuner reicht mein 2600k noch immer vollkommen aus, und das mit stock taktraten. :freak: Die gtx 1080Ti kann ich hingegen relativ leicht mit msaa auf 100% treiben. Beispiel wäre R6 Siege in wqhd oder Hunt Showdown wo die Karte ohne Kantenglättung sogar zwische 60 und 75 % ausgelastet ist. Natürlich immer mit 60 fps Limitierung. In world of tanks ist der cpu verbrauch noch geringer und das mit 30 spielern auf der map.
 
Zuletzt bearbeitet:
Dabei seit
Aug. 2017
Beiträge
168
#15
Laggy.NET
Sehe ich ähnlich, darum habe ich mir auch einen 8700K@5GHz@Geköpft@1,26v gekauft, man sah ja wie sich der Phenom2x6 oder die Visheras gehalten haben, bis die ihre Kerne ausspielen können/konnten waren sie schon lange überholt.
 
Dabei seit
Feb. 2007
Beiträge
19.122
#16
Ist zwar nett, aber das Game ist doch eh ein CPU Fresser oder irre ich mich?
ggf API Bottleneck (auf meist einem Thread). Gerade bei weniger guten Engines der Fall. Ergo an dieser Stelle optimieren und man hat die Mehrleistung...

Weil das Game wohl oft über CPU bremst lässt sich da meist über Grafiktreiber was rausholen.
 
Dabei seit
Okt. 2009
Beiträge
533
#18
Kein Bier vor 4?

PUBG läuft auch auf einer R9 270X und ganz lustig ist, dass auch in 2018 kaum jemand 8 Core-CPU´s für Gaming nutzt.

Ich kenne Leute die es sich auf Single Core antun. Hardwarehunger?

Vielleicht das nächste Gehirn an und Bildschirm aus.

​Gruß
 
Dabei seit
Nov. 2009
Beiträge
839
#20
Der GeForce 391.01 trägt das WHQL-Zertifikat und steht für Windows 7, Windows 8 sowie Windows 10 in der 64-Bit-Ausführung zur Verfügung. Der Treiber kann ab sofort im Download-Archiv von ComputerBase oder bei Nvidia heruntergeladen werden.
hmm.. brauch ich zwar nicht, aber der treiber steht doch auch für 32-bit zur verfügung?
und wo finde ich den download dirkt von CB? alles links führen doch zu Nv?
 
Top