News Steam-Hardware-Umfrage: AMD erreicht neuen Rekord, Intel verliert weiter an Boden

Anderster schrieb:
Auszug
While MFG works well at higher frame rates and in simpler environments, its artifacting becomes increasingly noticeable at lower base render rates, such as 30 to 120 FPS.

Wow, wenn man nur 30 Basis FPS hat, gibts Artefakte, wenn man die verfierfacht. Ist ja nicht so dass sowohl AMD als auch NVIDIA so eine Basis Framerate für FG nicht empfehlen.

Hat halt nix mit FG von 60 auf 120 oder gar von 120 auf 240 oder MFG von 60 auf 240 zu tun.

Der Artikel behandelt zu 90% Szenarien die nie so genutzt werden, die meiste Zeit wenn daraus hier was zitiert wird, ist es der tolle Vergleich dass 120 native FPS inkl. Reflex ne geringere Latenz haben als die 120FPS als Limit zu behalten aber MFG4x zu nutzen.
Ja wow, herzlichen Glückwunsch, das tut nur in der Praxis niemand
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
@K0ntextlos:
Ja, man kann sich immer Scheuklappen aufsetzen und die Realität ignorieren.

@Taxxor:
Genau, immer nur das zitieren, was man auch lesen will.
Unfortunately, some of these issues are so noticeable that they can make the game look quite ugly and hurt the gaming experience, even if they only crop up occasionally.
Hohe native FPS will man halt vor allem auch, da sie die Latenz reduzieren. MFG Frames erzeugen Latenz und erreichen das Gegenteil. 240 MFG FPS haben mehr Latenz als native 60 FPS. Eh toll, wenn etwas nach 240 FPS aussieht, sich aber schlechter als 60 FPS anfühlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777 und LDNV
Intel hat immer noch viel zu viel Marktmacht, das muss schnell anders werden.
 
  • Gefällt mir
Reaktionen: eXe777 und ram2k
Anderster schrieb:
240 MFG FPS haben mehr Latenz als native 60 FPS.
Wenn man bei den nativen 60 Reflex aktiv hat, das wird halt immer so als gegeben angenommen, daher gilt das nur wenn man ne NVIDIA Karte hat.
Ansonsten haben Nvidias 240 MFG FPS ne geringere Latenz als AMDs native 60 ohne AntiLag2.

Und ich schließe mich hier auch @K0ntextlos an, ich hab noch in keinem Spiel persönlich irgendwelche Artefakte mit FG bemerkt und ich nutze es sogar nur von 40 auf 80 oder auch mal 45 auf 90 FPS
 
  • Gefällt mir
Reaktionen: Quidproquo77
Und warum würde ein Nvidia-User bei nativen FPS kein Reflex verwenden? Fakt ist, MFG erzeugt Latenz und und lässt die vermeintlich höheren FPS trotzdem träger wirken als den nativen Ausgangspunkt.
 
Anderster schrieb:
Und warum würde ein Nvidia-User bei nativen FPS kein Reflex verwenden?
Ich nutze es z.B. nicht ohne FG, weil es den Verbrauch erhöht und ich dafür keinen Unterschied merke ob ich nun 50ms oder 30ms Latenz habe.
Wenn Reflex sie dann auf 30 senkt und FG sie auf 45 anhebt, bin ich halt immer noch niedriger als das womit ich vorher schon keine Probleme hatte.

Außerdem ging es bei der Aussage in erster Linie um den Vergleich mit AMD:
Wer sagt, die Latenz sei mit (M)FG zu hoch, und man bräuchte unbedingt die Latenz die nativ mit Reflex anliegt, der könnte mit einer AMD Karte überhaupt nicht spielen, sofern das Spiel kein AntiLag2 implementiert hat, denn deren Latenz liegt nativ dort wo FG mit Reflex liegt
 
Zuletzt bearbeitet:
Kann mich nicht daran erinnern jemals so eine Umfrage erhalten zu haben.
 
Ich hab tatsächlich alleine seit Ende 2022 als ich die 4090 gekauft habe, schon 3 Umfragen erhalten.
Aber auch jede Karte davor die ich länger als 12 Monate drin hatte, hat es mindestens einmal in ne Umfrage geschafft.
 
blackiwid schrieb:
ja das keiner UHD benutzt für Gaming ist eine Sache oder wenige, aber das sie deshalb das extrem beschissene 1080p benutzen die Mehrzahl ist auch unrealistisch
Wtf? Auflösung kommt ja wohl sehr stark auf die Monitorgrösse in Kombination mit der Entfernung des Benutzers an.

Ich bin gerade wieder von 27"-WQHD runter auf 24"-FullHD. Daran ist nichts "beschissen". Ist völlig OK. Gut. Monitor ein bissi kleiner, aber ich hab angefangen zu gamen, als CRT Monitore VGA Auflösung hatten.

Mir wäre 27 Zoll mit 2K wären mir lieber aber ich bezahle nicht die aktuellen nötigen Karten, damit UE5 Games dort sicher auf 60 Hz laufen. Also gibt's n downgrade. Und ich rate aktuell allen ab, auf mehr als 2k zu gehen, die keine totalen Enthusiasten sind.
Ich finde es ja OK dass Du ein Enthusiast bist. Aber die Intensität mit der Du und andere behauptet, die Wahrnehmung für hunderte von Mio Menschen bestimmten zu können, finde ich dann doch ein wenig "too much". Schalte einfach einen Gang runter. Wenn viele andere Deinen Enthusiasmus nicht teilen, ändert das doch nix an Deinem Spaß. Oder?
 
  • Gefällt mir
Reaktionen: MilchKuh Trude, LDNV und Organix
Booth schrieb:
Mir wäre 27 Zoll mit 2K wären mir lieber aber ich bezahle nicht die aktuellen nötigen Karten, damit UE5 Games dort sicher auf 60 Hz laufen. Also gibt's n downgrade. Und ich rate aktuell allen ab, auf mehr als 2k zu gehen, die keine totalen Enthusiasten sind.
Erstmal vorab, 2K ist alles was eine horizontale Pixelzahl von ca 2000 hat, dzu gehört 1920x1080, du meinst damit aber vmtl 1440p.

Die Thematik hat sich seit Upsampling doch sowieso erledigt und es gibt absolut keinen Grund mehr auf 1080p zu gehen, wenn 1440p + Quality Upsampling die gleiche Performance bei besserem Bild als native 1080p bieten.
Und das zieht sich nach unten immer weiter durch, 1080p mit Quality Upsampling sieht schlechter aus als 1440p mit Performance Upsampling.
 
Zuletzt bearbeitet:
Intel hat sich nun mal ausgeruht. Nun kommt die Strafe. Sobald Intel den "X3D" Cache einführt kann sich das wieder ändern.
 
Booth schrieb:
Ich bin gerade wieder von 27"-WQHD runter auf 24"-FullHD
Wer benutzt heute noch 24"? Ja ich hab auch mal so angefangen aber meine Augen waren mit 10 auch besser als Heute und haben noch mehr Abuse aus gehalten. Hatte auch so nen Grünen Monitor noch gesehen... Deshalb will ich da trotzdem nicht zurück.

Das einzige argument gegen große Monitor ist das selbst mit Monitorärmen bei Dualhead es schwierig wird die sinnvoll aus zu richten wenn man beide benutzen will. Aber unter 27" wäre für mich Folter selbst 27" find ich schon schwierig.
 
zeedy schrieb:
Ich bin seit 20 Jahren Steam Nutzer und wurde insgesamt 3 oder 4 Mal gefragt, ob ich zur Hardware Umfrage beitragen möchte. Im Detail sind für mich sind diese Statistiken daher bedeutungslos und deuten bestenfalls eine Tendenz an.

q3fuba schrieb:
Die Umfragen werden viel zu selten gemacht und sind somit sehr realitätsfern oder einfach nur alt!
Steam wählt bei der Umfrage eben zufällig die Kandidaten aus. Solange genug aktive User jeden Monat gefragt werden, reicht das für ein akkurates Ergebnis, selbst wenn einige Leute die Umfrage ablehnen. Nur weil du lange nicht mehr dabei warst, muss die Umfrage nicht realitätsfern sein. Ich wurde auch noch nie für irgendeine repräsentative Umfrage ausgewählt, dennoch zweifle ich deren Ergebnisse nicht per se an.

Ich fände es auch besser, wenn alle aktiven Steam-Accounts jeden Monat herangezogen werden würden, aber wenn man an die Jammerkommentare und Empörungen beim Origin-Client zurückdenkt, an den Aufschrei beim Playstation-Account für Sony-Spiele (wie unsinnig der auch bei Singleplayer-Spielen sein mag) und vielen weiteren Gegebenheiten, dann würden "die Gamer" auch die Mistgabeln spitzen, wenn Steam auf einmal von allen Accounts die Hardware abfragen würde.
 
  • Gefällt mir
Reaktionen: LDNV
Rotznase6270 schrieb:
Der Steam-Survey ist doch immer nur eine Stichprobe der Rechner, die mit Steam verbandelt sind. Aussagekräftiger wäre die gleichzeitige Erfassung aller Rechner. So unterliegt die Abfrage einfach Schwankungen, die bei der nächsten Abfrage bereits wieder anders aussehen kann. Das ist schon zu sehen an den verwendeten Win10/11-Versionen, welche Schwankungen durch die Abfrage auftreten.
Ich finde die Statistik sehr aussagekräftig, da sie von genau der Gruppe der Spieler kommt, die sie befragt und die das Ergebnis wissen möchten. Mich interessiert es nicht, welche xPU in den Workstations oder Bürorechner der Firmen stecken, die eh nie bespielt werden.
 
  • Gefällt mir
Reaktionen: Quidproquo77, xexex und anexX
AYAlf schrieb:
Intel hat immer noch viel zu viel Marktmacht, das muss schnell anders werden.
Gut für die Kunden wäre wenns ausgeglichen wäre - dann versuchen sie sich ständig gegenseitig zu unterbieten, was natürlich gut für des Kunden Brieftasche wäre. :p
 
Taxxor schrieb:
Erstmal vorab, 2K ist alles was eine horizontale Pixelzahl von ca 2000 hat, dzu gehört 1920x1080, du meinst damit aber vmtl 1440p.
Ich habe zuvor WQHD als Begriff verwendet und dachte somit, insbesondere unaufmerksame Brüder im Geiste, also extreme Klugscheißer wie ich, würden kapieren dass ich 2k als Begriff wie die allermeisten verwende. Na gut... es taucht dann immer ein noch größerer Klugscheißer auf. Glückwunsch. Den Rest Deiner Klugscheißerei ... ähm ja... super. Nur... ich nutze kein Upsampling auf Grund der RDNA2-Grafikkarte.

blackiwid schrieb:
Wer benutzt heute noch 24"? Ja ich hab auch mal so angefangen
Und noch jemand, der denkt, er wäre der Mittelpunkt des Universums. Ich habe übrigens mit 14" angefangen. CRT.

Um auf Deine Frage zu antworten: Sehr, sehr viele. Millionen!
Und für Dich noch viel verstörender: Viele davon sind zufrieden damit!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Man sieht viele Effekte. Wandel ist halt langsam. Aber AMD ist derzeit klar konkurrenzlos mit den X3D Chips. Wenn jemand einen Rechner baut, ist die Empfehlung fast immer einen davon zu nehmen. Zen 6 erhöht weiterhin Takt und IPC, also kann man erwarten, dass AMD vorerst Intel überholen wird.

Bei den Grafikkarten finde ich tatsächlich erst RDNA4 konkurrenzfähig. Das reicht nicht, um mal eben nen Trend umzukehren. Aber zum einen könnte es der Beginn eines Wendepunkts sein, wenn RDNA5 weiterhin liefert und Nvidia nicht, oder zu teuer bleibt (sehe ich skeptisch. RTX4000 auf RTX5000 war die gleiche Fertigung, RTX6000 wird wahrscheinlich nen Satz nach vorn machen).

Eine andere spannende Möglichkeit für AMD: wenn genug CPUs in Notebooks sind, tauchen die integrierten GPUs in zB der Steam Survey auf. Alle Hersteller wollen den realen Markt bedienen, werden also da besser optimieren, wenn mehr die Verteilung näher sn 50:50 kommt, als aktuell. Und ist man als Standard erst akzeptiert, trauen sich Notebookhersteller wieder mehr AMD GPUs zu verbauen. Weil man keinen Exoten mit schlechtem Treibersupport mehr hat, sondern etwas etabliertes.

Spannende Zeiten für AMD.
 
ultravoire schrieb:
Wahrscheinluch hälts sich Intel überhazpt so gut, weil sie den OEM Markt witzigerweise immernoch beherschen.
Also erstens… was ist daran jetzt witzig?

Zweitens - es ist eine absolut logische Konsequenz aus der Tatsache, dass Intel mit vielen Partnern wie HP, Dell, Supermicro, Fujitsu etc.pp. jahrzehntelang dauernde Verträge abgeschlossen hat, die AMD Produkte benachteiligen und zum Teil dafür sorgen, dass Hersteller die funktional besseren Produkte auf Intel Basis anbieten müssen, obwohl es auf AMD Basis mindestens ebenso gut, wenn nicht besser funktioniert hätte. Wobei Bestandteil dieser Verträge ist es natürlich nicht explizit AMD zu benachteiligen, sondern andersherum - Intel zu bevorteilen. Aber die Konsequenz daraus ist eben, dass AMD und auch andere Hersteller benachteiligt werden. Natürlich war hier Teil des Deals, dass Intel sich an der Entwicklung von Systemen beteiligt hat und Systemhersteller entlastet wurden. Allerdings konnte Intel hier sich auch alles so zurechtformen, wie es Ihnen passte. Es war also damals eine Win-Win Situation für alle, von der auch vor allem Intel lange zehren konnte.

Wer das nicht glaubt, hat Pech, sollte sich vielleicht einfach mal erkundigen.

Diese Verträge laufen jetzt langsam aber sicher aus. Daher kommt auch ein Teil des Wandels im HPC Bereich.

Natürlich gibt’s auch viele andere Gründe dafür, zum Beispiel weil AMD Prozessoren einfach schneller und effizienter sind und die Kunden das natürlich wissen. Aber nachwievor gibt’s in gewissen Bereichen leider immernoch die funktional besseren Produkte mit Intel - was mich ehrlich gesagt ziemlich nervt.

Im Desktop/OEM/Laptop Bereich wird dieser Wandel auch nicht mehr viele Jahre dauern…
 
Booth schrieb:
Mir wäre 27 Zoll mit 2K wären mir lieber aber ich bezahle nicht die aktuellen nötigen Karten, damit UE5 Games dort sicher auf 60 Hz laufen. Also gibt's n downgrade. Und ich rate aktuell allen ab, auf mehr als 2k zu gehen, die keine totalen Enthusiasten sind.
Seh ich genauso. Ich habe aber das Problem dass ich mit dem gleichen Monitor auch arbeite.
Bedeutet, ich brauche zum Arbeiten am Laptop PD mit mindestens 65w und eine hohe Auflösung. Zum Zocken hätte ich lieber FHD. Aber zwei Monitore sind keine Option.
 
Booth schrieb:
Nur... ich nutze kein Upsampling auf Grund der RDNA2-Grafikkarte.
Bei der FSR3/XeSS/TSR in 1440p zwar schlechter aussieht als native 1440p, aber immer noch besser als die nativen 1080p, auf die du gewechselt hast.
 
Zurück
Oben