News Steam Hardware Survey Mai 2025: RTX 5060 Ti ist in den Charts, RX 9070 (XT) weiterhin nicht

ElliotAlderson schrieb:
Es geht darum, dass AMD aktuell nur hinterherläuft und nichts eigenes bringt.
Und dann wirst du an der Stelle akzeptieren müssen, dass die Fixierung auf RT, DLSS, SER und Co zwar hier in der Bubble durchaus Interesse erzeugt, über diese Bubble hinaus aber nicht das Hauptproblem ist und vermutlich noch nicht mal das Sekundärproblem darstellt, sondern vielleicht ein Tertiärproblem darstellt.

Die meisten PCs wurden seit jeher und immer noch von den OEMs abgesetzt, auch bei den Spiele-PCs. So lang AMD also bei den OEMs in keinen nennenswerten PCs in die Standardkonfiguration einzieht, wird sich das auch nicht wirklich ändern.

AMD kann auf dem Desktop-Markt für sich aktuell knapp 30 % Marktanteil reklamieren, Intel setzt immer noch 70 % ab. Warum? Weil zwar AMD im DIY-Markt stark ist, aber dennoch kaum OEM PCs mit AMD ausgerüstet wird.

Und was beim Marktanteil gilt, gilt verstärkt für die Steam-Hardware-Umfrage. Die "Bedeutungslosigkeit" von der RX 9070 XT hat überhaupt nichts mit den fehlenden Features zu tun oder dass die 5070 Ti "kaum" teurer ist und daher das bessere Angebot. Der Hauptgrund ist ganz einfach: Die RX 9070 XT gibt es in keinem OEM PC, sondern nur im DIY-Markt.

Die meisten Computerkäufer haben überhaupt nicht die Wahl AMD/NVIDIA sowie AMD/Intel, sondern Intel+Nvidia, das war es. Genauso hat es moderne Hardware - also auch die RTX 50er-Serie allgemein - etwas schwerer, weil bei Steam "weltweit" der Markt erfasst wird und damit auch Länder drin sind, in denen sich die Leute in der Regel nur gebrauchte Hardware leisten können und daher auch Hardware von vor 5 - 10 Jahren weiter verwendet wird und die Leute damit spielen.

Ihr versucht hier die Ergebnisse von AMD und Nvidia auf die Features zurückzuführen, kann man machen, ist am Ende allerdings nicht mehr als "Nerddiskussion", die weitgehend aber keine Relevanz hat, weil es überhaupt nicht die Angebote gibt.
 
  • Gefällt mir
Reaktionen: Millennial_24K, Sennox, SweetOhm und 3 andere
TheInvisible schrieb:
Lol werden basics in Statistik echt nicht mehr in Schulen gelehrt oder was ist hier los? Sicher schon der 20. Post hier...
Tjo wenn 20 nun mal der Meinung sind, posten es halt so viele.

Ich habe genug Rechner am laufen, weiß wie oft da die abfrage kam in all den Jahren?
Logisch das man nichts drauf gibt :D Da brauchst mir auch nicht mit irgendeinen Satz von oben herab kommen.
 
  • Gefällt mir
Reaktionen: Alphanerd, Lupin III, Sennox und eine weitere Person
x86 schrieb:
Machen wir uns doch nichts vor. DLSS, FSR4, FG, MFG sind doch nur Instrumente um die stagnierende Rohleistung und höheren Strombedarf der Grafikkarten zu kaschieren.
Du hast es erfasst, fertigungstechnisch geht halt nix mehr weiter. Deswegen muss man andere Wege finden um das auszugleichen.
 
Simonte schrieb:
Deine Beweise waren wo?
DU hast einen nicht belegte Behauptung aufgestellt, nicht ich, ich bezweifle ja nicht die Daten, wenn jemand was beweisen muss bist es nur DU.
Simonte schrieb:
Damit die Konkurenz sich keine Sorgen macht und weiter auf Lorbeeren sitzen darf?
Beweise? Lass mich raten, gibt es nicht, es soll richtig sein weil du es von dir gibst ;-)

Simonte schrieb:
Mich interessiert in wie weit die Zahlen den Wettbewerb beeinflussen in Bezug auf Preisentwicklung und innovation für mich.
AMD bietet immer günstiger an, wenn es dies nicht müsste würden sie es nicht tun, denn es ist genau wie Intel und Nvidia eine börsennotierte auf Gewinn ausgelegte US Firma.
Steam zeigt dir nur die Daten auf, wenn jemand manipuliert sind es eher die großen Hersteller von Notebooks und Fertig PCs, vor allem Intel ist diesbezüglich öfter mit dubiosen Verträgen aufgefallen.

Aber lass stecken, du hast natürlich recht, alles andere wäre bewiesen und Meinungsfreiheit ;-)
 
MikePayne028 schrieb:
Schwachsinn. genauso wurde von den Intel Boys vor paar jahren noch gerantet im CPU sektor. Da ist jetzt fresse dick.
Unsinniger Vergleich, Intel hat sich jahrelang ausgeruht mit ihren 4c CPUs, Nvidia gibt noch immer klar den Takt an in Performance und Features.
 
TheInvisible schrieb:
Haben ja auch beste Leistung und Featureset. AMD kann ja mit dem Preis runter oder endlich mal Features nachliefern
Lol...
Leistung & 5060 (Ti) finde den Fehler
Und wenn du jetzt mit Preis/Leistung kommst, haust du dein Argument nur selbst in die Pfanne ;)
Was für ein "Featureset" eigentlich? Außer MFG fällt mir nichts ein was NVidia liefert, was es nicht auch bei AMD oder generell "open" gibt und wenn ich von offener bzw. freier Software weggehe, fällt selbst MFG weg.
FSR 4 ist DLSS 4 ebenbürtig und da wir hier von der 50er Serie reden, sollte diese mit AMDs 90er verglichen werden.
PhysX haben sie ja quasi selbser abgesägt, was bleibt?
 
  • Gefällt mir
Reaktionen: SweetOhm und LDNV
MikePayne028 schrieb:
Mehr konstruiert geht es nicht?
Dir gehen die Argumente aus Troyan
Wer oder was ist troyan? Ist halt Mal wieder Fakt, ohne HW RT startet das Game nicht.
 
  • Gefällt mir
Reaktionen: MalWiederIch
TheInvisible schrieb:
Noch immer besser als ältere AMD Karten die kein HW RT unterstützen und nicht Mal das Spiel starten können wie bei Doom DARK ages zb während 2060 User noch spielen können
In meinem Hauptrechner ist die 2060S sehr gut gealtert. Mit DLSS4 Performance bekomme ich 50-100 % mehr fps und das Bild sieht immer noch besser aus, als bei einer eigentlich deutlich überlegenen RX 6700/6800, die dafür Nativ FSR3 nutzen müssen und effektiv damit sogar noch Leistung verlieren. FSR4 ist natürlich auch ein Gamechanger, aber nur teure Karten können das aktuell nutzen.
 
K3ks schrieb:
🥴 zum Rest deines Posts.
Es sind doch nur Fakten, nVidia Werbebanner auf der CB Seite aktuell (nicht nur einmal angezeigt) legen das nahe.

Was eigentlich nicht in Full HD mehr testen zu wollen angeht, dazu hat sich ein Teil der CB Redaktion hier oft genug geäussert (obwohl die Steam Hardware Umfrage klar dagegen spricht).

Diese Umfrage dann aber per Artikel als aussagekräftig/relevant für dGPU-Verkäufe hin zu stellen, das ist m.M.n. messen nach unterschiedlichen Maßstäben und nicht wirklich die Glaubwürdigkeit fördernd.

Aus geschäftlicher Sicht CBs (für mehr Clicks) ist es aber durchaus verständlich.
 
  • Gefällt mir
Reaktionen: Sennox und SweetOhm
Europa schrieb:
Aber lass stecken, du hast natürlich recht, alles andere wäre bewiesen und Meinungsfreiheit ;-)
:kuss:
Danke
 
  • Gefällt mir
Reaktionen: SweetOhm
Chuligan schrieb:
Wundert mich nicht. NVIDIA liefert halt immer noch die Karten mit den besseren features. Das Gesamtpaket ist halt einfach besser, vor allem für die Leute die einfach zocken wollen und keinen unterschied sehen wenn sie MFG/DLSS und solche sachen benutzen so wie ich auch.
Dass MFG bei zu geringen realen FPS sich kacke anfühlt, werden auch die "Unwissenden" bemerken.
Sie werden vermutlich nur leider nicht verstehen, dass ihre tolle Nvidia daran Schuld ist..
 
  • Gefällt mir
Reaktionen: Alphanerd, eXe777, SweetOhm und eine weitere Person
Die 5070Ti ist gerade so in den Charts, wie kommt man dann darauf, dass eine 9070 XT drin sein könnte?
AMD hat nen schweren Stand und die Verkaufszahlen sind halt nur nen Bruchteil von dem was NV absetzt.

Die 9070 erwarte ich gar nicht in den Charts zu sehen. Das ist eine Nischenkarte. Von unten wird sie von der 5070 aufgefressen, die mittlerweile für deutlich unter 600 Euro zu haben ist und von oben ist der große Bruder zu nah dran. Da kann die Karte noch so gut sein, aber wenn die da nicht 100-150 Euro vom Preis runter gehen, kauft die keine relevante Masse an Spielern. Bleibt also nur die 9070XT, aber die ist mittlerweile preislich zu nahe an den 5070Ti und noch zu weit weg vom UVP, als das es für den Mainstream Sinn ergibt da zuzugreifen. Man muss leider sagen, dass eine 9070XT im Moment eher ein Überzeugungskauf ist - nicht weil sie ein guter Deal wäre. Wer schon 730 Euro in die Hand nimmt, der kann auch noch nen 100er drauf legen und hat dann vielleicht kein gleichwertiges Customdesign, aber auf jeden Fall grundsätzlich die besser Karte.
Das ist leider so - und das von mir, wo ich selbst gerade erst bei der 9070XT zugeschlagen habe.

Langsam glaube ich auch nicht, dass es AMD wirklich darum geht Marktanteile zurück zu holen, dafür fährt man zu wenige Kampflinie. Man hatte diesmal einfach richtig Schwein, dass NV die Messlatte mit dieser Gen nur einen Mü angehoben und Probleme mit der Verfügbarkeit hatte. Wäre Blackwell ein Performance-Step wie Ada geworden, hätte AMD gar kein Land gesehen.
 
DevPandi schrieb:
Welche Antwort willst du darauf haben? Ich hab da ein paar Antworten parat.
Naja, deine Antworten sind wieder einmal erstaunlich dünn und ergießen sich in Nebenkriegsschauplätzen.
DevPandi schrieb:
Gehe ich an die Sache mit DLSS und FSR "professionell" heran und analysiere die "Bildqualität", dann gewinnt DLSS in der Regel und AMD hat mit FSR 4 viel zu lange gebraucht und auch aktuell zu wenig Spiele, wo FSR 4 drin ist.
Und irgendwann dringt dann das was "professionell" bewertet wurde auch bis zum letzten Mohikaner durch und den Unterschied in der Bildqualität zwischen FSR1 und DLSS 4 sieht man dann auch auf einem 4 Zoll Handybildschirm.
DevPandi schrieb:
Klar, wir können jetzt über Bildstabilität, Detail-Rekonstruktion, Bildschärfe und Co diskutieren und dann wird da DLSS gegenüber FSR1 - 3 sowie XeSS als Sieger hervorgehen, am Ende ist mir das beim Spielen aber herzlich egal.
Dass es dir egal ist wenn Nvidia besser ist, nicht aber wenn AMD besser wäre, hat man doch schon oft genug gehört, du musst das nicht immer wieder bestätigen. Apropos "heiße Luft" und so.
DevPandi schrieb:
Mein Wunsch wiederum wäre, und da bin ich auch ehrlich: Nvidia, AMD, Intel und MS tun sich zusammen und entwickeln im DirectX 12 einen "generellen" Upsampler, der auf Trainingsdaten aller drei Hersteller zurückgreift und auch auf allen drei Anbieter gleichwertig funktioniert.
Bitte nicht, wo bliebe dann die gegenseitige Konkurrenz und der Ansporn etwas zu entwickeln, wenn alles gleich funktionieren soll. Niemals...
 
  • Gefällt mir
Reaktionen: MalWiederIch
TheInvisible schrieb:
ohne HW RT startet das Game nicht.
Und das ist jetzt Schuld vom Grafikkartenhersteller oder vom Spieleentwickler?
Ich glaube du hast dich hier in Schei*e geredet..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd und SweetOhm
TheInvisible schrieb:
fertigungstechnisch geht halt nix mehr weiter.
Langsamer ist halt nicht 0, aber vlt. kommen ja in Zukunft noch andere Materialien und das Rennen beginnt von vorn. ^^
Und klar, mit unserem heutigen Physik-Verständnis sind die Grenzen vlt. näher als sie es dann in der Zukunft sein werden, schade dass ich die PCs in 1000+ Jahren 😍 nicht mehr erleben werde.
 
  • Gefällt mir
Reaktionen: Alphanerd

Anhänge

  • PL RR.jpg
    PL RR.jpg
    230,1 KB · Aufrufe: 49
  • PL RT.jpg
    PL RT.jpg
    247,1 KB · Aufrufe: 49
  • Gefällt mir
Reaktionen: Alphanerd
Es fehlen weiterhin: Radeon RX 9070 und 9070 XT.
Ich gehe weiterhin von aus, das es ein auslese Fehler von Steam ist.

1748954430148.png


Die 9070 XT wird als AMD Radeon RX 7800 XT erkannt.
Die echte RX 7800 XT ist fast 2 Jahre alt, gibt es aber erst seit 2 Monaten in den Steam Hardware wie die RTX 5070 Ti.
 
  • Gefällt mir
Reaktionen: jo0, Alphanerd, CuMeC und 2 andere
TheInvisible schrieb:
AMD kann ja mit dem Preis runter oder endlich mal Features nachliefern
Würde wenig bis nix ändern.
Die Breite Masse hat mit dem Duell 480/580 vs. 1060 bewiesen dass sie sich nahezu 100% von Marketing beeinflussen lässt.
Die Radeon war das objektiv bessere Produkt, trotzdem hat sich die GTX ca. um den Faktor 10 öfter verkauft.
Einige wurden sicher auch von Freunden/Verwandten "beraten" welche auch nur Grün gesehen haben.
Selbst wenn AMD ein gutes Stück günstiger war, geht es mit Marktanteilen seit 2010 2014 stetig bergab und das lag nur in Ausnahmen an den Produkten (wie z.B. Vega).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676, Alphanerd, SweetOhm und eine weitere Person
MikePayne028 schrieb:
Vllt kriegt man überall nicht mehr so viel OC (im Verhältnis) wie früher hin, da die meisten Karten schon an der kotzgrenze sind, aber bei der 9070XT und 5080 geht wohl schon bissl was (hab die XFX Mercury Gaming OC 9070XT).

Ja, stimmt die 9070 non XT ist auch effizient^^

Auch wenn NV paar % besser komprimieren kann, echten (V)RAM ersetzt nichts!
Ich sehe es ja an den 1060 6 GB oder 3080 10 GB Krücken.
Analog jetzt die 5060 oder 9060 mit 8GB bzw die 5070 mit 12GB. Bei Release sind die VRAM beschnittenen Nv Karten minimal schneller, in wenigen Jahren wg VRAM Mangel hinterher. Ist ja nix neues.
Ich mache OC und UV bei CPUs und GPUs auch noch, quasi aus Prinzip. Warum auch nicht? Die Sprünge sind zwar nicht mehr so wie früher (eher kleine Hüpferchen), aber es ist auch deutlich einfacher und risikoloser geworden.

Zudem brauche ich das Gefühl, mein System perfekt optimiert zu haben, mehr als die paar FPSs und Watt, die ich am Ende gewinne bzw. spare. Wenn ich bei 3D Mark nicht mindestens mit meiner Konfiguration in die Top 100 komme, ist der neue PC bzw. das Upgrade einfach "unfertig"😉
 
  • Gefällt mir
Reaktionen: Sennox und SweetOhm
NEO83 schrieb:
An dem WQHD Monitor hingegen würde ich es nicht nutzen, also weder DLSS4 noch FSR4 weil mir zum einen die Renderauflösung dadurch zu niedrig wird und zum anderen weil ich es dort optisch einfach nicht mehr ansehnlich finde, ausser auch hier wieder nur im nativen Modus sofern es ihn denn gibt ...
Ab FSR4/DLSS4 soll es sich angeblich sogar lohnen schon ab FHD einzuschalten. Av 4k, (qhd) soll es, wen man AA dazunimmt, sogar besser als die Nativ Auflösung aussehen. Sprich 4k soll es überhaupt keienn sinn mehr machen, native 4k zu betreiben, da es schlechter aussieht, als DLSS4k. Man darf nicht vergessen, in DLSS stecken halt auch 8k Metadaten drinnen und man spart sich klassisches Post AA, welches mittlerweiel einfach "Outdatet" wäre.

Und wärend es bei FSR3/DLSS3 wirklich noch so war, das es überhaupt keinen sinn machte das auf FHD zu nutzen, soll es angeblich selbst da mitlerweile auch da lohnen. Ist vermutlich auch geschmacksache und vom Titel abhängig. FSR3 ist mir halt oft einfach viel zu rauschig.... "instabil"... und wen das nur "feiner" werden würde, nicht absolut verschwindet, auch bei höheren auflösungen, würde ich es wohl auch lieber deaktiverit haben. Mir fehtl da noch die eigenerfahrung.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Xes
Zurück
Oben