News Steam Hardware Survey Mai 2025: RTX 5060 Ti ist in den Charts, RX 9070 (XT) weiterhin nicht

@Simonte
Ich krieg das Gefühl, dass die steigenden Graka Preise manchen Leuten sogar gefallen!
Frei dem Motto: "Is' teurer, also is' besser!"
Denen geht wahrscheinlich einer ab, wenn sie sich ne Nvidia über 1.000 € bestellen :rolleyes:
Kann doch ernsthaft niemand gut finden, der nicht einen weirden Fetisch hat...
 
  • Gefällt mir
Reaktionen: eXe777, Alphanerd und Simonte
Lupin III schrieb:
Aber das ne 4Jahre alte 3060 besseres encoding als ne 7900xtx macht halte ich für ne steile These, die 3060 kann ja noch nicht mal AV1. Selbst die Arc von Intel waren/sind besser in der Encoding-Quali.
Er hat an der Stelle recht. Der AMD Encoder war - bis jetzt - nicht wirklich auf dem gleichen Level wie der Encoder von Nvidia. Erst jetzt mit RDNA 4 und den neuen Encodern da, kann AMD den Rückstand hier aufholen.

Den aktuell Besten "Encoder" hat jedoch scheinbar Intel. Nur, die Diskussion sollten wir jetzt nicht führen.
 
  • Gefällt mir
Reaktionen: Millennial_24K, ChrisMK72, ElliotAlderson und eine weitere Person
  • Gefällt mir
Reaktionen: Alphanerd
TheInvisible schrieb:
Echt was kann den nicht passen wenn man sich die aktuellen Umsatzzahlen und Peddie Research von 82% Markanteil von Nvidia ansieht? Aja stimmt da ist Steam mit 74% eigentlich zu niedrig noch...
Aktuelle Umsätze ungleich verbaute Karten.
Alphanerd schrieb:
Die hier gezeigten 82% zu 18% glaube ich auch.

Mir geht es hier nicht um die 9070(xt), die habe ich auch mwn nie erwähnt.

Es geht mir nur darum, dass diese Umfrage 0 Mehrwert oder Aussagekraft hat, solange die Methodik unbekannt ist.

ElliotAlderson schrieb:
Und ich halte Alphanerds Anmerkungen auch nur für Scheinargumente. Ihm wird das Ergebnis nicht passen und deshalb sucht er nach gründen, um es nichtig zu reden. Hier hat er dann mal einen validen Punkt gefunden, aber darum geht es ihm nicht wirklich, jedenfalls kaufe ich ihm das nicht ab
Lesen statt schwurbeln.
 
DevPandi schrieb:
Er hat an der Stelle recht. Der AMD Encoder war - bis jetzt - nicht wirklich auf dem gleichen Level wie der Encoder von Nvidia. Erst jetzt mit RDNA 4 und den neuen Encodern da, kann AMD den Rückstand hier aufholen.
Trotzdem ne steile These, dass die 3060 mit 7th-Gen Encoder bessere Ergebnisse liefern, als 7900xtx und wenn das nur akademisch optische Unterschiede sind. Finde das Video von EposVox gerade nicht.
 
Zuletzt bearbeitet:
ElliotAlderson schrieb:
Wenn das so wäre, hätte @DevPandi das wahrscheinlich erwähnt, tut sie ja schließlich auch bei DLSS vs FSR.
Das Thema ist an der Stelle weitaus komplexer und ein Vergleich der Encoder gegen die Upsampler ist zwar möglich, wird der Sache nur nicht gerecht.

Vorsorglich - ich finde das Thema spannend und will antworten, daher mache ich das jetzt auch: Es muss jetzt wirklich zwischen den Rollen unterschieden werden, die ich beschreibe.

Bei FSR gegen DLSS gibt es für mich im ganzen zwei Winkel, wie ich an das Thema heran gehe und je nach diesem Winkel gewinnen die Unterschiede an Bedeutung oder sie verlieren an bedeutung. Spiele ich aktiv ein Spiel, dann gehen die qualiativen Unterschiede zwischen FSR 1/2/3 und auch DLSS 2, 3 und 4 in der Hektik des Spieles unter. Je mehr auf dem Monitor los ist, je mehr ich machen muss, um so weniger achte ich auf die Unterschiede. Es gibt dann Artefakte - vollkommen unabhängig welchen Upsampler man wählt, die störend sein klnnen, während andere Artefakte nicht stören. Wichtig ist dabei auch immer die Ebene, auf denen die Artefakte statt finden. Ein Ghosting im Vordergrund, am besten noch an der Spielfigur oder den Gegner direkt vor der Nase ist echt schlimm. Ob jedoch im Hintergrund irgendwelche Kanten an Pflanzen etwas stärker oder weniger Stark flimmern, ob eine Textur super Scharf nachgestellt wird oder eine feine Linie fehlt? Das verliert in der Hektik an bedeutung. In Cyberpunk kann ich zum Beispiel sagen, dass mich beim Spielen weder FSR 2 noch DLSS 2, 3 und jetzt 4 wirklich enttäuscht hat, gleichzeitig hat mich aber auch keines vollendens überzeugt. Bei bestimmten Kleidungsstücken und dem Motorad zerfallen gefühlt alle Upsampler und das sogar in unterschiedlichen Zoom-Stufen. Das Ghosting an der Motoradscheibe bei FSR 2 wiederum sehe ich und es fällt mir auf, gleichzeitig stört mich das nach einem kurzen Augenblick nicht mehr, weil ich eh den Verkehr beobachten muss. Mir bleibt garnicht die Zeit darüber nachzudenken.

Das Bild dreht sich allerdings, wenn ich mir Gameplay ansehe oder wir in bestimmten Spielen auch eine zwischen Sequenz haben. Man wird dann zum passiven Beobachter und dann sind solche Sachen wie die Kleidungstexturen in Cyberpunk 2077 schnell doch entscheidend und auch wenn alle Upsampler "generell" hier nicht wirklich gut sind, stört mich dann DLSS am wenigsten und kann es noch am besten rekonstruieren. Wenn dann ein Spiel ein Landschaftschwenk hat über einen Wald und es geht nur um die Landschaft gerade, dann fängt man an auch den Blick schweifen zu lassen und wenn dann grobe Artefakte im Hintergrund aufploppen, dann gute Nacht. DLSS ist hier im gesammten dann deutlich besser, weil es wesentlich weniger Problemstellen hat. Ich hab es jetzt auch bei Doom: The Dark Ages gemerkt. Wenn ich Spiele, dann stören mich die Probleme von FSR nicht so sehr, weil es in der Hektik der Kämpfe untergeht und auch der Fokuspunkt auf einer anderen Bildebene ist. In den Zwischensequenzen wiederum, sobald man da die Chancce hat das man sich langweilt und mal die Grafikpracht bewundern will, verliert FSR 3 hier auch wieder gegen DLSS. Keine Frage.

Bei der Diskussion um DLSS und FSR gehe ich immer aus diesen zwei Winkeln heran und habe da eine "gelassene" Stimmung. DLSS ist besser als FSR 1 - 3, keine Frage. Nur wenn ich aktiv spiele, achte ich eher auf andere Sachen.

Bei den Encodern ist dann schon wieder anders. Hier habe ich kein für mich aktive Komponente, ich sehe mir das Bild an und wenn da Artefakte im Vordergrund sind, dann stört es den Bildeindruck. Wenn Artefakte entsprechend groß sind, dann stört es den Bild eindruck. Wenn das Bild dank des Decoders verwaschen ist, dann ist das Bild verwaschen. Das springt einem beim Beobachten immer direkt an. Klar, auch hier gibt es für mich die Regel, dass ich Artefakte im "Hintergrund" nicht so störend finde wie im Vordergrund, nur neigt man bei einem Film eher dazu, auch mal den Blick schweifen zulassen, gerade wenn nichts los ist.

Dazu kommt bei den Encodern noch etwas hinzu, was hier eine Rolle spielt: Die Verwertungskette. Wenn der Encoder auf der GPU schon Artefakte erzeugt, dann werden die in der darauf folgenden Kette immer schwerwiegender. Es entsteht halt eine Kaskade. Und das habe ich selbst auch bei uns auf der Arbeit gemerkt, weswegen für unser Streaming auch eine RTX 30er Grafikkarte verwendet wird.

Klar bekommt man auch aus den RDNA-Grafikkarten "gute" Streams, nur spielt hier dann die gewählte Bitrate eine rolle. Bei Turing, Ampere und auch Ada Lovelace bekommt man ein deutlich bessers Bild als Ausgangsmaterial bei niedriger Bitrate, was gerade für Streams und dann darauf aufsetzend YouTube und Twitch wichtig ist. Und wenn ich bei RDNA für eine "brauchbare" Bildqualität 20 MBit/s benötige und bei Ampere nur 10 MBit/s für die gleiche oder teilweise bessere Bildqualität, dann ist das spätestens im Netzwerk für mich bemerkbar, gerade wenn wir auch mal wieder über einen Mobilfunk-Hotspot gehen müssen, weil wir eine Veranstaltung im freien Übertragen.

RDNA 4 ist hier nun deutlich besser geworden und mit Nvidia auf einem Level, aber Intel hat hier echt noch die Nase ein Stückweit vorne.
 
  • Gefällt mir
Reaktionen: Millennial_24K, Quidproquo77, ElliotAlderson und eine weitere Person
Lupin III schrieb:
Trotzdem ne steile These, dass die 3060 mit 7th-Gen Encoder bessere Ergebnisse liefern, als 7900xtx und wenn das nur akademisch optische Unterschiede sind.
Jetzt kommt natürlich drauf an, welchen Encoder du überhaupt meinst und beziehst dich sicherlich auf dieses Video.

Der springende Punkt, es war eine Momentaufnahme und zu dem Zeitpunkt wurde AMD nur durch OBS unterstützt. Wie sieht es mit anderen Tools? Bietet AMD etwas ähnliches wie die Nvidia Broadcast App? Ohne hier jetzt einzelne Details zu analysieren, selbst wenn AMD hier in manchen Bereichen nachgezogen haben sollte, stellt sich die Frage was "besser streamen" als ganzes bedeutet.
 
Lupin III schrieb:
Streamen tut die Karte schon mal gar nicht, die encodiert!
Man schickt Frames des Spiels, das man gerade spielt, in Echtzeit zu einer Online-Plattform wie Twitch - diesen Vorgang nennt man streamen. Es ist schön dass du gelernt hast, was die Karte beim Streamen genau macht und falls dir dieser mir unbekannte Toralf geholfen hat, tolle Sache.
Lupin III schrieb:
Aber das ne 4Jahre alte 3060 besseres encoding als ne 7900xtx macht halte ich für ne steile These, die 3060 kann ja noch nicht mal AV1
Zum Encoding: die 7900er Reihe hat VCE 4.0 verbaut. Die 2000er und 3000er haben NVENC 7. gen verbaut.

Vergleiche zwichen den 4.0 und den gen 7 Encodern kannst du genügend im Netz finden. Ob große Techseiten oder kleine "Techbros", beim Thema Encoder gibt es eigentlich keine 2 Meinungen: bei den üblichen Rahmenbedinungen zB bei Twitch (AV1 ist immer noch in Beta, "Standard" ist 264 mit niedriger Bitrate) schneidet AMD auch mit VCE 4.0 schlechter ab. Ja, wenn ich frei encode mit AV1 und selbstgewählter Bitrate, ist das nicht ganz so. Aber ich habe ja ausdrücklich vom Streamen und nicht isoliertes Encoden geschrieben...
Lupin III schrieb:
Trust mee Bro! XD
Äh, danke, aber ich glaub eher nicht :P

xexex schrieb:
Dein Link bezieht sich auf die Ada Generation vor zwei Jahren und ist nur bedingt zu was zu gebrauchen.
Jo, ich weiß nicht ob du die Zahlen ähnlich "extrahiet" hast wie die Techseite, aber so oder so: auch bei dir sind 9 von 12 Karten von Nvidia auf dem Bild. Sind natürlich nicht dieselben Modelle wie vor 2 Jahren, aber scheint mindestens genauso Nvidia-dominiert zu sein, no?
Ergänzung ()

DevPandi schrieb:
Nur, die Diskussion sollten wir jetzt nicht führen.
Ha, zu spät :P Aber imho immer noch besser als permanent über MFG, RT usw. zu diskutieren.. Das klappt ja mit beiden Seiten gut genug und wenn nicht, kann man auch ohne immer noch spielen.
 
daivdon schrieb:
ber so oder so: auch bei dir sind 9 von 12 Karten von Nvidia auf dem Bild.
Wie repräsentativ ist denn eine 3050 an vierter Stelle in der Übersicht oder die 3060/12GB an 11ter? Der absolute Sieger eine 7600XT an dritter Stelle? Allgemein mehr GPU Ständer als Grafikkarten?

Natürlich kann man jetzt behaupten, das spiegelt gut den tatsächlichen Markt außerhalb der CB Blase wieder. Selbst fünf Jahre alte GPUs verkaufen sich anscheinend hervorragend, solange der Preis stimmt, während bei CB die Meinung herrscht mit 8GB VRAM kann man gar nicht mehr spielen.

Zu viel mehr taugt so eine Übersicht aber nicht, daraus kannst du auf alles und gar nichts schließen. Die Amazon US Seite ist ähnlich überraschend wie die deutsche, der "Sieger" auch hier 7600XT.
1749030987828.png

https://www.amazon.de/gp/bestsellers/computers/430161031
 
Zuletzt bearbeitet:
DevPandi schrieb:
RDNA 4 ist hier nun deutlich besser geworden und mit Nvidia auf einem Level, aber Intel hat hier echt noch die Nase ein Stückweit vorne.

Am Ende wirds darauf nicht ankommen. Denn längst nicht immer setzt sich die bessere Technologie durch. Sondern die, die verfügbar ist -- also sowohl leistbar als auch am meisten unterstützt...

3dfx.png



Rein aus Konsumentensicht finde ich das aktuell sowieso suboptimal, was mit DLSS vs FSR vs
XeSS abläuft. Hier muss auf lange Sicht ein Standard her, der sich durchsetzt. Völlig egal, welcher das ist. Finde ich zumindest.
 
Zuletzt bearbeitet:
Sennox schrieb:
Anhang anzeigen 1624640
Joa, "Gleichauf" haut doch ungefähr hin, was ist nun dein Punkt?
Bleib bitte bei den PCGH Benches danke
Ergänzung ()

Alphanerd schrieb:
Aktuelle Umsätze ungleich verbaute Karten.
lol wie ignorant kann man eigentlich sein, Diksussion unmöglich
Ergänzung ()

Sennox schrieb:
Die "Wahrheit" tut eigentlich nur in einer Weise weh: In unser aller Geldbeutel!
Jap das sowieso, für einige User hier aber anscheinend auch wo anders
Ergänzung ()

Sennox schrieb:
Denen geht wahrscheinlich einer ab, wenn sie sich ne Nvidia über 1.000 € bestellen :rolleyes:
Kann doch ernsthaft niemand gut finden, der nicht einen weirden Fetisch hat...
Beste Leistung kostet nun mal, ist überall so. Wenn AMD nur bis 5070Ti Performance bietet und auch nicht viel billiger ist hat man nicht wirklich eine Wahl.
 
TheInvisible schrieb:
Echt was kann den nicht passen wenn man sich die aktuellen Umsatzzahlen und Peddie Research von 82% Markanteil von Nvidia ansieht? Aja stimmt da ist Steam mit 74% eigentlich zu niedrig noch...
Alphanerd schrieb:
Aktuelle Umsätze ungleich verbaute Karten.
TheInvisible schrieb:
lol wie ignorant kann man eigentlich sein, Diksussion unmöglich
?
 
DevPandi schrieb:
Dazu kommt bei den Encodern noch etwas hinzu, was hier eine Rolle spielt: Die Verwertungskette. Wenn der Encoder auf der GPU schon Artefakte erzeugt, dann werden die in der darauf folgenden Kette immer schwerwiegender. Es entsteht halt eine Kaskade. Und das habe ich selbst auch bei uns auf der Arbeit gemerkt, weswegen für unser Streaming auch eine RTX 30er Grafikkarte verwendet wird.
Also ich bin damit "aufgewachsen", dass man am besten über die CPU encoden lassen sollte und sich die Wahl eines größeren Modells dort eher lohnt als bei der GPU bzw. nur dafür auf Nvidia zu gehen.
Hat sich das geändert (streame länger nicht) oder ist das nur wieder so ne Glaubensfrage?
Ergänzung ()

TheInvisible schrieb:
Bleib bitte bei den PCGH Benches danke
Äh, was?
Warum sollte ich? Seit wann sind die der Weisheit letzter Schluss?

TheInvisible schrieb:
Beste Leistung kostet nun mal, ist überall so. Wenn AMD nur bis 5070Ti Performance bietet und auch nicht viel billiger ist hat man nicht wirklich eine Wahl.
Über "Beste Leistung" reden wir dabei ja noch nicht mal und natürlich hat man eine Wahl!
Die Preise nerven, keine Frage aber jeder der bei vergleichbarer Leistung eine Nvidia Karte kauft, macht das Problem eher schlimmer und ist Teil dessen!
Ein Monopol nützt nur einem und auch nur dem und zwar dem Monopolist selbst!

Edit:
Mir ist jetzt erst wieder eingefallen was du hier zuvor teilweise kommentiert hast.
Wieso eigentlich diese Missgunst gegen AMD? Wurdest du mal von einem Mitarbeiter dumm angemacht oder dein Mädel ausgespannt?
Aussagen wie "die ach so tolle 9070" oder "die Radeon hatte mal wieder Probleme", zeigen ja klar dass du entweder irgendeinen Hass schiebst oder Nvidia zu lieben scheinst, which one is it?

Bei mir persönlich hat Nvidia einfach mit der 970, dem GPP und jüngst mit dem Versuch der Pressegängelung, verkackt. Ich bin kein AMD Fan aber INtel und Nvidia haben sich einfach selbst disqualifiziert.
Und was ist nun dein Grund am laufenden Band so gegen AMD zu schießen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedDragon83, Alphanerd und Simonte
Sennox schrieb:
Die Breite Masse hat mit dem Duell 480/580 vs. 1060 bewiesen dass sie sich nahezu 100% von Marketing beeinflussen lässt.
Absolut.

Mein Onkel hatte mich zu der Zeit gefragt ob ich ihm einen neuen Computer zusammenbauen kann, mit dem er online mit Headset und TeamSpeak zusammen mit seinen Kumpels gescheit Battlefield & Co zocken könnte.

Er hatte von Hardware absolut keine Ahnung und trotzdem sagte er mir im gleichen Atemzug, dass es unbedingt ein I7 7700K sein muss. Da habe ich nicht widersprochen, da dieser zu dem Zeitpunkt absolut geeignet war.

Das Budget für die Grafikkarte war begrenzt und somit stellte sich für mich nur die
"Radeon RX580 oder GeForce GTX1060?" Frage.

Nachdem ich ihn über die zwei Möglichkeiten aufgeklärt hatte und dabei mehrfach versucht habe ihm zu erklären weshalb die Radeon besser ist, musste es am Ende trotzdem die GeForce werden. :freak:

Der Preis war annähernd gleich und somit wäre die RX580 in allen Belangen die bessere Karte und die bessere Wahl gewesen.

Damals wie heute.. es ist wie es ist. :rolleyes:
 
  • Gefällt mir
Reaktionen: Alphanerd, Simonte und Sennox
@Snoop7676
jep, habe ich in der Form persönlich zum Glück selten erlebt (also bei Leuten die ich ernshat beraten sollte bzw. deren Systeme bestellt habe).
Mittlerweile ist mir meine Zeit zu schade dafür.
Wenn mir heute so ein Fall wie bei dir begegnet, dann lehne ich die weitere Arbeit einfach ab mit Worten wie "Wenn du der Meinung bist, besser zu wissen was du kaufen solltest, brauchst du meine HIlfe ja nicht"
 
  • Gefällt mir
Reaktionen: Snoop7676, Alphanerd, frazzlerunning und eine weitere Person
Snoop7676 schrieb:
Der Preis war annähernd gleich und somit wäre die RX580 in allen Belangen die bessere Karte und die bessere Wahl gewesen.

Damals wie heute.. es ist wie es ist. :rolleyes:
Ja, wenn man selbst Halbwahrheiten verbreitet, weiß man natürlich meistes nicht, dass man Halbwahrheiten verbreitet. In allen Belangen mit gleich mehreren Einschränkungen. Nur eine herausgegriffen.
Screenshot 2025-06-04 135601.png

Sennox schrieb:
Wenn mir heute so ein Fall wie bei dir begegnet, dann lehne ich die weitere Arbeit einfach ab mit Worten wie
Vielleicht auch besser so. Leute wollen IHV agnostisch beraten werden. Oft ist es auch besser selbst zu recherchieren, anstatt andere um Rat zu fragen.
Sennox schrieb:
Das "Alteisen" mischt beim allgemeinen Performancerating immer noch gut oben mit und da Nvidia, für mich seit der GTX 970 Geschichte, sich selbst ins Aus befördert hat, ist es mir auch persönlich egal ob jetzt 3 oder 4 Karten schneller als meine sind.
Um das irgendwie zu verstehen. Du kritisierst die Aktion mit dem schwächer angebundenen Speicherachtel, eine wie auch immer geartete Verbrauchertäuschung oder gar Betrug mittels falscher bzw. unvollständiger Spezifikationen.
Wie stehst du dann dazu, dass AMD mit Matrixkernen auf der 7900XTX warb und dennoch kein aktuelles KI Upscaling unterstützt und die Karte damit um 1-2 Generationen entwertet wurde?
FSR 4 Performance ist in jedem der fünf getesteten Spiele der Redaktion deutlich besser als FSR 3.1 Quality – ja, sogar besser als FSR 3.1 Native
Ist dein Ansatz also AMD alle negativen Moves zu verzeihen, weil Nvidia sich vor 11 Jahren dies leistete?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
Zurück
Oben