Test GeForce RTX 5060 im Test: Der attraktive Preis gleicht die Nachteile nicht aus

Paladin301 schrieb:
Eben nicht. Wenn AMD eine 8 GB Karte veröffentlicht, ist der Ton hier erheblich gemäßigter.....
Ich denke das liegt daran, dass man dem gebeutelten Unternehmen AMD so etwas eher verzeiht als einem raffgierigen Manchesterkapitalismus-Laden wie Nvidia.
Im Prinzip so, wie wenn im Lidl ein Penner eine Dose Cola klaut oder ein Porsche-Fahrer im Anzug. Wem verzeiht man das wohl eher?
Ergänzung ()

pacifico schrieb:
Du vergisst das wir drei Jahre Inflation von in jeweils acht Prozent hatten. Die jährliche Inflation addiert sich:-(

Mit der Kaufkraft von 2019 würde die Karte exakt den Preis erhalten den du forderst.

Oder mit anderen Worten gesagt. Deine 330 Euro sind dank Inflation nur noch 220-250 Euro wert.
Dieses Inflationsmärchen ist auch so ein Running Gag.
Die statistische Inflation ist ein durchschnittlicher Warenkorb eines Durchschnittsbürgers, wo bestimmte Waren wie Heizöl, Gas, Benzin, .. signifikanter beachtet werden. Wenn also die Preise für Mikroskope um 50% sinken, die Preise für Benzin aber um 2% steigen, steigt die statistische Inflation trotzdem an.
Grafikkarten sind nichts, was separat geführt wird. Meiner Erinnerung nach wird das allgemein unter "Elektronik" zusammengefasst. Nun haben wir den Fall, dass bspw. Fernseher seit Jahren gar nicht teurer, teils sogar billiger, werden.
Also nein, die statistische Inflation ist keine Rechtfertigung für die Abzockerpreise bei Nvidia und auch AMD (wenn da auch in geringerem Maße). Besonders bei Nvidia muss man sich nur den Stückgewinn pro GPU anschauen. Dieser Earnings After Taxes (EAT) nach Abzug der Ertragssteuer ist gigantisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wynn3h
@Wolfgang

Danke mal wieder für den ausführlichen Test und Deine Einschätzung zum Produkt. 🙏
Zwei Typos sind mir aufgefallen.

a)
"Während des Spielens kommt diese mit dem Quiet-BIOS auf 33 Dezibel..."
"Mit dem werksseitig aktivem Performance-BIOS wird es nur geringfügig lauter, 1 Dezibel mehr und damit 44 Dezibel lassen sich messen."
33 + 1 = 44 :daumen:

b)
"FPS/Euro (Stand 15.01.2025)"
Veröffentlichungsatum des Artikels - 02.06.2025
 
blauescabrio schrieb:
Sicher, aber zu welchem Preis? Um den geht es ja den meisten Kommentatoren.
Das sollte Jeder für sich selbst Entscheiden. Ich habe mir für 189€ eine Radeon Pro W5700 gekauft weil es bis 400€ nix vernünftiges gab.
 
Attraktiver Preis? Für 8GB?? 2017 gab es 8GB Grafikkarten für 300-350€

150-200€ wären angemessen
 
  • Gefällt mir
Reaktionen: Bänki0815
Entrovis schrieb:
Attraktiver Preis? Für 8GB?? 2017 gab es 8GB Grafikkarten für 300-350€


2017 gab es letztmals Grafikkarten für 100-120€. Und die gutbürgerliche Sorgenfrei-Mittelklasse für Gaming ohne größere Kompromisse für 300 Euro statt für 600+.

Willkommen in der Gegenwart. ;)



Weiß aber trotzdem selbst als Sparfuchs seit ca. der GeForce 4-Ära nicht, was eindeutig besser für den Geldbeutel war.

Die Stagnation führt dazu, dass man nicht gezwungen ist, ständig upzugraden -- selbst fünf bis zehn Jahre alte Spiele daddeln sich noch sehr fein. Und auch aktuellste Games werden im Kern für fünf Jahre alte Mittelklasse-Hardware entwickelt, sprich Konsolen. Zudem spiegelt der überhitzte Neumarkt den Gebrauchtmarkt. Letztens eine fast acht Jahre genutzte Einstiegs-Karte für Geld verkauft. Zu GeForce-4-Zeiten hätte ich Geld draufzahlen müssen, damit sich jemand einer Dekade alter Hardware erbarmt. :D
 
Zuletzt bearbeitet:
Leistungsfähige Grafikkarten, die die jeweils aktuellen Spiele in voller Pracht flüssig wiedergeben, waren schon immer teuer. Das ist seit der ersten 3dfx Voodoo so. Die kostete knapp 400 DM, also in etwa so teuer wie ein Pentium 200 MMX, der damals die Top CPU war. Forsaken oder GTA in voller Pracht zu spielen, war auch damals schon nicht für billig zu haben.
 
@blauescabrio Die absoluten Topmodelle warens immer, ja. Die brauchte man aber nicht zwingend. Hatte für meine Voodoo 1 (die MiroHiscore mit 6MB statt der üblichen 4) auch über 400 hingelegt. Die V2 übersprungen -- und dann für 200-250 Mark die Voodoo 3 2000 genommen.... die war da das "Budget"-Modell, aber trotzdem quasi gleichauf mit zwei V2 im SLI.

Aber wie gesagt: Die V1 mag ich zwar für über 400 Mark gekauft haben. Aber 1-2 Jahre später war sie, wenn überhaupt, noch die Hälfte wert... Und hatte arg zu kämpfen, aktuelle Games überhaupt zu spielen. Auch die Voodoo 3 war bei mir nach zwei Jahren schon wieder draußen. Und die GeForce 4 Ti 4200 hatte ich mir 13-14 Monate nach Launch für 99 Euro gekauft (NEU). Auch da war der Nachfolger schon wieder zur Stelle -- und ließ die Preise purzeln. Denn die 4200er launchte für ~250. Deshalb ist es nicht so eindeutig zu bestimmen, was teurer war. Bei der tatsächlichen Abrechnung gehören Wertverlust und Nutzungsdauer nämlich zwingend dazu. :)

Persönlich hatte ich bis heute nie wieder so viel Geld in Hardware gesteckt wie zwischen 1987 (erster Heimcomputer) und Mitte der 2000er Jahre. Aber das hat neben den angesprochenen Faktoren auch was mit geändertem Nutzungsverhalten zu tun.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz
Ich habe Voodoo 1 erst gekauft, als man sie bei Vobis für 139 DM bekam und den Pentium 200 MMX für 200 DM, Forsaken gab es dann irgendwann auf der Heft-CD der Computerbild. Zum Launch konnte ich mir das alles schon damals nicht leisten.
 
ErnstHaft99 schrieb:
Dieses Inflationsmärchen ist auch so ein Running Gag.
Die statistische Inflation ist ein durchschnittlicher Warenkorb eines Durchschnittsbürgers, wo bestimmte Waren wie Heizöl, Gas, Benzin, .. signifikanter beachtet werden. Wenn also die Preise für Mikroskope um 50% sinken, die Preise für Benzin aber um 2% steigen, steigt die statistische Inflation trotzdem an.
Grafikkarten sind nichts, was separat geführt wird. Meiner Erinnerung nach wird das allgemein unter "Elektronik" zusammengefasst.

ASo, weil Grafikkarten in einer Statistik nicht explizit ausgewiesen werden, kann es keine Preissteigerungen geben?

Desweiteren macht es wenig Sinn die Preise verschiedene Produkte zu unterschiedlichem Zeitpunkten zu Vergleichen.

Bzw bekommen wir seit Jahren zu lesen das TSMC der einzigen Hersteller von GPU Chips ist. Zeitgleich liest man man regelmäßig das TSMC mal wieder die Preise erhöht hat.

GGf überdenkst du deine Argumentation noch einmal.
 
pacifico schrieb:
ASo, weil Grafikkarten in einer Statistik nicht explizit ausgewiesen werden, kann es keine Preissteigerungen geben?


GGf überdenkst du deine Argumentation noch einmal.
Habe ich nicht geschrieben, sondern nur, dass man aus der durchschnittlichen Inflation eine Steigerung der GPU-Preise nicht ableiten kann. Daher muss ich mein Argument nicht überdenken.
 
@ErnstHaft99 Naja sobwie du das machst, kann jeder das Ergebnis in Frage stellen wenn es nicht zusagt.

Die Diskussion über den Warenkorb mit dem man Inflation ermittelt ist so alt wie der Warenkorb selbst.

Da TSMC in den letzen Jahren mit jedem neuen Node deutlich höhere Preise aufgerufen hat, lässt es sich nicht wegdiskutierm das die Ursache für teureren GPU nicht bei AMD oder Nvidia verortet ist ,sondern bei TSMC.

Das wollen zwar vielen Leute nicht einsehen weil ihnen das nicht in ihr Weltbild passt. Ist aber so

Die Kings im Chipgeschäft sind nicht die Auftraggeber der Chips sondern die Foundries du selbige produzieren
 
Der Stückgewinn ist auch ordentlich gestiegen. Das ist nunmal die Wahrheit. D.h. die Preise wurden deutlich stärker erhöht, als der Aufschlag bei TSMC es hätte nötig gemacht.
 
Weils so schön passt :lol:

 
  • Gefällt mir
Reaktionen: Quidproquo77 und Svennc
ErnstHaft99 schrieb:
Der Stückgewinn ist auch ordentlich gestiegen. Das ist nunmal die Wahrheit. D.h. die Preise wurden deutlich stärker erhöht, als der Aufschlag bei TSMC es hätte nötig gemacht.
Hast du eine Quelle oder glaubst du lediglich das sich alle "die Taschen" vollstopfen?
 
„AMD Radeon R9 390(X): 8 GB VRAM für 340 Euro werden heute 10 Jahre alt“ - einfach nur traurig!
 
Entrovis schrieb:
„AMD Radeon R9 390(X): 8 GB VRAM für 340 Euro werden heute 10 Jahre alt“

Wobei: Sechskern-Prozessoren sind so schimmelig, die erinnern sich noch an den VfL Wolfsburg als deutscher Rasenballmeister (und mit Achtkernern, auch "bezahlbaren", siehts auch nicht mehr so fresh aus). Immerhin gibts mit beiden anders als mit 8GB VRAM weiterhin absolut nirgends ernsthafte Gaming-Probleme -- die Mühlen der modernen Multiplattformentwicklung mahlen laaaaaaaaaaaaaaaaaaaaaaaaaangsam.

Just saying. :D
 
Zuletzt bearbeitet:
Sunweb schrieb:
Eine 9060/8 kostet ebenso 299$ wie eine 5060/8.
Leute ich kann euch nicht folgen, es gibt doch gar keine 16GB 9060?!? Und auch keine 5060, oder?

Nur 5060ti und 9060xt haben 16GB Varianten und da wiederum, wäre der Vergleich tatsächlich fast fair, aber das hat ja nur wenig mit der 5060 hier zu tun …

Wobei man einwerfen könnte das zumindest aktuell scheinbar die 8GB Version der 9060xt es zum Preis der 5060 gibt. Das könnte man dann durchaus direkt vergleichen.

So oder so, 50€ mehr für 16 statt 8GB wirkt sinnvoll, und 150€ mehr für eine 5060ti mit 16GB dann immer noch sinnvoll ist, das sei mal dahin gestellt, man bekommt auf jeden Fall einen guten Software Stack, eine etwas schnellere Karte und die richtige Menge an Speicher.
 
  • Gefällt mir
Reaktionen: pacifico
Zurück
Oben