News GeForce RTX 5050: Nvidia verrät den Einstiegspreis (UVP) für Deutschland

bensen schrieb:
Bei der 5000 Serie ist es fast überall kompletter Stillstand oder gar Rückschritt. Das ist extrem und untypisch. Keine bessere Fertigung und keine größere Chipfläche. Quasi ne Nullnummer.
Gut, ich halte das hingegen für absolut typisch. Vergleichbar mit der 8800 zur 9800 "Gen", oder vergleichbar zwischen 5870 zu 6970. Auf einen großen Sprung, Architektur wie Fertigungsseitig folgt nur eine seichte Evolution, wobei das im Hinblick zu neural shading vielleicht auch zu kurz gegriffen sein kann.
 
Quidproquo77 schrieb:
Nvidia lässt den Topchip aufgrund zu hoher Fertigungskosten und zu wenig Gewinn im Gamingmarkt weg
Also ist das "finanzielle entfernen" von der Gaming-Gruppe (Creator Karte, anstatt Gamer-Karte) bereits die Vorbereitung darauf? Könnte man das so sehen?
Im Grunde lassen sie den Topchip ja bereits aus dem Gamerbereich weg, wenn man auf die Preise schaut.
Quidproquo77 schrieb:
sinkt entweder die Chipfläche und oder stagniert im besten Fall um den Preis irgendwie zu halten oder es wird einfach kein Angebot mehr geben
Ja, das sehen wir ja bereits bei den 5000er ziemlich deutlich.
"Zahl mehr, bekomm dafür weniger.", trifft auf die 80er-Klassen (immerhin 1.000+ €) abwärts ziemlich gut zu.
bensen schrieb:
Bei der 5000 Serie ist es fast überall kompletter Stillstand oder gar Rückschritt. Das ist extrem und untypisch
Ja, das meine ich unter anderem.

Wird Zeit für eine 6080 24 GB, mit fast Topchip-Größe für 850 €. :)

Ja ... ok ... konnte schon fast bestellen ... und dann bin ich aufgewacht. ;)
 
  • Gefällt mir
Reaktionen: Kommando
Quidproquo77 schrieb:
Gut, ich halte das hingegen für absolut typisch.
Das Diagramm sagt nicht typisch, zumindest nicht die letzten 11 Jahre. Wenn es zuvor keine neue Fertigung gab, dann gab es ne größere Die Fläche. Dieses mal gab es gar nichts. Ausnahme natürlich der Top-Chip.
 
bensen schrieb:
Wenn es zuvor keine neue Fertigung gab, dann gab es ne größere Die Fläche. Dieses mal gab es gar nichts. Ausnahme natürlich der Top-Chip.
Gut, sicher sind die aktuell hohen Entwicklungs und Fertigungskosten nicht typisch im Vergleich zu früher aber gemessen an den Umständen gut erklärbar und bei der Konkurrenz weder besser noch irgendwie anders. Größere Chips sind für das Einstiegssegment einfach nicht mehr wirtschaftlich genug, sonst würde AMD ja damit kontern.

Diesmal gab es abseits der 5090 mehr oder weniger "nichts" , außer 10-20% je nach Karte. Diese ganze Problematik wird man nur mit chiplets etwas bremsen können. Aber ob das vernünftig geht - keine Ahnung.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Gut, ich halte das hingegen für absolut typisch.
und warum hast du keine 4080 oder gar 4090 vor 1 1/2 Jahren für nen schmalen Taler gekauft?

Bei einer 5090 gibts doch auch über 20% mehr Fläche, warum dann nicht darunter? Ob ich jetzt 1300 oder 1400€ für eine 5080 bezahle ist egal.

Wenn Rubin in 2026/27 wieder teurer wird, sind wir wieder beim gleichen Problem und eine eventuelle 6050 wird bei einer 5060 Leistung wie auch Preis landen.

AMD zählt nicht, da deren Kundschaft meist im mittleren Preisbereich kauft.
Günstige komplett Rechner mit AMD gehen anscheinend halt nicht so gut über die Ladentheke.
 
RTX 5050 mit 128 KB Videospeicher für C64 das neue Top Modell.
Ergänzung ()

Grundgütiger schrieb:
und warum hast du keine 4080 oder gar 4090 vor 1 1/2 Jahren für nen schmalen Taler gekauft?

Bei einer 5090 gibts doch auch über 20% mehr Fläche, warum dann nicht darunter? Ob ich jetzt 1300 oder 1400€ für eine 5080 bezahle ist egal.

Wenn Rubin in 2026/27 wieder teurer wird, sind wir wieder beim gleichen Problem und eine eventuelle 6050 wird bei einer 5060 Leistung wie auch Preis landen.

AMD zählt nicht, da deren Kundschaft meist im mittleren Preisbereich kauft.
Günstige komplett Rechner mit AMD gehen anscheinend halt nicht so gut über die Ladentheke.
vor allem ohne RTX 5000 Grafikkarte ...
 
  • Gefällt mir
Reaktionen: Grundgütiger
Grundgütiger schrieb:
Bei einer 5090 gibts doch auch über 20% mehr Fläche, warum dann nicht darunter?
Weil man die Preise wahrscheinlich nicht anheben wollte und die Fertigung nicht günstiger wurde? Siehe vice versa 9070XT. Sonst würde man vielleicht auch anders planen und die Fläche anwachsen lassen.
Grundgütiger schrieb:
Wenn Rubin in 2026/27 wieder teurer wird, sind wir wieder beim gleichen Problem und eine eventuelle 6050 wird bei einer 5060 Leistung wie auch Preis landen.
Das "Problem" wird immer so weiterbestehen und sich noch verschärfen es sei denn es gibt noch irgendeinen Durchbruch. Die Leute müssen auch mal davon wegkommen aktuelle GPUs noch für unter 200 Euro zu bekommen. Das wird es mittelfristig einfach nicht mehr geben.
 
Galaxytourist schrieb:
12 GB benötigt Aber ein Anderes Speicherinterface oder Andere Speicherchips. Beides muss man erstmal haben. Nichtstestotrotz sehe ich den Einsatzzwech einer RTX 5050 nicht wirklich. Fürs spielen ist Sie effeltiv zu langsam und die Anderen Sachen kann man auch mit einer APU machen.
Genau man hätte einfach andere Speicherchips nehmen können.

Und eine 5050 ist zum spielen voll ok. Es gibt genug die mit Handheld spielen auf einer Radeon 790m und selbst da fast alle Spiele unterwegs zocken können. Die 5050 dreht kreise um die 790m. Also denke ich dass die Karte für E Sport mehr als ausreichend sein wird. Und selbst das ein oder andere AAA Game wird in niedrigen bis mittleren Einstellungen gespielt werden können.

Die 5050 ist ein würdiger Nachfolger der 3050.
 
Das der Chip immer größer wird ohne das die Leitung im gleichen Maße steigt ist doch klar. Anstatt die Technik die für spezialisierte Produkte nötig ist auch genau dort einzubauen , baut nvidia in die Gamer Karte immer mehr Features ein die über spezialisierte Rechenkerne bearbeitet werden dir aber bei der reinen Spiele Leistung nichts bringen.
Du hast:
Shader-Multiprozessoren
FP32ALU's/TMU's/Rop's
Raytracing-Einheiten
Matrix-Einheiten (AI-Cores...)

Wenn also 50% Sachen verbaut sind die für die Spiele Leistung irrelevant sind ist klar woher die Vergrößerung der Chips herkommt und wichtiger 50% mehr Chipfläche = 100% Verteuerung des Produktes für etwas das niemand wollte. :rolleyes:

Kann ich bitte die GTX wiederhaben ohne Raytracing, DLSS und AI Kram dafür aber der Platz ausgefüllt mit eben 50% mehr Einheiten die für die NATIVE Spiele Leistung zuständig sind? :hammer_alt:
 
  • Gefällt mir
Reaktionen: Grundgütiger und vascos
Floppy5885 schrieb:
Genau man hätte einfach andere Speicherchips nehmen können.
Hätte man nicht, da 3GB Speicherchips erst seit kurzem auf dem Markt und noch nicht sehr verbreitet sind.
Ergänzung ()

Floppy5885 schrieb:
Und eine 5050 ist zum spielen voll ok. Es gibt genug die mit Handheld spielen auf einer Radeon 790m und selbst da fast alle Spiele unterwegs zocken können. Die
Ein Handheld hat auch ein wesentliche kleinere Display welches befeuert werden will.
 
Gamefaq schrieb:
Anstatt die Technik die für spezialisierte Produkte nötig ist auch genau dort einzubauen , baut nvidia in die Gamer Karte immer mehr Features ein die über spezialisierte Rechenkerne bearbeitet werden dir aber bei der reinen Spiele Leistung nichts bringen.
Und wie jeder weiß bringen Raytracing, Cooperative Vectors und oder AI-Upsampling ganz schlechte unnütze Ergebnisse. 🥴
Nativ heißt auch mehr oder weniger " sich im natürlichen Zustand befindend" und da sind veraltetes rasterbasiertes Oberflächencaching, volumetric fake lighting usw. in dem Kontext ja nicht gerade der Brüller.
Im Grunde genommen kannst du auch fordern vor die Zeit programmierbarer Pixelshader zurückzugehen, das wäre etwa genauso unsinnig.
 
Zuletzt bearbeitet:
bensen schrieb:
Wenn Nvidia den GB202 kleiner gemacht hätte, sähe die Grafik so aus als wäre alles gut. Ist es aber nicht. Die Grafik zeigt nicht das wahre Problem.
Was hat das damit zu tun ob Nvidia was dafür kann oder nicht? Versuche mal sachlich zu diskutieren anstatt nur dumm rumzuflamen, dann wird auch dir klar, dass ich damit Nvidia gar nicht entlaste.
Das ist halt einfach kein Argument. Sieht glaub auch jeder so, außer Dir vielleicht. Du fragst: Warum?

Der größte Chip wird so groß gemacht wie möglich, bzw. wie nötig.
Alle Chips dahinter sind kastrierte Versionen davon. Und somit hängt es einzig von Nvidias Gunst ab, wie die Chips dahinter liegen.

Demzufolge zeigt die Grafik sehr gut was das Problem ist, vom schnellsten Chip aus betrachtet. Schönes Wochenende.
 
  • Gefällt mir
Reaktionen: Alphanerd
Quidproquo77 schrieb:
Und wie jeder weiß bringen Raytracing, Cooperative Vectors und oder AI-Upsampling ganz schlechte unnütze Ergebnisse. 🥴
Raytraycing kostet primär nur Leistung ohne das es einen wirklichen Nutzen bringt. Für Standbilder toll im Spiel selbst Wayne. Die Cooperative Vectors werden von den Shader Einheiten berechnet die du eh für die Grafikberechnungen benötigst. Und Deine AI Scheiße (bewusste Wortwahl!) wird IN DER CLOUD von nvidia berechnet UND ALS PROFIL im Treiber für die Spiel hinterlegt. Für die sogenannten Matrix-Einheiten = AI Kerne benötigst du DARAUF SPEZIALISIERTE Software das ist wie zuvor gesagt für Spiele so wichtig wie ein Sack Reis der in China umkippt!
Quidproquo77 schrieb:
Nativ heißt auch mehr oder weniger " sich im natürlichen Zustand befindend" und da sind veraltetes rasterbasiertes Oberflächencaching, volumetric fake lighting usw. in dem Kontext ja nicht gerade der Brüller.
Im Grunde genommen kannst du auch fordern vor die Zeit programmierbarer Pixelshader zurückzugehen, das wäre etwa genauso unsinnig.
Selten so einen Schwachsinn als Begründung gelesen. Die Native Leistung ist für die Grund FPS verantwortlich je mehr ich davon habe desto mehr FPS bekommst du. Wovon DU redest sind Features die die Grafik Grundsätzlich verschlechtern würden. Und ich habe nirgends geschrieben das du diese weglassen sollst. Es gibt genug Video Beispiele wo du bei klassischen Licht oder Reflexionen gegenüber per Raytracing generierten mit der Lupe die Unterschiede suchen musst. Der einzige direkt sichtbare unterschied ist bei Nassen/Lack/Spiegel Flächen zu sehen wenn man explizit darauf achtet , der Leistungseinbruch steht jedoch weiterhin in keinem Verhältnis. Daher nochmals ich hätte gerne eine GTX mit mehr Rohleistung als eine RTX mit Raytraycin und AI Kernen die wenig bis nichts bringen wenn du nur spielen willst.
 
Kommando schrieb:
Der größte Chip wird so groß gemacht wie möglich, bzw. wie nötig.
Genau, denn damit lässt sich im Profi Segment genügend Marge machen, recht egal ob der Chip alleine dann 500 Dollar kostet, schließlich verkauft man das Endprodukt auch um ~10 000 Euro oder mehr.
Kommando schrieb:
Alle Chips dahinter sind kastrierte Versionen davon. Und somit hängt es einzig von Nvidias Gunst ab, wie die Chips dahinter liegen.
Eher von der Marge und die im Mindesten für die Konkurrenz von AMD und Intel schon nicht besonders hoch, schließlich muss man sämtliche Entwicklungskosten umlegen.
Gamefaq schrieb:
Raytraycing kostet primär nur Leistung ohne das es einen wirklichen Nutzen bringt.
Deshalb hat man die Raster "Fakes" ja auch an diese Techniken angelehnt, weil es keinen Nutzen brächte...
Der Nutzen ist so offenkundig, dass man aufwändig prebaked lighting mit raytracing für viele Spiele vorberechnet hat. Jetzt liegt eben die Leistung vor um es grundlegend in Spiele zu integrieren dynamisch Szenen mit Interaktion des Spielers live zu berechnen. Das spart viel Aufwand für die Entwickler und sieht am Ende einfach besser aus.
Gamefaq schrieb:
Die Cooperative Vectors werden von den Shader Einheiten berechnet die du eh für die Grafikberechnungen benötigst.
Und stellen eine Optimierung für Matrixoperationen dar, die die GPU folglich bei AI Tasks entlasten werden und oder Leistung freischaufeln, also was rein positives wie schon KI basiertes Upsampling für die Spieler bringen werden.
Gamefaq schrieb:
Es gibt genug Video Beispiele wo du bei klassischen Licht oder Reflexionen gegenüber per Raytracing generierten mit der Lupe die Unterschiede suchen musst.
Ja und es gibt auch tausend Beispiele und unzählige Youtuber die in Youtube-Universitätspalaver erklären warum TAA ein Übel darstellt (Kontext aber weglassen) und warum Raytracing angeblich Gaming ruiniert und wiederum noch mehr Kontext weglassen.
For allem das Witcher-3 Bild ist Meddl-Gold, vor allem weil Witcher 3 auf Ultra nicht mal auf der schnellsten GPU mit über 45 FPS in QHD lief. Aber das ist halt das Niveau.
 
Atma schrieb:
Sehe den Markt einfach nicht für diese Siliziumverschwendung. Das Segment worauf diese Karte abzielt wird längst von APUs dominiert.

Also sollte Nvidia die Chips mit schlechterer Güte einfach in den Müll schmeisse anstatt sie zu verkaufen. Ist ja so, als würde beim Schwein das weniger gute Fleisch einfach nur entsorgt werden. Wäre das nicht eher Verschwendung?

Mal Butter bei die Fische, die Karte ist eine RTX 2070 Super mit halber Leistungsaufnahme und moderneren Featureset. Viele Menschen auf der Welt werden diese Karte gerne nutzen um ihr CS2, Valorant, Fortnite oder LOL zu spielen und haben deutlich höhere Frames als mit einer GTX 1060/1070, die vielleicht vorher verbaut war. Wir Deutsche sind sehr reich, auch wenn das subjektiv vielleicht nicht so wahr genommen wird. Eine Karte für 500€ können sich viele auf der Welt nicht leisten, für 250€ schon. Wir sind nicht der Nabel der Welt, auch wenn das viele so sehen.
 
Zurück
Oben