News GeForce RTX 5050: Nvidia verrät den Einstiegspreis (UVP) für Deutschland

CDLABSRadonP... schrieb:
Nur auf Seiten von Apple. Auf Seiten von AMD etabliert sich die Klasse mit Strix Halo gerade erst. Und Strix Halo basiert auf RDNA3,5 statt RDNA4...

Ergo: Ja, ware schön, wenn die Klasse bereits überflüssig gemacht worden wäre. Noch wurde sie es aber nicht.

Die beste Desktop-APU ist aktuell wie erwähnt immer noch GTX1650-Niveau. Das ist ganz weit von dem weg, wo auch diese Karte hier aufschlagen dürfte.

Apropos: Wie gut verkaufen sich sowohl Nvidias als auch AMDs Saison-Kollektion denn wirklich?

Auch vor dem Hintergrund, dass selbst die bereits installierten Steamsurvey-Darlings näherungsweise Basiskonsolen-Level liefern*, die PS6 noch nicht in Sicht ist -- und nur ein kleiner Bruchteil aller Neuerscheinungen jedes Jahr überhaupt AAAA-Games sind. Siehe auch hier die meistgespielten Games auf Steam -- und Sony hätte damals bei der Präsentation der PS5 Pro auch bereits gerne ein paar mehr "Kracher" gezeigt.




* Sofern sie nicht ins SPeicherlimit krachen
 
  • Gefällt mir
Reaktionen: Quidproquo77 und CDLABSRadonP...
aspro schrieb:
Gamestar hat sich anschließend davon distanziert, wird also sicher bei der 5050 nicht den selben Fehler machen.
GS ist sowas von verbrannt und sollte von niemanden auch nur noch einen einzigen Klick bekommen.

Etwas in voller Absicht zu tun und sich bewusst sein, was man denn da tut und anschließend zurückrudern.

Wie sagte der große Philosoph aus dem dem Ruhrpott, Axel S.? Ja ne, is klar Murat.

Keine Klicks für Werbemarionetten.

Auch dieses "Interview" mit der deutschen Nvidia Sprechpuppe. Ne, muss nicht sein, braucht man nicht, kann weg.


Gamefaq schrieb:
Nun nach dem Shitstorm den sie wegen dem "Preview der 5060 8GB" geerntet haben klar...und trotzdem hatten sie die Klicks = Werbekohle die dadurch generiert wurde zuvor mitgenommen.
Das nämlich.
 
ChrisMK72 schrieb:
Wir können nach Release der 6000er-Karten ja mal schauen, wie nah ich dran war.
Beschreibe doch bitte mal wie du auf die Werte gekommen bist.
Probabilistische Annahme, nach „Gefühl“ oder nur Musterfortführung?

@Topic: ob der Chip jetzt 200€ oder 300€ kostet ist mir eigentlich egal. Von mir gekauft wird er nicht, da sind mir Preis und Specs auch Wurschd.
Moralisch gesehen scheint es Teufelszeug wenn man Meinungen und Aussagen im Internet einholt.
Aber wenn es darum geht stehen da noch tausende andere Dinge im Netz bei denen das ebenfalls zutrifft.
Also … was soll’s. Ich werde die Welt mit einem Kommentar nicht ändern können. :D

Schönes Wochenende Leute!
 
ChrisMK72 schrieb:
Das GN Video wurde ja bereits gezeigt.

Ich fragte mich anhand der darin gezeigten Tabelle, wo das noch hinführen soll, wenn das so weiter geht und hab mal eine spekulative Tabelle angefügt. ;)

Anhang anzeigen 1632712
Ich finde diese Metrik ist komplett ungeeignet. Nvidia müsste also nur den größten Chip kleiner machen und alles wäre in Ordnung?
Es würde mehr Sinn machen die Performance-Sprünge innerhalb einer Klasse von Generation zu Generation aufzuführen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Taxxor
ChrisMK72 schrieb:
Das GN Video wurde ja bereits gezeigt.

Ich fragte mich anhand der darin gezeigten Tabelle, wo das noch hinführen soll, wenn das so weiter geht und hab mal eine spekulative Tabelle angefügt. ;)

Anhang anzeigen 1632712

Edit: Wir können nach Release der 6000er-Karten ja mal schauen, wie nah ich dran war. :D

Zu pessimistisch? In Teilen sogar zu optimistisch? ;)



Kann ich dir sagen:


In zehn Jahren ist Computerbase endgültig zum Flexer-Treff der anonymen 90er mutiert.


AAAA-Gaming ist ein Nischen-Fetisch für die allerletzten Ubisoft-Ultras.


Und Wolfgang testet bedarfsgerecht nur mehr eine Karte in einer Auflösung, Tuningtipps überflüssig: 16K! 9090 Ti Super GTI! Alle Mann auf Pathtracing-Deck! Und jetzt Ruhe auf den billigen Radeon-Plätzen!

Hatter immerhin früher Feierabend -- ist doch auch was! :D


:masterrace:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh
Floppy5885 schrieb:
Hier hätte AMD sagen können 16 und 12Gb statt der 8GB.
12 GB benötigt Aber ein Anderes Speicherinterface oder Andere Speicherchips. Beides muss man erstmal haben. Nichtstestotrotz sehe ich den Einsatzzwech einer RTX 5050 nicht wirklich. Fürs spielen ist Sie effeltiv zu langsam und die Anderen Sachen kann man auch mit einer APU machen.
 
Es bleibt dabei. Günstigster Einstieg bei Nvidia bei einem aktuellen Produkt. Man kann damit sehr viele Titel vollkommen problemlos in Full HD mit 60FPS spielen oder eben ein Video schneiden.

Alles andere ist eine Falschbehauptung und zeugt einfach von Mangelwissen.

Der Thread ist voll mit Kommentaren, man könne damit nicht wirklich spielen.

Interessante "Experten" hier unterwegs.

Der Preis wird sich sicher noch etwas an den Markt anpassen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Quidproquo77
Meine Tabelle kommt ja gut an. Und ich hoffe natürlich nicht, dass es so weitergeht.
Eine Trendumkehr bei den 6000ern wäre sehr nice.

Zu den Fragen weiter oben:


=dantE= schrieb:
Probabilistische Annahme, nach „Gefühl“ oder nur Musterfortführung?
Ja. :D


bensen schrieb:
Nvidia müsste also nur den größten Chip kleiner machen und alles wäre in Ordnung?
Es geht ums Verhältnis zur größten Karte, der "Gaming-Sparte", was ja auch verdeutlichen soll, dass eine weitere Segmentierung stattfindet, die selbst die Gaming-Sparte noch weiter aufsplittet (Abstand wird immer größer) und oben gehts dann Richtung "Creator-Karte" (90er-Klasse), oder wie auch immer man die nennen mag.
Edit: Ja, war früher teils auch so, mit Titan usw. , aber der Abstand zu den "restlichen Gamer-Karten" war nicht so groß.

Darunter bleibt "immer weniger Chip" übrig, für die Gamer.

Wie gesagt hoffe ich ja, dass es bei den 6000ern wieder besser wird und ja, auch der Performance-Sprung ebenfalls (gleichzeitig mit Chipgröße im Verhältnis) bei den 80ern abwärts wieder größer wird.

Wie die Tabelle grundsätzlich gemeint ist, erklärt ja Steve von GamersNexus.
Ist ja kein Hexenwerk.

Und natürlich hoffe ich, dass meine Annahme, bzw. wenn man so will "Trendfortführung" nicht stimmt.
Von daher war die Tabelle auch nicht 100-prozentig ernst gemeint (edit: spätestens bei der eingezeichneten 6030 mit unter 0 % müsste einem das klar werden. ;) ).
Eher eine Anspielung auf die aktuelle Lage. Siehe 5050er. Den Chip muss man ja bereits mit der Lupe suchen. ;)
(Edit: Darf dafür im Verhältnis aber ganz schön blechen. $)

Möchte lieber etwas optimistisch hoffen. :)

Drücken wir uns für die 6000er-Generation die Daumen.
Ich will ja schließlich auch da zugreifen und hoffe, dass wir da noch 'n ordentliches Stück Chip bei den 60ern, 70ern und 80ern bekommen, Trendumkehr inkl.
(Edit: Auch beim Performance-Zuwachs)


=dantE= schrieb:
Schönes Wochenende Leute!
Danke, das wünsche ich dir und uns allen auch! :) ☕ ☀️ 😎
 
Zuletzt bearbeitet: (Edit Nachtrag + Typos)
Gamefaq schrieb:
Könntest du mal mit deiner Missionierung für nvidia aufhören?
Ich missioniere nicht, ich vergleiche die Leistung die man dort in etwa bekommt mit den am Markt bestehenden Produkten und dafür ist es ok, nicht mehr aber auch nicht weniger.
Gamefaq schrieb:
Meinst du @aspro hat die RX6600 erst gestern gekauft?
Na siehst du, warum sollte man Karten in dem Leistungsbereich nicht kaufen können? Es hängt davon ab was man braucht. Und wenn man so eine Karte für etwas Gaming, Programmieren, Encoding usw. einsetzt, gibt es kaum besseres mit aktueller IP. Da muss AMD erst einmal die 9050/9040 launchen.
Gamefaq schrieb:
Und dann auch noch mit DLSS4 zu kommen (wo selbst DLSS4 in FullHD unbestritten schlechter als Nativ aussieht weil woher sollen auch die Details herkommen wenn nur Nativ Basis 720p Auflösung dafür genutzt wird...)
Das ist völlig falsch, aber schon seit einigen Jahren und nicht erst seit FSR4/DLSS4.
"This makes DLSS4 the better way to play than native TAA rendering, because the overall presentation is superior and performance is better".
Gamefaq schrieb:
weil dadurch würde sie seine 4 Jahre alte Karte schlagen?
Genau, wohl jede Karte in dem Preisbereich, selbst die B580 wird es nicht einfach haben.
Gamefaq schrieb:
Das ist keine Gaming Maschine sondern ein Office PC...
Nein. Damit ergibt seine Aussage ja noch weniger Sinn, aber gut wieder was gelernt.
Nvidia bringt ein Produkt und es wird erst einmal völlig deplatziert gehated, bevor es überhaupt getestet wurde. 🥴
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
bensen schrieb:
Ich finde diese Metrik ist komplett ungeeignet. Nvidia müsste also nur den größten Chip kleiner machen und alles wäre in Ordnung?
Es würde mehr Sinn machen die Performance-Sprünge innerhalb einer Klasse von Generation zu Generation aufzuführen.
Wow, krass wie Fanboi man sein kann. 🤣

Aber hast recht, NVIDIA kann absolut nix für diesen Verlauf. Die kleineren Chips müssen(!) in der heutigen Zeit einen immer größeren Abstand zum größeren Chip haben. Mit jeder Generation mehr. Das ist einfach so. Physikalisches Gesetz. Die Schwerkraft ist schuld! 😜
 
Tatsächlich finde ich es sehr freundlich von NVidia, dass sie AMD so tolle Chancen geben einen Markt an sich zu ziehen, auf den Nvidia offensichtlich einen Großen Haufen sch***** ...ihr wißt schon.
 
ChrisMK72 schrieb:
Es geht ums Verhältnis zur größten Karte, der "Gaming-Sparte", was ja auch verdeutlichen soll, dass eine weitere Segmentierung stattfindet, die selbst die Gaming-Sparte noch weiter aufsplittet (Abstand wird immer größer) und oben gehts dann Richtung "Creator-Karte", oder wie auch immer man die nennen mag.
Edit: Ja, war früher teils auch so, mit Titan usw. , aber der Abstand zu den "restlichen Gamer-Karten" war nicht so groß.
Ich habe die Grafik verstanden, ändert aber nichts an meiner Kritik. Macht Nvidia den top Chip kleiner, ist alles in Butter wenn man der Logik der Grafik folgt.

Es wird vernachlässigt, dass der AD102 einen Sprung hingelegt hat, den es so nicht zuvor gegeben hat. Die anderen Chips hingegen sind nur "normal gewachsen".

Das viel größere Problem ist die Blackwell Generation. Wahren der größte Chip "normal" gewachsen ist, ist alles darunter gar nicht gewachsen. Teilweise wurde zwar zum nächstgrößeren Chip gewechselt, aber ansonsten Nullnummer. Und das ist bisher eigentlich nie passiert. Auf einem gereiften Prozess gab es sonst deutlich größere Dies.

Dies zeigt die Grafik gar nicht. Würde man zB Anzahl Transistoren auftragen wäre das deutlich hilfreicher.

Eine Trendumkehr wird es nur geben, wenn die Konkurrenz im oberen Bereich was anzubieten hat.
Ich würde mal davon ausgehen, dass Nvidia beim nächsten top Chip in die vollen geht. Ich gehe nicht davon aus, dass AMD diese ebenso tut. Nvidia möchte aber sicher nicht mit dem dicken Klopper (womöglich teildeaktiviert) gegen AMD antreten. Dementsprechend wird der zweitgrößte Chip auch einen Sprung machen. Alles darunter ebenso, weil auch dort AMD zulegen wird.

Also keine Trendumkehr, aber auch keine Verschlimmerung wäre meine Prognose.
 
FrankN84 schrieb:
Ersten Benchmarks nach (die mit Vorsicht zu genießen sind) reiht sich die Karte zwischen der RTX 2060 und RTX 3050 ein.
Klingt nicht sonderlich plausibel. Wenn die Karte etwa 70% der Rechenleisstung einer 5060 aufweist, wird sie sich wohl oder übel zwischen 3060 und 4060 bewegen, also dort wo die ganzen anderen Karten der Konkurrenz auch liegen in dem Preisbereich.
 
  • Gefällt mir
Reaktionen: shaboo und Ringträger
Kommando schrieb:
Wow, krass wie Fanboi man sein kann. 🤣
Kommt noch was sachliches oder bleibt's bei Beleidigungen?
Kommando schrieb:
Aber hast recht, NVIDIA kann absolut nix für diesen Verlauf. Die kleineren Chips müssen(!) in der heutigen Zeit einen immer größeren Abstand zum größeren Chip haben.
Mit jeder Generation mehr. Das ist einfach so. Physikalisches Gesetz. Die Schwerkraft ist schuld! 😜
Hab ich das irgendwie auch nur annähernd gesagt? Willst du einfach nur beleidigen oder bist du echt nicht in der Lage das geschriebene zu verstehen?

Wenn Nvidia den GB202 kleiner gemacht hätte, sähe die Grafik so aus als wäre alles gut. Ist es aber nicht. Die Grafik zeigt nicht das wahre Problem.
Was hat das damit zu tun ob Nvidia was dafür kann oder nicht? Versuche mal sachlich zu diskutieren anstatt nur dumm rumzuflamen, dann wird auch dir klar, dass ich damit Nvidia gar nicht entlaste.
 
ChrisMK72 schrieb:
Es geht ums Verhältnis zur größten Karte, der "Gaming-Sparte", was ja auch verdeutlichen soll, dass eine weitere Segmentierung stattfindet, die selbst die Gaming-Sparte noch weiter aufsplittet (Abstand wird immer größer) und oben gehts dann Richtung "Creator-Karte" (90er-Klasse), oder wie auch immer man die nennen mag.
Wenn dieser Grafik die gestiegenen Fertigungskosten und damit auch Endkundenpreise gegenübergestellt werden, existiert faktisch keine Segmentierung der Cuda Cores.Ein Chip in der Größenordnung der 5090 (750mm²) kostet 5mal mehr als vor 10 Jahren, schätzungsweise um die 300-400 Dollar. Stattdessen könntest du einen Chip mit 260mm² nehmen, etwa den der 5070, der ist grob vergleichbar teuer wie ein Top-Chip vor 10 Jahren.

Und von dem Chip rechnest du nun ALUs nach unten und hast wiederum die gleichen Verhältnisse.
Es ändert sich unter dem Strich faktisch gar nichts. Man kommt nur auf diesen Trichter, weil man solche Grafiken ohne Kontext ins Netz stellt. Explodieren Fertigungskosten ist es logisch, dass sich das Feld von Einstieg bis High End weiter auseinanderziehen muss. Zudem sind solche Einstiegskarten vom Chip her nicht unbedingt kleiner als früher.
bensen schrieb:
Es würde mehr Sinn machen die Performance-Sprünge innerhalb einer Klasse von Generation zu Generation aufzuführen.
Und die Fertigungssprünge und Kostenstrukturen der einzelnen Prozesse. Dann würde man ein vollständiges Bild haben. Aber dann ließe sich ja nicht mehr so auf Stammtischniveau kritisieren.
ChrisMK72 schrieb:
Meine Tabelle kommt ja gut an. Und ich hoffe natürlich nicht, dass es so weitergeht.
Eine Trendumkehr bei den 6000ern wäre sehr nice.
Nvidia produziert keine Einsteiger Chips mehr. Trend umgekehrt.
Nvidia lässt den Topchip aufgrund zu hoher Fertigungskosten und zu wenig Gewinn im Gamingmarkt weg und bietet ihn nur für die AI Phalanx an. Trend umgekehrt.
Kommando schrieb:
Aber hast recht, NVIDIA kann absolut nix für diesen Verlauf.
AMD hat 1:1 den gleichen Verlauf bei GPUs wie bei Prozessoren.
Vergleiche einfach die RX 9060 XT mit einer hypothetischen 800mm² 9090XTX und du kommst aufs selbe raus.
Und ja, die Hersteller können dafür nichts, das sind momentan einfach die äußeren Umstände die es nicht erlauben eine Billig-Karte mit großem Die für ein paar Kröten rauszuballern. Dass ihr das nicht begreifen könnt und überall von "Fanboi" schwafelt. Naja gut.
 
Zuletzt bearbeitet:
Kommando schrieb:
Die Schwerkraft ist schuld! 😜
Bevor Newton die Schwerkraft erfunden hat war alles besser. Die Klöten hingen nicht jedes Jahr immer tiefer 😂
 
  • Gefällt mir
Reaktionen: shaboo
bensen schrieb:
Eine Trendumkehr wird es nur geben, wenn die Konkurrenz im oberen Bereich was anzubieten hat.
Es kann auch durch Konkurrenz keine Trendumkehr geben, da die Kostentrukturen so sind wie sie sind.
Möchte ich auch in Zukunft im Niedrigpreissegment weiterhin Produkte mit aktueller Tech haben sinkt entweder die Chipfläche und oder stagniert im besten Fall um den Preis irgendwie zu halten oder es wird einfach kein Angebot mehr geben.
 
@Quidproquo77 Doch kann es. Den Trend hat er ja beschrieben als größer werdende Lücke. In dem der zweitgrößte Chip näher ran rückt kann die durchaus kleiner werden. Die Sprünge in ihrer Gesamtheit werden aber sicher nicht größer. Die Aussage ist ja auch unabhängig vom Preis. Wenn der 103/203er Chip größer wird, wirds auch teurer. Nvidia wird sicher nicht auf Marge verzichten. Das ändert sich erst wenn der Kunde nicht mehr kauft.



Hier nochmal verdeutlicht, was ich zuvor beschrieben habe:

Geforce Trend.jpg

AD102 hat einen einen ungewöhnlich großen Sprung gemacht. Wird so schnell nicht wieder passieren, da man so gut wie am Maximum ist. Ansonsten ist die 4000er Serie nicht so unnormal gewachsen, die 80 TI liegt genau in Linie mit den vorigen Karten.
Bei der 5000 Serie ist es fast überall kompletter Stillstand oder gar Rückschritt. Das ist extrem und untypisch. Keine bessere Fertigung und keine größere Chipfläche. Quasi ne Nullnummer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
199,99 Euro wären dafür angemessen, eine vergleichbare 3060 Ti liegt aktuell gebraucht bei 150 Euro.

249,99 Euro bestenfalls, wenn es eine 75W Variante für SFF bzw. Office PCs gibt.
 
Zurück
Oben