News GeForce RTX 5050: Desktop-Variante mit 8 GB und -30 % Shadern im Gespräch

Hätte nicht gedacht, dass eine 5050 kommen würde - die liegt dann vermutlich bei der Leistung knapp über einer 7600 bis 4060 muss mit den Intelkarten konkurrieren und schon bei der sehe ich den Markt nicht wirklich (für Office brauche ich keine gesonderte GPU udn für Gaming würde ich immer versuchen eine Ps5 (Pro) zumindest leicht zu schlagen, da ich sonst fürchten müsste bei neuen Games in Bälde zu große Kompromisse machen zu müssen.
Für diese Untergrenzen dürfte die 9060XT (16GB) eine gute Wahl sein, aber darunter würde selbst ich der den Gebrauchtmarkt für riskant hält mich eher dort umsehen in der Hoffnung dort noch etwas ein wenig stärkeres zu bekommen (k.a. was da z.B. ne 6800 oder so in Zukunft kosten wird)...
 
  • Gefällt mir
Reaktionen: SweetOhm
Loopman schrieb:
Was ihr Hetzer immer wieder vergesst: Leute die komplett (!) planlos eine Graka kaufen, haben sicher ebenfalls keinen Plan was "Full RT" sein soll - und damit geht eure absurde Argumentation auch schon den Bach runter...
Du Unwissender … Dass jeder, der aufm PC zockt, auch mal in die Grafik-Settings reingeht und alles nach rechts macht, um zu sehen, was die GPU kann … Brauchst auch nicht mit Unwissenheit zu kommen: Wer mich als Hetzer hinstellt, obwohl man nur seine Meinung sagt, ist für mich unwissend, wenn man sagt, dass die meisten kein Full-RT kennen. Klar, keiner schaut Gaming-News usw.
 
Zuchtmaista schrieb:
Klar, keiner schaut Gaming-News usw.
Doch, klar. Aber genau DIESE Leute sind dann eben NICHT komplett planlos und greifen dann blind ins Regal und nehmen irgendeine Graka, wo die Verpackung schön glitzert.

Wer weiß was Full-RT in einem Spiel ist, kennt auch grob die Welt der Grafikkarten.

Also, komplett planlos oder doch halbwegs informiert? 😉
 
War hier eigentlich mal jemand in den unteren Grafik-Regalen unterwegs? Ernstgemeinte Frage. Hier wird ja viel spekuliert. :D Vor fünfzehn Jahren bin ich selbst mal eine Weile "ausgestiegen" aus dem "Für brandaktuelle Grafikblockbuster aufrüsten"-Hamsterrad. Komplexe RPGs (Lieblingsgenre) waren mausetot. Also spielte ich vorwiegend noch "Grafikkracher" wie den Football Manager, mit dem "Charme einer Exceltabelle" (deutsche Testberichte).

Ein neues System musste trotzdem wieder her. Es wurde ein Core i3 samt Radeon HD 6670 -- Letztere für unter 70 Euro, die Zeiten sind ja vorbei. Ich war erstaunt, was dann später alles lief. Darunter selbst noch ein Dishonored (2013). Und Alien:Isolation (2014), auch wenn ich da noch nicht in FHD unterwegs war. Klar, Crysis 2 wäre eng geworden, aber siehe oben -- kein Bedarf. Alsbald lebten meine RPGs wieder auf, dank Kickstarter -- auch Larian waren dabei und nahmen damit Anlauf auf Baldur's Gate 3, falls das wer kennt. Und schon damals war es nur ein Teil aller Games, die überhaupt Power verlangten. Heute sieht das noch eindeutiger aus: AAAAA-Games sind ein WINZIGER Bruchteil des Marktes. Jedes Jahr aufs Neue. Der gigantische Aufwand regelt das. Und gelegentlich fällt es sogar Computerbase-Lesern auf -- auch wenn die Games dann keine Vorzeige-Showcases für Benchmarkbalken sind. :D



crustenscharbap schrieb:
Ja, irgendwie hast du schon Recht. Es war fast immer so, dass aktuellste APUs immer gerade so nicht gereicht haben um gut zu zocken. Die Spiele laufen entweder in 720p mit 60fps oder in 1080p mit 30-40 fps.

Wollte APUs jetzt auch nicht schlecht machen oder so. :) Die Technik ist schon beeindruckend... Für mich wärs irgendwann ggf. ebenfalls eine Alternative, deshalb find ichs auch ganz spannend. Aber bislang (noch) nicht...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und crustenscharbap
Loopman schrieb:
Doch, klar. Aber genau DIESE Leute sind dann eben NICHT komplett planlos und greifen dann blind ins Regal und nehmen irgendeine Graka, wo die Verpackung schön glitzert.

Wer weiß was Full-RT in einem Spiel ist, kennt auch grob die Welt der Grafikkarten.

Also, komplett planlos oder doch halbwegs informiert? 😉
Sagen wir halbwegs infomiert :)
 
Artikel-Update: Der für treffsichere Leaks bekannte X-Account MEGAsizeGPU stimmt in die Riege derer ein, die der RTX 5050 im Desktop als bis dato einziger Blackwell-Grafikkarte GDDR6 und nicht GDDR7 zusprechen. Mit 20 Gbps sollen die Speicherchips dieselbe Geschwindigkeit wie die, die AMD bei Radeon RX 9070 XT, 9070 und 9060 XT verwendet, aufweisen.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: SweetOhm, PietVanOwl, knoxxi und eine weitere Person
Für 100-150€ würde ich nicht knurren.
Wird aber wohl 250€ werden :(
 
  • Gefällt mir
Reaktionen: SweetOhm
Kaito Kariheddo schrieb:
Ich hätte gern Single-Slot ohne extra Strom, dafür aber mit dem neuesten Encoder für 150€
Dann noch im Idle <5Watt, wär sofort gekauft....:smokin:
 
Dass man sich überhaupt traut, so nen schrott auf den Markt zu bringen. Die 3050 musste sich je nach Ausstattung einer 1070 geschlagen geben oder war einer 1060 sehr nahe. Also 9 Jahre alten einsteiger bzw. Mittelklasse GPUs.

Sowas sollte einfach nicht mehr existieren oder dann halt für 50€ verkauft werden, damit der PC zumindest Videos und die Benutzeroberfläche beschleunigen kann. Für Gaming ist das sowieso nichts.
 
  • Gefällt mir
Reaktionen: SweetOhm und Sebbi
Ein Chip, der zu kaputt für eine 5060 war, kann immer noch eine 5050 werden :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gizzmow und DerRico
Das wird die beste kleine Blackwellkarte - denn es ist die Einzige, wo der Preis zur Speicherausstattung passt
 
  • Gefällt mir
Reaktionen: Quidproquo77
Wow, das klingt ja verlockend, so eine selten runde Grafikkarte von nVidia wie die kolportierte RTX 5050 (mit ganzen 8GB und durch 30% weniger Shader super-effizient, denn ich will ja mit so einer Gaming-dGPU zuvorderst Strom sparen und dafür sorgen, dass man mit der Profitmarge bei nVidia davon gut leben kann, der Rest ist zweitrangig) muss ich unbedingt haben; dagegen wäre ja eine ebenso kolportierte RX 9080/9090XT mit 32 GB wirklich technisch richtig schwach aufgestellt :lol:.

Es (eine RX 9090XT RDNA4 High-End dGPU) hört sich leider nur zu schön an um (realistisch) wahr zu sein, naja, Moore's Law Is Dead/Tom eben, laut dem es ja auch keine Intel Arc Battlemage dGPUs geben sollte (schon gar keine Arc B770/750, die scheinbar doch irgendwann kommen werden):

 
Zuletzt bearbeitet:
Mimir schrieb:
Dass man sich überhaupt traut, so nen schrott auf den Markt zu bringen
Ist das nun die High-End Perspektive? Die RTX 5050 8GB für um die 200 Euro wäre schon ok und würde endlich mal wieder etwas modernes in den Preisbereich bringen was alles ausreichend gut kann.
Mimir schrieb:
Die 3050 musste sich je nach Ausstattung einer 1070 geschlagen geben oder war einer 1060 sehr nahe. Also 9 Jahre alten einsteiger bzw. Mittelklasse GPUs.
Screenshot 2025-06-13 131631.png

Hm, naja damit ist man ca 50-60% vor einer 1060.
Mimir schrieb:
Sowas sollte einfach nicht mehr existieren oder dann halt für 50€ verkauft werden, damit der PC zumindest Videos und die Benutzeroberfläche beschleunigen kann. Für Gaming ist das sowieso nichts.
Du wirst jedes Spiel damit zum Laufen kriegen, selbst High End Games, mit niedrigeren/mittleren Einstellungen + DLSS Q oder Balanced. Das wäre doch die Full HD Einsteiger Karte schlechthin, gemäß dem Fall sie kostet nur 200 Euro.
Chismon schrieb:
Wow, das klingt ja verlockend, so eine selten runde Grafikkarte von nVidia wie die kolportierte RTX 5050 (mit ganzen 8GB und durch 30% weniger Shadern super-effizient, denn ich will ja mit so einer Gaming-dGPU zuvorderst Strom sparen und dafür sorgen, dass man bei nVidia davon gut leben kann, der Rest ist zweitrangig) muss ich unbedingt haben;
Wie ich diese Schmähkritiken immer liebe und andererseits dann das geschrieben wird.
Chismon schrieb:
Einen m.E. noch besseren Deal gibt es aktuell mit einer deutlich leistungsstärkeren RX 6600 mit 8GB unter 200 Euro.
Die RTX 5050 8GB wird genau in diesen Preisbereich stoßen und etwas frischen Wind bringen, selbst die RX 7600 kostet eher noch 250 Euro, also ist doch ok. Von der Leistung her wird man in etwa bei der 4060 liegen und die ist besser als die 7600.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: knoxxi
Die Gerüchte Küche rundum Blackwell mitsamt der Refresh + Release Strategie finde ich mittlerweile genauso seltsam wie der komplette Preissturz im oberen Segment.
 
das Teil soll 130 Watt ziehen dürfen ... also nix mit "ohne extra Stromversorgung" und Einslot+passiv.

Das Teil ist Resteverwertung aus dem Ausschuss, mit dem NV auf Bauernfängerei geht.
 
  • Gefällt mir
Reaktionen: SweetOhm
  • Gefällt mir
Reaktionen: SweetOhm
Sagen wir mal die Karte ist 30% langsamer als ne 5060. Sprich sie ist langsamer als ne 4060, hat nicht mehr RAM und braucht auch noch 20W mehr Strom. Die Karte muss sehr, sehr günstig sein.

Svennc schrieb:
Wollte APUs jetzt auch nicht schlecht machen oder so. :) Die Technik ist schon beeindruckend... Für mich wärs irgendwann ggf. ebenfalls eine Alternative, deshalb find ichs auch ganz spannend. Aber bislang (noch) nicht...
Finde ich auch beeindruckend. Wenn die Hersteller sich da richtig reinversetzen, wäre das sicher cool. Vielleicht werden die mit DDR6 und CAMM2 bzw. UDIMM schneller. Schon jetzt bringt ja aufgelöteter RAM viel.
Kaito Kariheddo schrieb:
Ich hätte gern Single-Slot ohne extra Strom, dafür aber mit dem neuesten Encoder für 150€
Intel CPUs (ohne F) haben doch die neuesten Encoder. Oder? Sogar AV-1 und 4:2:2.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Ich würde mir durchaus eine 5020 oder so wünschen, mir würden die Video Hardware De- und Encoderfähigkeiten der Karte mehr als reichen.
the_IT_Guy schrieb:
Sicherlich eine schöne Physx Karte... oh wait.
was oh wait, vielleicht vorher mal informieren bevor man was raushaut. Wie schon gesagt wurde betrifft das PhysX aus nur die 32Bit Version, nicht die 64Bit.
Convert schrieb:
Warum nicht? Ist es nicht mehr so wichtig? Ist Physik in neusten Spielen nicht mehr wichtig?
Doch schon, nur dann halt für alle und nicht nur für Nvidia User. Die Engines bringen in der Regel ihre eigenen Physik Bibliotheken mit.
CDLABSRadonP... schrieb:
Eigentlich braucht GPU-PhysX, damit es richtig gut läuft, eine zweite Graka. (Performance der eigentlichen Graka ist ja immer zu wenig da) Doch Multi-Graka mit zwei großen Karten ist im Consumermarkt tot.
Das war damals schon Blödsinn, haben wir getestet. Mit ner 2. GPU als Physik Beschleuniger liefen die Spiele meist sogar schlechter als wenn man es auf einer Karte hat laufen lassen.
Convert schrieb:
Warum gibt es von CB und co keine Berichterstattung darüber? Ich verstehe nicht, warum das nur als Seitennotiz erwähnt wird.
Frag doch mal CB
 
Zurück
Oben