News GeForce RTX 5050: Desktop-Variante mit 8 GB und -30 % Shadern im Gespräch

Was AMD dazu bringen könnte eine 9050 mit 12 GB VRAM zu bringen.
 
Das Ding aber dann wohl eher als eine 5060 8GB ... :& pff

Logo keine HighEnd Gamer als ansprechende Fraktion ;)
 
Bei aktuellen Preisen würde die Karte sicher 250€-300€ kosten. Also viel zu teuer für das Gebotene.
@Sam Miles
Eher weniger. Hat man ja bei 9060 gesehen. Die spielen genauso dumme Spiele wie nvidia...
 
Sam Miles schrieb:
Was AMD dazu bringen könnte eine 9050 mit 12 GB VRAM zu bringen.
Naaaaaaatürlich im Leben nicht das kannste vergessen.

Leider denn für so ne AMD Karte hätte ich schon Verwendung für das ein oder andere Projekt 🤣
 
  • Gefällt mir
Reaktionen: phanter und NMA
Convert schrieb:
Ich frage mich sowieso, was aus Physx geworden ist. Früher wurde in jedem Test einer Nvidia Karte Physx gehyped, jetzt hat Nvidia auf DLSS und Raytracing umgeswitcht, jetzt wird bei jedem Test DLSS und Raytracing durchs Dorf getrieben, aber PhysX gar nicht mehr erwähnt. Warum nicht? Ist es nicht mehr so wichtig? Ist Physik in neusten Spielen nicht mehr wichtig?
  1. Raytracing läuft auch auf RDNA2 und damit den CurrentGen-Konsolen und dem SteamDeck.
  2. GPU-PhysX läuft nur auf Geforces und theoretisch auf der Switch, doch theopraktisch ist die zu lahm.
  3. Eigentlich braucht GPU-PhysX, damit es richtig gut läuft, eine zweite Graka. (Performance der eigentlichen Graka ist ja immer zu wenig da) Doch Multi-Graka mit zwei großen Karten ist im Consumermarkt tot.
  4. Eine alte, große Karte als PhysX-Karte zu verwenden wurde durch die Preisentwicklung immer übler. Und die Karten werden dicker, das macht es auch schwieriger...
Da kommt also richtig viel schon auf Hardwareebene zusammen. Nebenbei haben die großen Engines auch versucht, auf ihrer Softwareebene einiges zu lösen. Nvidia indes hat wenig weiteres bzgl GPU-PhysX geleistet.
 
  • Gefällt mir
Reaktionen: NMA
Wenn die 5050M auch 8GB hat, wäre das ein Fortschritt.
 
  • Gefällt mir
Reaktionen: Simanova
Sam Miles schrieb:
Was AMD dazu bringen könnte eine 9050 mit 12 GB VRAM zu bringen.
Ich könnte mir vorstellen, dass die InfinityCache-MemoryContoller-Bauweise nicht erlaubt, nur einen 32bit-Controller zu deaktivieren und somit auch die 9050 (XT) mit 128bit und 8GiB / 16GiB erscheinen müsste.
 
  • Gefällt mir
Reaktionen: NMA
RTX 5050, diese Liga sollte langsam aber sicher eine Nische sein, die von guten APUs abgedeckt wird. Ok, die Plattformkosten muss man sich natürlich erst einmal gönnen wollen.

Samuelz schrieb:
Auch wenn das die meisten CBler nicht wahrhaben wollen.
Ja, welch eine Wonne, dass es euch Neuzugänge gibt, die seit einigen Monaten aus der Meta-Ebene heraus so freundlich den Spiegel vorhalten. Keine News mehr ohne diese unentbehrliche, wie gleichermaßen bereichernde Einordnung der Community.
 
  • Gefällt mir
Reaktionen: Toastman_deluxe, Saint81 und LamaMitHut
CDLABSRadonP... schrieb:
  1. Raytracing läuft auch auf RDNA2 und damit den CurrentGen-Konsolen und dem SteamDeck.
  2. GPU-PhysX läuft nur auf Geforces und theoretisch auf der Switch, doch theopraktisch ist die zu lahm.
Das hat Nvidia und die Tester nicht davon abgehalten PhysX bei jedem Test als Nvidia-Bonus immer und immer wieder zu nennen. Und nach dem es für Nvidia nicht mehr wichtig war, weil die jetzt lieber über Raytracing und DLSSS reden wollten, haben auch die Tester auf einmal aufgehört PhysX in jedem Test zu würdigen oder gar zu erwähnen. Warum? Weil in dem "Test-quide" zur NDA jetzt steht, dass man bitte über DLSS und Raytracing berichten soll, während man früher eine NDA unterzeichnet hat, wo im "Test-Quide" stand dass man über PhysX doch bitte berichten sollten, wenn man eine Nvidia-Grafikkarte zum Release testet?

CDLABSRadonP... schrieb:
  1. Eigentlich braucht GPU-PhysX, damit es richtig gut läuft, eine zweite Graka. (Performance der eigentlichen Graka ist ja immer zu wenig da) Doch Multi-Graka mit zwei großen Karten ist im Consumermarkt tot.
Damals waren die Karten schwächer als heute. Wenn Karten damals Power für PhysX hatten, dann haben die das heute auch.
CDLABSRadonP... schrieb:
  1. Eine alte, große Karte als PhysX-Karte zu verwenden wurde durch die Preisentwicklung immer übler. Und die Karten werden dicker, das macht es auch schwieriger...
Die wurden immer Dicker und damit immer Leistungsfähiger. Eine dicke Karte von heute ist drölf mal so schnell wie zwei dünne Karten von damals.

CDLABSRadonP... schrieb:
Da kommt also richtig viel schon auf Hardwareebene zusammen. Nebenbei haben die großen Engines auch versucht, auf ihrer Softwareebene einiges zu lösen. Nvidia indes hat wenig weiteres bzgl GPU-PhysX geleistet.
Die Engines wäre das einzige Argument. Wenn die wirklich etwas vergleichbares haben, dann braucht man natürlich PhysX nicht. Die Frage ist: Haben die Engines PhysX wirklich obsolet gemacht, oder ist Physik jetzt einfach nicht mehr interessant, weil es für Nvidia nicht mehr interessant ist?
 
  • Gefällt mir
Reaktionen: SweetOhm und the_IT_Guy
Für 249 € (k)eine Alternative :rolleyes:
 
  • Gefällt mir
Reaktionen: Simanova
Kaito Kariheddo schrieb:
Ich hätte gern Single-Slot ohne extra Strom, dafür aber mit dem neuesten Encoder für 150€
Intel Arc.


Für mich bleibt die nvidia rtx 5000 Serie ein flop. Hoffe die nächste wird wieder besser.
 
  • Gefällt mir
Reaktionen: SweetOhm
Die Nvidia 5000er unterstutzen doch gar kein PhysX mehr in Hardware, deshalb laufen die alten Spiele die das brauchen mega schlecht
 
  • Gefällt mir
Reaktionen: SweetOhm
Bullgard schrieb:
Die Nvidia 5000er unterstutzen doch gar kein PhysX mehr in Hardware
Die unterstützen nur kein 32-Bit PhysX mehr, weil generell der 32-Bit CUDA Support rausgeflogen ist.
 
  • Gefällt mir
Reaktionen: sikarr, aid0nex, phanter und eine weitere Person
mibbio schrieb:
Die unterstützen nur kein 32-Bit PhysX mehr,
Was bedeutet das Konkret? Wie viele spiele mit PhysX werden nicht mehr unterstützt und wie viele werden noch unterstützt? Warum gibt es von CB und co keine Berichterstattung darüber? Ich verstehe nicht, warum das nur als Seitennotiz erwähnt wird.
mibbio schrieb:
weil generell der 32-Bit CUDA Support rausgeflogen ist.
Aber der 32-bit CUDA ist der, der am meisten auf Consumer-Grafikkarten gebraucht wurde, weil bei 64-bit die Konsumerkarte immer stark beschnitten waren. Ohne 32-bit Cuda support, bleibt ja kaum noch support übrig. Ja, inzwischen gibt es für AI noch 8bit und 16bit, aber abseits von KI war doch 32-bit und 64-bit über lange Zeit maßgebend. Auch darüber wird irgendwie nicht berichtet. Stattdessen nur "DLSS" hier "Multiframe Generation" dort. Warum fliegt der 32-bit Support raus und welchen Impact hat das auf die Anwenderlandschaft, darüber hätte man doch auch mal berichten können...
Ergänzung ()

Bullgard schrieb:
Die Nvidia 5000er unterstutzen doch gar kein PhysX mehr in Hardware
Genau das war der Aufhänger, um das Thema hier aufzugreifen. ;)
 
Du vermischt da glaube zwei Sachen, die nichts miteinander zu tun haben. Das, was auf Consumerkarten beschnitten ist, ist die Rechenleistung mit 64-Bit Fließkommazahlen, auch "Double Precisions / Doppelte Genauigkeit" genannt. Die Genauigkeit beschreibt, wie viele Nachkommastellen bei den FLießkommazahlen berücksichtigt werden.

https://en.wikipedia.org/wiki/Floating-point_arithmetic#IEEE_754:_floating_point_in_modern_computers

CUDA und PhysX in 32- oder 64-Bit ist aber eine komplett andere Baustelle, denn dort es geht darum, ob die Anwendung oder Bibliothek (DLL) auf eine 32- oder 64-Bit Architektur ausgelegt ist. Also ob die Anwendung oder das Spiel nur mit 32-Bit langen Speicheradressen umgehen kann oder mit 64-Bit langen.
Eine für 32-Bit kompilierte .exe eines Spiels kann auf grund der kürzeren Speicheraddressen nur maximal 4 GB Speicher ansprechen und im Falle von PhysX wird dann auch die 32-Bit DLL verwendet. Ein für 64-Bit kompiliertes Spiel verwendet dann entsprechend dann die 64-Bit DLL von PhysX. Beides wird bisher ganz normal von den Consumerkarten untersützt, weil es wie gesagt, nicht um Fliekommagenauigkeit geht. Von dem Rauswurf sind also nur alte Spiele betroffen, die noch in 32-Bit programmiert wurden oder aus anderen Gründen PhysX nur in der 32-Bit Variante verwenden.

Spiele, die PhysX in 64-Bit verwenden laufen dagegen auch mit Blackwell weiterhin hardwarebeschleunigt. Beispiele, wo mit Blackwell gpu-beschleunigtes PhysX wegfällt wären Borderlands 2 oder MIrrors Edge, da es die Spiele nur in 32-Bit gibt. Die kann man aber weiterhin mit voller Performance spielen, man muss halt nur auf PhysX-Effekte verzichten (also in den Optionen abschalten).

https://www.golem.de/news/32-bit-cu...uf-blackwell-gpus-ohne-physx-2502-193505.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BrollyLSSJ, sikarr, SuperHeinz und 7 andere
Svennc schrieb:
Verwaiste Nische, von AMD sogar noch mehr.

Die Gerüchte-Küche spricht bei AMD ja auch von einer 9050 und sogar einer 9040. Da könnte also etwas interessantes kommen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Svennc
mibbio schrieb:
Also eine mögliche RTX 5050 konkurriert dann durchaus schon mit den derzeit schnellsten iGPUs.
Die RTX 3050 6GB konkurriert mit der 890M. Die sind etwa gleich auf. Bei der Rohleistung ist die Nvidia etwas flotter. Bei RAM Lastigen Sachen punktet die iGPU. Gilt natürlich nur mit den verlötetem 7500er RAM.

Tatsache ist dass die iGPUs immer stärker werden und Low End GPUs so langsam überflüssig werden.

Selbst eine 760M von einem 8600G ist in der Lage AV1 zu decodieren und encodieren. Das sogar flott. Damit kann man schon richtig gut Videos schnippeln.

Wenn ich sehe, dass AMD nur 30€ für 8GB mehr VRAM verlangt, so könnten 48GB nur 180€ kosten. Und der RAM von so einer 9060XT ist verdammt schnell.
Das heißt, dass einestages wir GPUs mit 48GB haben werden mit einer CPU.
 
CDLABSRadonP... schrieb:
Eigentlich braucht GPU-PhysX, damit es richtig gut läuft, eine zweite Graka. (Performance der eigentlichen Graka ist ja immer zu wenig da) Doch Multi-Graka mit zwei großen Karten ist im Consumermarkt tot.
Das große Problem von PhysiX ist, dass es sehr viel Synchronisation benötigt. Wenn da physische Objekte und deren Verhalten berechnet werden, muss das in der Spiellogik behandelt werden wie auch vom Renderer. Das auf einer dritten Hardwareinstanz (PhysiX Karte) neben GPU (Renderer) und Prozessor (Logik) zu haben ist garnichtmal so toll.
 
  • Gefällt mir
Reaktionen: [SM]Valen und NMA
Zurück
Oben