News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

paganini schrieb:
mit der 4000er Gen ist ein großer Leistungssprumg mit RT passiert, das muss AMD erstmal aufholen
Müssen bestimmt nicht, wenn man sieht welches Nischendasein RT-RT bis heute fristet und wie mies/unauffällig es implementiert ist in Spielen und nur in einer Handvoll meist verbuggter AAA Titel eine Rolle für einige spielt und somit komplett überbewertet wird, auch Dank Bockmist-Marketing von nVidia und deren Fans, Spielentwicklern und natürlich unkritischer Fachpresse.

Genauso gilt das meist für den DLSS vs. FSR Vergleich, da man minimale Unterschiede per Lupe suchen muss - und im Spielfluss ebenso i.d.R. nicht wahr nimmt - als Nutzer von Upscaling sowieso meist nicht beide Techniken nutzt sondern nur die vom jeweiligen Grafikkartenentwickler.

Ja, leider tragen die o.g. Gruppen ebenso wie natürlich Konsumenten zu der Quasi-Monopol Schieflage im Mainstream-Grafikkartenbereich schon seit Jahren bei, auch wenn keiner dieser Gruppen es (gerne) zugibt.

Das folgende Video von CoreTeks zu AMDs Aussichten und weil man High-End (als Folge der Marken-Kaufmentalität, sowie vorausgehend auch getriggert durch die (teilweise einseitige, unkritische) mediale Berichterstattung und vor allem nVidia Marketing (Budget)) dort eingestellt hat, ist dahingehend schon interessant:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, thom_cat, jo0 und 5 andere
Denke auf die Super karten warten ist das schlaueste was man tun kann. Selbst wenn die super kacke sein soll, ist die reguläre dann um einiges billiger als zu launch oder gerade zu launch.
 
  • Gefällt mir
Reaktionen: Nefcairon
heroesgaming schrieb:
Du sagtest, AMD solle erst einmal das Ampere-Niveau für RT knacken. Ich sagte darauf hin, dass das bereits geschehen sei.
Äh nein, eine 7900XTX hat eine RT Leistung einer 4070Ti. Eine 4070ti hat aber nicht die RT Leistung einer 3090. also ist die 3000er Serie nicht „geschlagen“ denn da müsste die 7900XTX besseres RT haben als eine 3090, hat sie aber nicht
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich hoffe, der Leak ist ein schlechter Scherz.
Hätte Interesse an einer 5080, aber mit 16 GB?
No ******* way!
 
  • Gefällt mir
Reaktionen: Nefcairon und muvmend
Syrato schrieb:
Schon einmal daran gedacht, dass man auch KI damit betreiben kann?
Tellerrand und so!
Schon einmal daran gedacht, dass eigentlich genau DAS dass Problem ist. NV wird halt keine "billigen" KI-Karten auf den Markt werfen, wenn man gerade DAMIT aktuell richtig gut Geld im B2B scheffelt.
Convert schrieb:
AMD hat also eine andere Ausgangslage als Nvidia. Wenn AMD es also mit dem Marktanteil steigern es ernst meint, muss es eben alles bieten, was möglich ist und vom Markt gewünscht ist.
Am Ende wird eh wieder NV gekauft. Denn egal was AMD in den letzten Jahren gemacht hat - gebracht hat es nicht viel. Nicht einmal RDNA2 hat nennenswert Marktanteile gebracht und das obwohl man hier tatsächlich mit Ausnahme der RT-Leistung quasi in allen Disziplinen das bessere Produkt hatte...
AMD hat aus meiner Sicht mit RDNA3 mehr als gezeigt, dass man inzwischen auf Marktanteile scheißt, wenn sie nur Geld kosten. Weil sich AMD das einfach auch nicht leisten kann, dauerhaft den Preiskampf auszurufen, wenn die Leute dann am Ende doch der beliebteren Marke hinterlaufen - die im Endeffekt, auch wenn hier immer so viel gejammert wird, halt auch einfach das bessere Produkt am Markt haben.

Da kann man hier über VRAM und Preis jammern, wie man möchte. Sämtliche Tests und Benchmarks zeigen aktuell ganz klar, dass eine 7800 XT oder 7900 GRE gegenüber einer 4070 Super auch nicht schneller wird, nur weil sie 4 GB mehr VRAM hat. Die 7900 XT und 7900 XTX zeigen das gegenüber der 4080 noch deutlich mit ihren 20 bzw. 24 GB...
Und das meine ich. AMD verbaut mehr VRAM, weil es für AMD vermutlich einfach eine dann doch recht billige Möglichkeit ist, den ein oder anderen zu beeindrucken im Zweifel ja doch den ein oder anderen.

Diese VRAM-Diskussion wird langsam langweilig - und umso weniger glaubwürdig, wenn dann in vielen Systemen doch wieder ein NV-Karte steckt, weil zwar "weniger VRAM" aber in allen anderen Belangen besser. Das AMD da aufschließen kann, muss AMD erstmal beweisen.

Wenn ich hier jetzt überfliege und dann schon wieder sowas lese, dass eine 5070 für 600 Euro 4090-Leistung liefern soll, die wenige Monate vorher noch 2.000 Euro kostet, dann muss ich einfach laut loslachen, in welcher Bubble sich Menschen bewegen können. Wenn ihr Leistung wollt, legt das Geld hin, dass dafür aufgerufen wird oder lasst es und lebt damit, was ihr bekommt (oder eben nicht bekommt)...
 
Sun-Berg schrieb:
Wird eine 70er der 5xxxer Reihe wieder in etwa auf dem Leistungsniveau einer 90er der 4xxxer Reihe sein?
Nope, das wird nicht passieren.
 
  • Gefällt mir
Reaktionen: Sun-Berg und Nefcairon
amd ist in dxr aktuell genau doppelt so viel rt nötig als nvidia ada rt core und bei ampere ist man 41% hinter nvidia rt core perf.
Sprich die n32 chips erreichen gerade mal ampere rtx3050 6gb level
Der n32 60cu erreicht nur die rtx3060ti an dxr perf.
rdna4 ist da deutlich schneller und erreicht dann gerade mal ampere lvl also sind 64cu mit 64 rdan4 rt cores vs 68 ampere rt core nötig.
und ja das ist ne rtx4070
Es kann etwas höher ausfallen ist aber eher unwahrscheinlich.
 
kachiri schrieb:
Weiß nicht, wie man zu der These kommen kann, dass 12 GB "gerade so hinhauen". Ich lese häufiger "Grafikspeicher spielt kaum eine Rolle" als das Gegenteil.
RTX AI was ich schon gesehen habe in mal mehr bringt als RTX Effekte, braucht Trommel 16GB so aber Leistung einer RTX4060 würde reichen ;)
 
  • Gefällt mir
Reaktionen: Chismon
Jetzt meckern sehr viele hier, in ein paar Monaten haben diese User die neuen Nvidia Karten in der Signatur.

Bin froh mit dem jeweils letzten Generationen zufrieden zu sein weil ich keine neuen Spiele zocke.
 
  • Gefällt mir
Reaktionen: JarlBallin, Nefcairon, muvmend und eine weitere Person
icetom schrieb:
Bin froh mit dem jeweils letzten Generationen zufrieden zu sein weil ich keine neuen Spiele zocke.

Die letzten Generationen sind doch völlig ausreichend für neue AAA-Spiele. Man darf sich nur keinen 4k-Monitor aufschwatzen lassen, Details krampfhaft auf Maximum drehen, und dann noch einreden lassen, dass ein Minimum von 120 fps bei AAA-Spielen jemals auch nur ansatzweise Standard gewesen wäre.
 
  • Gefällt mir
Reaktionen: daknoll
BmwM3Michi schrieb:
Die Geforce RTX 5090, Geforce RTX 5080 und Geforce RTX 5070 sollen im Januar 2025 zu "Wahnsinnspreisen" an den Start gehen!

1.) 1.999 bis 2.499 US-Dollar für die Geforce RTX 5090 mit 32 GiB
2.) 1.199 bis 1.499 US-Dollar für die Geforce RTX 5080 mit 16 GiB
3.) 599 bis 699 US-Dollar für die Geforce RTX 5070 mit 12 GiB

https://www.pcgameshardware.de/Graf...ws/Geforce-RTX-5090-5080-5070-Preise-1457343/
Das ist schon extrem krass tbh wenn das so kommt.

Bei der 5080...Preis der 4080 bei Release..bei wahrscheinlich 4090 Leistung mit nur 16GB wäre heftig aber wahrscheinlich genau so zu erwarten. Da kommt sicher irgendein Software-"Feature"..
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
braucht Trommel 16GB so aber Leistung einer RTX4060 würde reichen
Ja klar, alles kalkuliert bei nVidia, aber ausnahmsweise könnten dadurch die mobilen Grafikkarten wieder Boden gut machen zu den Desktopmodellen bei Blackwell/RTX 5000 (im Abverkauf kommender Gaming-Laptops in ein paar Jahren u.U. nicht uninteressant sein).

Schauen wir 'mal (normaler Weise sind die mobilen dGPUs von nVidia ja noch deutlich gebeutelter und hängen arg zurück gegenüber den Desktopmodellen, aber TSMC-fertigungstechnisch ist da eben nicht so ein großer Leistungszuwachs zu erwarten und irgendwie muss man die mobilen RTX 5000er Karten ja attraktiver machen als die jetzigen - insbesondere unterhalb einer mobilen RTX 4080 (mit gerade einmal 12 GB), wo der Verkauf auch nur wegen maximal verbauten 8GB stocken dürfte - speicherverknappten RTX 4000er Karten.

Übrigens ist das neueste CoreTeks Video zur Epics Unreal Engine 5 Weiterentwicklung und dahingehend insbesondere der Single Pass Globalbeleuchtungstecknik MegaLights, die RTX mit deutlich weniger Leistungshunger evt. komplett ersetzen kann, da deutlich effizienter und RTX(DI) damit auch zunehmend weniger relevant machen könnte (auch wenn nVidia da weiterhin mächtig Marketing hinein investieren wird).


MegaLights könnte AMD definitiv gelegen kommen, auch wenn RDNA4 RT-RT stärker/besser unterstützen wird, aber viel hängt davon ab, wie sich die Entwickler entscheiden werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ich wollte meine rtx 3070 mit der rtx 5070 aufrüsten aber die 12 GB machen es mir madig.
Und gespannt bin ich auch schon wie viel der Spass kosten wird.
Abliefern ist was andere würde Dieter Bohlen sagen 😁
 
  • Gefällt mir
Reaktionen: Mcr-King
Losti73 schrieb:
Ich wollte meine rtx 3070 mit der rtx 5070 aufrüsten aber die 12 GB machen es mir madig.
Vielleicht wird die kolportierte RX 8800XT (mit 16GB) von AMD bei vergleichbarem oder günstigerem Preis und mit evt. vergleichbarer Leistung ja eher etwas für Dich ;).

Ein neues Preis-Leak zur RTX 5090 (vermutlich näher an 2500 US$ vor Steuern als an 2000 US$ vor Steuern, Verknappungsaufpreise durch Scalper, K.I-ler, etc. zum Start nicht eingerechnet) gibt es auch und Gerüchte zur RTX 5070 Leistung und Preis (knapp 700 US$ vor Steuern kann ich mir gut vorstellen, also über 700 Euro, aber dann wie schnell mit nur 12 GB im Vergleich zur RTX 4070 Ti Super mit 16 GB für mittlerweile unter 800 Euro?) gibt es von Moore's Law Is Dead (MLID)/Tom:


P.S.: Ich finde übrigens den Namen RX 7650 GRE - anders als Tom/MLID - klasse :D. Das spricht, wie bei der RX 7900 GRE ursprünglich, wohl für eine Einführung im OEM Segment und auf dem chinesischen Markt, also vorerst eher weniger relevant, wenn das Modell von AMD denn wirklich kommen sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Losti73 und Mcr-King
Wollte von meiner 1080ti mit 11GB nach 4 Generationen auf eine 5070 setzen aber wenn sie nur 12GB bekommt fällt sie raus. Hab damals glaube 850€ für die 1080ti bezahlt, da wird sich eine 5070 sicher auch anfangs irgendwo einordnen. Das wär' bitter
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Halema schrieb:
Der Speicherausbau kann schon hinkommen. Ich stelle mir das wie folgt vor:

5050 für 720p, 5060 für FHD, 5070 für WQHD, 5080 für 4K, 5090 für 8K.

Das würde ich stark anzweifeln. 8K hat die vierfache Pixelanzahl im Vergleich zu 4K zu befeuern und die 4090 ist teilweise schon bei 5120x1440p überfordert - erst recht mit Pathtracing.
 
  • Gefällt mir
Reaktionen: Mcr-King und Nefcairon
Krik schrieb:
Die betreiben wirklich gutes Upselling. Jeder Gamer, der seinem Hobby gerecht werden will, soll sich das 2000+ € Monster kaufen. Tja.

Es liegt in eurer Hand, ob ihr die 5090 kauft oder eben auch nicht. Den Konzern bekommt man nur über den Geldbeutel umgestimmt.
Also ICH habe bei der 4000er Serie mit dem Geldbeutel gestimmt und nicht gekauft. Und das, obwohl meine 2080 Ti aus dem letzten Loch pfeift: nur noch 85% Power Target stable und das schon seit über 1 Jahr. Hat ja insg. super funktioniert... nicht. Jetzt ärgere ich mich ja fast schon keine 4090 gekauft zu haben.

Naja, wie dem auch sei - so langsam wird mir nichts anderes übrig bleiben als auf die 5000er Serie umzusteigen. Da die 5080 und 5070 von den Specs her einfach nur richtig besch...eiden aussehen, ist die 5090 ja fast schon alternativlos. Ich bin echt dezent genervt.
 
  • Gefällt mir
Reaktionen: Nefcairon
drago-museweni schrieb:
Wär typisch Nvidia, würde mich mal interessieren warum die immer so knausern mit Speicher als würde der soviel kosten, AMD ist da nicht so geizig.
Nennt sich Zukunftsplanung oder auch Gewinnmaximierung.
Dann werden sogenannte Super- oder Ti-Modelle nachgeschoben
ohne weiteren Änderungen an der Grafikkarte selbst.
Die Spieler, die dann merken dass 12 oder 16 GB für Ihre Zwecke zu wenig sind...
tja, die kaufen halt auch das "Upgrade" für teuer Geld.
Alles Planung zum Geld scheffeln.. Nvidia halt :stock:
 
  • Gefällt mir
Reaktionen: Mcr-King und maxpayne80
Zurück
Oben