Was geht noch mit 6GB GPUs und Grafikkarten?

Samez schrieb:
Die RTX3080 hat ja auch "nur" 10GB VRAM und es läuft doch praktisch alles in 1440p dank DLSS.
Was heißt alles? Ich finde es schon ernüchternd, wenn man auf eine damals so teuren GPU nach ein paar Jahren neue Titel wie India Jones aufgrund des VRAMS nur noch stark reduzierten Details spielen kann, weil es sonst die Framerate einbricht, während eine ähnlich schnelle 4070 keine Probleme hat:
1746265270176.png


PS: DLSS spart kein VRAM
 
  • Gefällt mir
Reaktionen: Marflowah und loser
Naja vieles mit UE5 läuft wie zuletzt Oblivion Remastered oder Space Marines 2. Indiana Jones habe ich mir nicht im speziellen angeschaut.
Da sind wir wieder bei dem Thema: was spielt man....
Richtig ist natürlich schon, dass mehr VRAM immer besser ist als weniger - ich hätte schon damals auch gerne mehr gehabt, aber die Option zusammen mit DLSS gab es damals nicht für bezahlbares Geld.
Bezüglich VRAM und DLSS - ich dachte da werden Texturen mit hoch skaliert, aber da kann ich mich auch echt täuschen.
 
Sahit schrieb:
Sehe ich prinzipiell anders. Das Thema ist einfach nur Nvidias Gier zuzuschreiben

Mahlzeit,

das hat nichts mit Gier zu tun sondern ist dem Markt geschuldet. Wenn Du eine Grafikkarte mit 16GB VRAM oder mehr bringst die alles bis 1440p in Highend zum laufen bringt und das dann für 300 Euro auf den Markt bringst dann verkaufst Du als Firma die nächsten Jahre nichts mehr.

Das ist bei Telefonen, Autos, TV Geräten und ähnlichen auch so.

Nvidia nutzt halt einfach die Gegebenheiten und das machen alle so. Intel hat das mit den CPU gemacht. Macht AMD ja jetzt auch, siehe R7 9800X3D. Der könnte auch 300 Euro kosten aber AMD ist nicht die Wohlfahrt. Die Aktionäre wollen Geld sehen.

Was man als Kunde machen kann ist zum Beispiel nicht bei jedem Release dem Hersteller das Geld in den Rachen zu werfen. Aber da fehlt vielen die Selbstkontrolle. Man brauch am Releasetag ja eine 5080, 5090 oder das Pendant von AMD. Da kann man nicht warten und regt sich dann im Forum auf wie schlimm doch alles ist. Und wie gemein Nvidia, AMD und oder wer auch immer. Wenn es nicht der Hersteller ist dann ist der Scalper schuld. Scalper gibt es auch nur weil es Käufer gibt die keine Selbstkontrolle haben.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: maxi_rodriges, ToroRosso und PeacemakerAT
AMD-Flo schrieb:
Was heißt alles? Ich finde es schon ernüchternd, wenn man auf eine damals so teuren GPU nach ein paar Jahren neue Titel wie India Jones aufgrund des VRAMS nur noch stark reduzierten Details spielen kann, weil es sonst die Framerate einbricht, während eine ähnlich schnelle 4070 keine Probleme hat:
Anhang anzeigen 1613722

PS: DLSS spart kein VRAM
Wobei Indiana Jones dafür nicht das beste Beispiel ist. Denn: Mit Indy wird so ein Schindluder betrieben.... Machine Games sollten Klage einreichen, das dürfte sie einige Sales gekostet haben. Das Spiel skaliert nämich wunderbar und ist ein Beispiel dafür, wie man auch Einstiegs-RT-Hardware noch mitnimmt. edit: 6GB sind aber offiziell nicht mehr unterstützt, samt anscheinend Grafikfehlern später. Eine neue 6GB-Karte ist eh nicht wirklich "gespart..."

Das Setting, mit dem Spezialisten quer übers Netz hier selbst eine RTX 3080 abstürzen lassen, ist nicht mal eine direkte Detaileinstellung, sondern ein (LOD-)Cache. Übersteigt dessen Größe den Videospeicher, gibts Schluckauf, völlig egal, was sonst eingestellt ist. Natürlich hat das ein paar Auswirkungen auf die Bildquali, wenn man etwa gleich auf niedrigste Settings muss. Aber da Doom demnächst quasi die gleichen Specs hat und ebenso auf id Tech basiert, wird die Show wohl weitergehen. :D



 
Zuletzt bearbeitet:
AMD-Flo schrieb:
Die Karten sind so günstig, weil es veraltete Einsteigerkarten sind.
Die GeForce RTX 3050 6GB würde ich eher als aktuelle Einsteigerkarte sehen. Denn bei der RTX 4000 Serie gab es bei den Desktop-Karten keine RTX 4050 und die RTX 5050 ist auch noch nicht released. Ausserdem wurde die RTX 3050 6GB ja erst im Februar 2024 nachgeschoben.

Bei der Radeon RX 5600 XT würde ich zwar das Attribut veraltet gelten lassen, denn wie wurde ja schon 2020 eingeführt, aber dafür war sie damals Obere Mittelklasse, und unter der RX 5700 XT und RX 5700 die drittbeste Karte der Serie. Von unten ging es ja mit einer RX 5300 los. Es ist eben jetzt ein günstiger Restposten-Abverkauf.

AMD-Flo schrieb:
Spätestens bei einer Neuanschaffung sollte man jedoch ein Karte mit mindestens 12 GB VRAM kaufen, bei stärken GPUs und höheren Auflösungen besser 16 GB VRAM. Inzwischen gibt es genügend Auswahl an bezahlbaren Karten mit ausreichend VRAM, beginnend mit der RTX 3060, Arc B580 oder RX7600XT
Die sehe ich eher als Special Interesst Karten für Leute die viel FPS in UHD bei niedrigen Details und ohne Raytracing wollen.

Vorallem die RX 7600 XT hat zwar 16GB ist aber von der Rechenleistung her auch nur eine RX 7600 also absolute Einsteigerkarte.

Die RTX 3060 gibt es zwar als 12GB Version und hat dann viel RAM, aber liegt auch von der Rechenleistung unterhalb einer RTX 3060 Ti / RTX 3070 / RTX 3070 Ti die allesamt nur 8GB haben.

Und von Intel hört man im Bezug auf die Treiber auch nichts gutes.

Wenn dann wäre ich eher für die RX 7700 XT oder eine gebrauchte RTX 3080 mit 10GB oder 12GB.

DJMadMax schrieb:
Das trifft den Nagel auf den Kopf, den viele oftmals außer Acht lassen :)

Selbstverständlich bringe ich eine aktuelle RTX 5060 Ti mit nur 8 GB ganz schnell an ihre Grenzen, wo ich hingegen mit derselben Karte mit jedoch 16 GB VRAM noch etwas Spielraum habe. Letztlich habe ich aber nichts davon, wenn die eine Variante mit 20 FPS vor sich hinzuckelt, die andere mit 35 FPS. In beiden Fällen bin ich also gezwungen, die Grafikeinstellungen sowieso so weit herunter zu schrauben, dass ich wieder spielbare FPS bei stabil über 60 FPS bekomme und das geht sowohl mit der 8 GB Variante, als auch mit der 16 GB-Variante.
Kommt drauf an um was für Spiele es geht, für Shooter sind natürlich 35 FPS zu wenig, aber für Simulationspiele wie Anno 1800 oder Baldur's Gate 3 reichen 35 FPS doch locker.
 
  • Gefällt mir
Reaktionen: DJMadMax und Ja_Ge
Hab im Zweitrechner vor 2 Jahren oder so ne RTX3050 6GB eingebaut. Muss man halt Grafik entsprechend runterdrehen. Diablo 4 läuft wegen dem VRAM-Hunger nicht so geil, aber wie schon mehrfach hier geschrieben, mit den Reglern sollte man schon umgehen können. Und warum hab ich die Karte gekauft? Weils die einzige gaming taugliche Grafikkarte ist, die keinen zusätzlichen Stromanschluss benötigt.
 
qiller schrieb:
Hab im Zweitrechner vor 2 Jahren oder so ne RTX3050 6GB eingebaut. Muss man halt Grafik entsprechend runterdrehen. Diablo 4 läuft wegen dem VRAM-Hunger nicht so geil, aber wie schon mehrfach hier geschrieben, mit den Reglern sollte man schon umgehen können. Und warum hab ich die Karte gekauft? Weils die einzige gaming taugliche Grafikkarte ist, die keinen zusätzlichen Stromanschluss benötigt.

Das ist auch der eigentliche Einsatzzweck.

Ansonsten sollte 2025 jeder andere die paar Mücken drauflegen und mindestens eine 3050 oder 6600 nehmen. Persönlich habe ich seit einiger Zeit eine 3060 und werde sie wohl noch ein paar Jahre nutzen (hooray for DLSS4). Bei der 1050 Ti davor war ich übrigens froh, dass man mir die 2GB-1050 damals ausgeredet hatte. Das waren 2016 die Minimumspecs, wie heute 6-8. Mit der 1050Ti blieben noch Elden Ring und BG3 spielbar. Sogar Deathloop lief ohne Grafikfehler, obwohl das offiziell minimum 6GB braucht. Preis einer 3060 zu Zeiten von Elden Ring? 600 Bucks.

In Indy Jones und Kingdom Come 2 waren neulich bereits in FHD über 11GB reserviert -- aber reservierter Speicher ungleich genutzter Speicher. Eine nennenswerte Zahl an Games, die mehr als 8GB VRAM minimum brauchen, wird wohl erst mit der PS6 kommen. Mit 6 sieht das womöglich anders aus. Da ist Doom der nächste Titel, der sagt: "Wir supporten Grafikkarten ab 8GB." Speicher vollballern ist gar kein Problem. Da sagte schon vor Jahrzehnten so ein Typ was von 640kb, die genug für jeden sein sollten. :D Dazu ein paar mäßige Komsolenports on top... Alte Bauernregel: Das, was heute unter "Empfohlen" gelistet ist, ist das "Minimum" von Morgen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DJMadMax
Ich denke die Stromversorgung sollte kein Problem sein, selbst die günstigsten 350W Silent-Netzteile für Office-PCs oder SFX-Netzteile für HTPCs haben minestens 1x 8-Pin oder 2x 6-Pin (dafür gibt es dann ja Y-Adapter auf 1x 8-Pin) für Netzteile.

Man bekommt sogar GeForce RTX 3060 8GB / RTX 3060 12GB / RTX 3060 Ti 8GB und Radeon RX 7600 alle deutlich unter 300€, aber für eine Radeon RX 7600 sind es dann doch so 255€.

Nüchtern betrachtet ist es immer noch ein guter Preis, aber bei einem "Creator-PC" will man eben oft auch gerne ein schnelle 2-4TB m.2 SSD und eine moderne DDR5 Plattform mit 32GB RAM und RGB und das kostet dann eben auch Geld.
 
Martyn schrieb:
aber bei einem "Creator-PC" will man eben oft auch gerne ein schnelle 2-4TB m.2 SSD und eine moderne DDR5 Plattform mit 32GB RAM und RGB und das kostet dann eben auch Geld.
Und auch hier hat man großen Spielraum, es muss sich nicht jeder einen 9800X3D kaufen, ein 7700 reicht dick und spart über 300€, beim Board ein B650/B850 um 150 statt X870E um 300€ und so weiter.
Greift man überall ins höchste Regal ist ein Zocker PC unverschämt teuer und in 5 Jahren ist ohnehin alles alt. Klar High End hält sich etwas länger stabil, kostet aber das 3 fache und 3x so lange kann man das auch nicht mit Genuss nutzen.
 
DaHell63 schrieb:
Um mal bei deinem Indi Beispiel zu bleiben.
Und wo genau sehe ich hier die VRAM Auslastung?
Dein Beispiel zeigt die Framerate mit Full Raytracing, wo AMD bekannterweise schlecht abschneiden. Das hat aber mit dem VRAM überhaupt nichts zu tun. DLSS reduziert die Renderauflösung, um eine höhere Framerate zu erreichen und skaliert dann das gerenderte Bild auf die Zielauflösung. Durch die niedrigere Auflösung wird zwar etwas VRAM gespart, aber das hochskalieren braucht wiederum etwas VRAM, wodurch die Belegung gleich bleibt. VRAM Mangel kann man nicht mit DLSS kompensieren. RT und FG kosten zusätzlich VRAM.

Die VRAM Problematik sind man ganz klar hier:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5060-ti-8-gb-test.92401/seite-3#

Martyn schrieb:
Die GeForce RTX 3050 6GB würde ich eher als aktuelle Einsteigerkarte sehen. Denn bei der RTX 4000 Serie gab es bei den Desktop-Karten keine RTX 4050 und die RTX 5050 ist auch noch nicht released. Ausserdem wurde die RTX 3050 6GB ja erst im Februar 2024 nachgeschoben.
Die RTX 3050 GB ist eine abgespeckte 3050 8 GB mit 70W Verbrauch, damit die Karte nur über den Slot versorgt werden kann. Der eigentlich Nachfolger der 3050 8GB wurde von Nvidia 4060 getauft mit an den Namen angepassten Preis. Da bist du schön aufs Marketing reingefallen. RTX 3000 ist 4 Jahre alt, aktuell gibt es schon Nachfolgerserien. Einfach mal die Daten der Chipbasis vergleichen (GA107 vs AD107):
https://de.wikipedia.org/wiki/Nvidia-GeForce-30-Serie
https://de.wikipedia.org/wiki/Nvidia-GeForce-40-Serie

Martyn schrieb:
Vorallem die RX 7600 XT hat zwar 16GB ist aber von der Rechenleistung her auch nur eine RX 7600 also absolute Einsteigerkarte.
Sie ist durch mehr Takt/TDP zumindest etwas schneller, kann sich aber durch die 16 GB klar von der 7600XT absetzen:
https://www.pcgameshardware.de/Graf...0-XT-8GB-16GB-VRAM-Test-Kaufberatung-1463619/

Martyn schrieb:
Die RTX 3060 gibt es zwar als 12GB Version und hat dann viel RAM, aber liegt auch von der Rechenleistung unterhalb einer RTX 3060 Ti / RTX 3070 / RTX 3070 Ti die allesamt nur 8GB haben.
Richtig, und genau das ist das Problem. Nvidia hätte diese Karte alle mit 16 GB RAM ausstatten müssen, damit sie nicht aufgrund von VRAM Mangel obsolet werden. Aber dann würden sie ja später weniger Karten verkaufen.

Martyn schrieb:
Und von Intel hört man im Bezug auf die Treiber auch nichts gutes.
So schlecht ist die B580 nicht. Stellt man ein vernünftige CPU mit 8 Kernen, z.B. den 5700X3D zur Seite, halten sich die Verluste durch den Treiberoverhead in Grenzen.

AMD-Flo schrieb:
Welches System hast du denn selbst? (Ich weiß, du willst die Frage nicht beantworten, habe dich ja schon mehrfach gefragt).
Magst du diese Frage nicht beantworten? Du vergleichst das alles nur auf den Papier, ohne wirklich Erfahrung damit zu haben.

Wirf man einen Blick auf die Konsolenwelt ist die Abgrenzung einfacher. Natürlich kann man heute noch mit einer PS4 oder PS3 spielen. Nämlich genau die Titel, die dafür vorgesehen waren.

Beim PC ist die Sachen komplizierter. Hier vermischt sich alt und neu, Low-End und High-End. Das ganze kombiniert mit verschiedenen Auflösungen und einstellbaren Settings.

Fakt ist aber, dass aktuellen und neue Titel durch schlecht optimierte Portierungen, hochauflösende Texturen und Effekte immer mehr VRAM benötigen. Neue Features wie Raytracing und Frame Generation erhöhen den VRAM bedarf massiv. Wenn man auf all das verzichten kann, kommt auch meistens noch mit 8GB VRAM aus. Spätentens beim Neukauf sollte man sich jedoch Gedanken darüber machen und nicht wegen ein paar € Ersparnis oder längeren Balken am VRAM sparen.
 
AMD-Flo schrieb:
Dein Beispiel zeigt die Framerate mit Full Raytracing, wo AMD bekannterweise schlecht abschneiden.
Das war aber nicht die Intension meiner Aussage.
Sondern sollte nur die Aussage widerlegen, dass DLSS keinen VRam spart.
Bei PCGH mit DLSS Q knicken die 12GB Karten weg. Bei Computerbase mit DLSS B hat man das Problem nicht mehr.
AMD-Flo schrieb:
Durch die niedrigere Auflösung wird zwar etwas VRAM gespart, aber das hochskalieren braucht wiederum etwas VRAM, wodurch die Belegung gleich bleibt
Das kannst Du noch so oft schreiben....es ist trotzdem falsch.
 
  • Gefällt mir
Reaktionen: AMD-Flo
DaHell63 schrieb:
Das kannst Du noch so oft schreiben....es ist trotzdem falsch.
Dann belege es.

Nachtrag: Die DLSS Berechnung benötigt zusätzlichen VRAM, das ist Fakt. Die niedrigeren Rederauflösung spart VRAM, das ist auch Fakt. Aber du hast Recht. Je nach Titel kann die Ersparnis mit hohem Upscaling Faktor unterm Strich größer sein. Trotzdem ist die Aussage DLSS spart VRAM genauso falsch.

DaHell63 schrieb:
Bei PCGH mit DLSS Q knicken die 12GB Karten weg. Bei Computerbase mit DLSS B hat man das Problem nicht mehr.
Schreibe es doch gleich dazu, dann ist es klar.
 
Zuletzt bearbeitet:
AMD-Flo schrieb:
Nachtrag: Die DLSS Berechnung benötigt zusätzlichen VRAM, das ist Fakt.
Nur wenn Du die gleiche Renderauflösung anstrebst.
4k/DLSS Performance (1080p) benötigt mehr VRam als 1080p nativ...das ist richtig.
Aber 1440 DLSS Qualittät benötigt weniger VRam als 1440p nativ
 
AMD-Flo schrieb:
Die RTX 3050 GB ist eine abgespeckte 3050 8 GB mit 70W Verbrauch, damit die Karte nur über den Slot versorgt werden kann. Der eigentlich Nachfolger der 3050 8GB wurde von Nvidia 4060 getauft mit an den Namen angepassten Preis. Da bist du schön aufs Marketing reingefallen. RTX 3000 ist 4 Jahre alt, aktuell gibt es schon Nachfolgerserien. Einfach mal die Daten der Chipbasis vergleichen (GA107 vs AD107):
https://de.wikipedia.org/wiki/Nvidia-GeForce-30-Serie
https://de.wikipedia.org/wiki/Nvidia-GeForce-40-Serie
Ich denke eher das der geringere Verbrauch eher ein Nebeneffekt aber nur selten ein Kaufgrund ist weil ja selbst 350W Netzteile einen passenden Stromanschluss hätten.

Und die RTX 4060 liegt von den SMs, RTCs und ALUs her recht mittig zwischen der RTX 3050 8GB und RTX 3060, aber da sie auch schneller taktet, würde ich schon sagen das sie eher der Nachfolger der RTX 3060 als der RTX 3050 8GB ist.
AMD-Flo schrieb:
Sie ist durch mehr Takt/TDP zumindest etwas schneller, kann sich aber durch die 16 GB klar von der 7600XT absetzen:
https://www.pcgameshardware.de/Graf...0-XT-8GB-16GB-VRAM-Test-Kaufberatung-1463619/
Ist aber ein relativ geringer Unterschied, und vorallem übertakten viele Boardpartner ja ohnehin generell etwas, so das kaum mehr ein Unterschied bleibt.

AMD-Flo schrieb:
Richtig, und genau das ist das Problem. Nvidia hätte diese Karte alle mit 16 GB RAM ausstatten müssen, damit sie nicht aufgrund von VRAM Mangel obsolet werden. Aber dann würden sie ja später weniger Karten verkaufen.
Bei der RTX 3000 Serie gabs aber selbst die RTX 3080 nur mit 10GB und 12GB, erst die RTX 3080 Ti gab es mit 12GB und 20GB und an der Spitze die RTX 3090 mit 24GB.

Ich denke das bei der RTX 3060 Ti die 16GB keinen Vorteil gegenüber 12GB gehabt hätten, aber anderseits eine RTX 3070 Ti mit sämtliche RTX 3080 ausgestochen und selbst die RTX 3080 Ti 20GB kannibalisiert hätte.

Hätte es mir eher so vorstellen können:

RTX 3050 mit 8GB
RTX 3060 mit 8GB und 12GB
RTX 3060 Ti mit 10GB
RTX 3070 mit 10GB und 14GB
RTX 3070 Ti mit 12GB
RTX 3080 mit 12GB und 16GB
RTX 3080 Ti mit 16GB und 20GB
RTX 3090 mit 24GB

AMD-Flo schrieb:
Magst du diese Frage nicht beantworten?
Aktuell habe ich keinen Desktop PC sondern nur ein 2021er Gigabyte Windows Notebook mit Core i5-10500H und GeForce RTX 3050 Mobile und ein 2020er Apple MacBook Air mit Core i3-1000NG4 und Iris Plus iGPU.
 
Martyn schrieb:
Ich denke eher das der geringere Verbrauch eher ein Nebeneffekt aber nur selten ein Kaufgrund ist weil ja selbst 350W Netzteile einen passenden Stromanschluss hätten.

Wenn das so wäre, hätte es keinen Grund dafür gegeben, eine 3050 exakt so zu beschneiden, dass sie ausschließlich über den PCIe-Slot genug Saft bekommt. Und das so, dass nicht die komplette Performance der 130W-Schwester flöten geht. Hier spielte für Nvidia auch der OEM-Markt eine Rolle. Denn die letzte 75W-Karte, die Nvidia davor im Angebot hatte, war die alte GTX 1650. Jedenfalls: Dafür zahlt man extra -- weil es ein Nischen-Anwendungsgebiet ist, für das Aufwand betrieben wurde. Nur dann macht die 3050/6GB Sinn. Die 8GB-Variante kostet fast das gleiche, hat aber 2GB mehr und erfüllt damit noch alle Minimumspecs -- und hat auch ~30% höhere Renderleistung.

Ansonsten ist das das schlechteste Sparen, das es gibt: das Sparen an der falschen Stelle. Ähnlich wie im obersten High End nimmt auch im Low End das Preisleistungsverhältnis irgendwann ab. Im High End gilt: "Die Leute wollen Leistung, der Preis ist egal." Ganz unten gilt: "Preis ist alles, die Leute wollen nur die günstigste Karte." In beiden Fällen gäbe es in der Regel sinnvollere und effizientere Optionen, sein Geld einzusetzen.
 
Zuletzt bearbeitet:
DaHell63 schrieb:
Aber 1440 DLSS Qualittät benötigt weniger VRam als 1440p nativ
Das würde ich so nicht unterschreiben, es ist eher ähnlich. Das ist auch genau das, was ich anfangs sagen wollte. Vielleicht in dem einen Titel mehr, in dem anderen weniger. Leider finden man keine Tests dazu.
Wenn du welche hast, dann gerne her damit.

Martyn schrieb:
Und die RTX 4060 liegt von den SMs, RTCs und ALUs her recht mittig zwischen der RTX 3050 8GB und RTX 3060, aber da sie auch schneller taktet, würde ich schon sagen das sie eher der Nachfolger der RTX 3060 als der RTX 3050 8GB ist.
Das ist der normale Fortschritt bei, du fällst auf das Marketing rein, der AD107 Chip ist sogar deutlich kleiner als der GA107. Die 4060 hat auch nur eine 128 Bit Interface, genau wie die 3050.

Martyn schrieb:
Ich denke das bei der RTX 3060 Ti die 16GB keinen Vorteil gegenüber 12GB gehabt hätten, aber anderseits eine RTX 3070 Ti mit sämtliche RTX 3080 ausgestochen und selbst die RTX 3080 Ti 20GB kannibalisiert hätte.

Hätte es mir eher so vorstellen können:

RTX 3050 mit 8GB
RTX 3060 mit 8GB und 12GB
RTX 3060 Ti mit 10GB
RTX 3070 mit 10GB und 14GB
RTX 3070 Ti mit 12GB
RTX 3080 mit 12GB und 16GB
RTX 3080 Ti mit 16GB und 20GB
RTX 3090 mit 24GB
Man kann die Speicher nur passend zum Interface bestücken, das ist ja gerade das Problem, deshalb haben RTX 3060, RTX 4070(S bzw. Ti) und RTX 5070 auch genau 12 GB and 192 Bit.
Bei der 3060TI/3070(Ti) hätten es lieber 16 statt 8 GB sein sollen (256 Bit), bei der 3080 20GB (320 Bit), bei der RTX 3080ti 24GB wie der 3090 (384 Bit, ist der gleiche Chip), dann wären es auch heute noch tolle Karten.

Die Karten hätte sich nicht kannibalisiert. Die Karten grenzen sich durch ihre Rechenleistung ab.

Martyn schrieb:
Aktuell habe ich keinen Desktop PC sondern nur ein 2021er Gigabyte Windows Notebook mit Core i5-10500H und GeForce RTX 3050 Mobile
Dann kannst du Problematik ja selbst sehr gut reproduzieren, wie ich auch mit 3060 6 GB im Notebook.
Das schlimme am Notebook ist, dass man die GPU nicht einfach tauschen kann. Wenn du mal selbst eine Karte wie die z.B. die RTX4070 mit Raytracing und hohen Details in aktuellen Titeln verwendet hast, willst du nicht mehr zurück. Insbesondere wenn man gerne und viel spielt, lohnt es sich in was vernünftiges zu investieren.
 
Svennc schrieb:
Wenn das so wäre, hätte es keinen Grund dafür gegeben, eine 3050 exakt so zu beschneiden, dass sie ausschließlich über den PCIe-Slot genug Saft bekommt. Und das so, dass nicht die komplette Performance der 130W-Schwester flöten geht. Hier spielte für Nvidia auch der OEM-Markt eine Rolle. Denn die letzte 75W-Karte, die Nvidia davor im Angebot hatte, war die alte GTX 1650. Jedenfalls: Dafür zahlt man extra -- weil es ein Nischen-Anwendungsgebiet ist, für das Aufwand betrieben wurde.
Man hätte die Begrenzung auf 75W aber auch durch einfaches Runtertakten und ggf. noch Undervolten erreichen können.

Dann hätte man es den Boardpartnern überlassen können was die draus machen: Also entweder mit obligatorischem Stromanschluss und vollem Takt, oder mit redzuiertem Takt und ohne Stromanschluss oder mit optionalem Stromanschluss das sie automatisch erst vollen Takt freigibt wenn Spannung anliegt.

AMD-Flo schrieb:
Man kann die Speicher nur passend zum Interface bestücken, das ist ja gerade das Problem, deshalb haben RTX 3060, RTX 4070(S bzw. Ti) und RTX 5070 auch genau 12 GB and 192 Bit.
Aber Nvidia hat es ja auch bei der RTX 3000 eh verschiedene Speicherbus-Breiten beim bleichen Chip:

GA107 für RTX 3050 mit 96 Bit für 6GB und 128 Bit für 8GB
GA106 für RTX 3060 mit 128 Bit für 8GB und 192 Bit für 12GB
und vorallem GA102 mit 1) für RTX 3070 Ti mit 256 Bit für 8GB, 2) für RTX 3080 und 3080 Ti mit 320 Bit für 10GB und 20GB, 3) für RTX 3080 und RTX 3090 mit 384 Bit für 12GB und 24GB.

Für mein Portfolio:

Martyn schrieb:
RTX 3050 mit 8GB
RTX 3060 mit 8GB und 12GB
RTX 3060 Ti mit 10GB
RTX 3070 mit 10GB und 14GB
RTX 3070 Ti mit 12GB
RTX 3080 mit 12GB und 16GB
RTX 3080 Ti mit 16GB und 20GB
RTX 3090 mit 24GB

Hätte es dann auch nur Bandbreiten gebraucht:

384 Bit für 24GB und 12GB
320 Bit für 20GB und 10 GB
256 Bit für 16GB und 8GB
224 Bit für 14GB Variante
optional 192 Bit für kleine 12GB Varianten
optional 128 Bit für keine 8GB Varianten
 
Martyn schrieb:
Hätte es dann auch nur Bandbreiten gebraucht:

384 Bit für 24GB und 12GB
320 Bit für 20GB und 10 GB
256 Bit für 16GB und 8GB
224 Bit für 14GB Variante
optional 192 Bit für kleine 12GB Varianten
optional 128 Bit für keine 8GB Varianten

Ist so nicht mehr von nöten weil es mittlerweile 3GB GDDR7 Chips gibt.
 
  • Gefällt mir
Reaktionen: qiller
Ja, die 3GB GDDR7 Chips bauen sie lieber in Laptops, wo die GPU dann auf 150W eingebremst wird...
 
Zurück
Oben