An der 8 GB Diskussion sieht man aber auch immer, dass wir in einer ziemlichen Bubble leben. Habe bis zu meiner RX 9070 XT auch mit einer RX 6650 XT in QHD gespielt und es kam nie vor, dass ich kein Spiel spielen konnte. Es gibt auch einfach eine Vielzahl an Spielern, die nicht die neusten Spiele spielen und denen die Vorteile von 16 GB nicht auffallen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon RX 9060 XT: Mit 16 GB für 349 USD leicht hinter der RTX 5060 Ti 16 GB
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 47.369
In keinem der Tests wird behauptet, dass man ein Spiel nicht spielen kann. Es wird kritisiert, dass in modernen, meist größeren Titeln 8GB nicht genügen können, was mitunter (!) bereits ab Tag 1 des Kaufs dazu führt, dass man auf bis zu medium-Qualität bei bspw. den Texturen herabschalten muss.
Während die Karte an sich durchaus vollmundig beworben wird und theoretisch per DLSS (und Frame Generation) fähig wäre, auf WQHD und gar UHD passabel abzuschneiden. Der Chip bekommt aber leider nicht ausreichend Luft.
Zum wiederholten Male - wer nur alte und harmlose Titel spielt, braucht keine 450€ teure, nagelneue Karte zu kaufen.
Der Speicherpreis allein ist nicht der Grund für die relativ hohen Preise. (Es gibt Clam-Shell für doppelte Bestückung, es gibt 3GB groß Speichersteine; ergo muss nicht zwingend ein dickeres Interface her)
Die Marge ist exorbitant hoch und das Gebaren wird dennoch verteidigt.
Eine 6650XT war wenigstens halbwegs günstig zu kaufen.
Da darf und sollte man mit Abstrichen rechnen.
Während die Karte an sich durchaus vollmundig beworben wird und theoretisch per DLSS (und Frame Generation) fähig wäre, auf WQHD und gar UHD passabel abzuschneiden. Der Chip bekommt aber leider nicht ausreichend Luft.
Zum wiederholten Male - wer nur alte und harmlose Titel spielt, braucht keine 450€ teure, nagelneue Karte zu kaufen.
Der Speicherpreis allein ist nicht der Grund für die relativ hohen Preise. (Es gibt Clam-Shell für doppelte Bestückung, es gibt 3GB groß Speichersteine; ergo muss nicht zwingend ein dickeres Interface her)
Die Marge ist exorbitant hoch und das Gebaren wird dennoch verteidigt.
Eine 6650XT war wenigstens halbwegs günstig zu kaufen.
Da darf und sollte man mit Abstrichen rechnen.
Flüssige, weitestgehend stabile, wenngleich geringe, minimale Bildrate ohne verschwindende oder aufpoppende Texturen. Das "sollte" eigentlich den allermeisten auffallen.Skavermin schrieb:Vorteile von 16 GB
Da ist dann aber wiederum die Frage, ob die überhaupt eine neue Grafikkarte benötigen. Denn bisher reicht denen ja die vorhandene und die wird auch nicht auf einmal schlechtet, nur weil es neuere Karten gibt. Diejenigen können also weiterhin mit ihrer vorhandenen Karte wie gewohnt spielen.Skavermin schrieb:Es gibt auch einfach eine Vielzahl an Spielern, die nicht die neusten Spiele spielen und denen die Vorteile von 16 GB nicht auffallen.
Ein Neukauf wird dann lediglich fällig, wenn die aktuelle Karte irgendwann den Geist aufgibt und wenn man dann schon neu kauft, ist es sinnvoller, direkt zu einer Karte zu greifen, die auch beim VRAM ein Upgrade ist. Andernfalls könnte man ja auch einfach die selbe, alte Karte nochmal gebraucht kaufen.
CadillacFan77
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.385
Naja, sooo exorbitant hoch ist die auch wieder nicht. Bei nV ist es schwer rauszulesen aus den Quartalszahlen, weil sie die KI Beschleuniger reinmischen - diese haben tatsächlich eine extreme Marge.Zwirbelkatz schrieb:Die Marge ist exorbitant hoch und das Gebaren wird dennoch verteidigt.
Bei AMD gehts ein wenig einfacher, aber auch da ist es eine Mischrechnung in der Radeon Group. Was aber ersichtlich ist: Die Marge ist nicht wirklich hoch bei denen. Die Gruppe kratzt schon einige Zeit gerade so an der schwarzen Null in der Bilanz.
Trotzdem hast Du sicherlich Recht, wenn Du den Mangel an VRAM bei 8GB Karten kritisierst. 8GB GDDR6 mehr kostet wirklich nur ein Appel und ein Ei.
Richtig, aber selbst in Test wird das leider sehr selten beschrieben. Da wird stumpf auf die FPS geschaut. War zum Beispiel auch bei Hogwarts Legacy am Anfang so, als die 4070 Ti mit den 12GB am Kotzen war, aber kaum ein Test darauf hingewiesen hatte, dass die Texturen dann einfach ins Bild reinploppen.Zwirbelkatz schrieb:Flüssige, weitestgehend stabile, wenngleich geringe, minimale Bildrate ohne verschwindende oder aufpoppende Texturen. Das "sollte" eigentlich den allermeisten auffallen.
blende11
Lt. Commander
- Registriert
- Apr. 2023
- Beiträge
- 1.484
nVIDIA verbaut in der RTX5xxx Serie GDDR7, der teurer ist.CadillacFan77 schrieb:Trotzdem hast Du sicherlich Recht, wenn Du den Mangel an VRAM bei 8GB Karten kritisierst. 8GB GDDR6 mehr kostet wirklich nur ein Appel und ein Ei.
GDDR7 wird wahrscheinlich viel teurer sein als GDDR6, da es eine fortschrittliche Herstellung erfordert und in den letzten Jahren hohe F&E-Kosten für seine Entwicklung angefallen sind, weshalb es zunächst nur für High-End-Grafikkarten verwendet wird.
Aber wenn man es nicht anders kennt, dann weiß man auch nicht was man verpasst und wenn ich von 4 GB auf 8 GB upgrade, sind das trotzdem Welten.Zwirbelkatz schrieb:Flüssige, weitestgehend stabile, wenngleich geringe, minimale Bildrate ohne verschwindende oder aufpoppende Texturen. Das "sollte" eigentlich den allermeisten auffallen.
In einer idealen Welt wäre es natürlich schön, wenn man bereits ab 300€ 12-16 VRAM und einen schnelle Grafikchip bekommt. Aber wir leben nicht in einer idealen Welt und mit 8 GB VRAM kann man auch einen Großteil der modernen Spiele in ansehnlichen Einstellungen spielen. Ich habe das selbst lang genug getan.
Zumal der VRAM-Bedarf auch eher vom den zunehmend schlecht optimierten Spielen kommt und da regt sich kaum jemand auf.
Zwirbelkatz
Fleet Admiral
- Registriert
- Juni 2006
- Beiträge
- 47.369
Dafür ist die Aufklärung im Forum im besten Fall da. Man lernt kennen, dass man Spiele im besten Fall mit angenehmerer Bildqualität spielen kann und dies sogar längerfristig(er), weil der Kauf möglichst passend oder kosteneffizient gestaltet wird. (Dies bedeutet nicht "billig")Skavermin schrieb:Aber wenn man es nicht anders kennt, dann weiß man auch nicht was man verpasst und wenn ich von 4 GB auf 8 GB upgrade, sind das trotzdem Welten.
Darin sehe ich persönlich kein Problem. Was mir neu ist, ist dieser sich gegen sich selbst richtende Vorwurf, wie "doof" doch die Community sei, wie gefärbt, wie elitär. Diese Diskussion ist mir zumindest subjektiv neu.
Irgendwie scheint seit der Pandemie eine Form der kollektiven Litanei ausgebrochen zu sein.
Nicht immer kann ich mich selbst davon frei machen. Leider.
Wer das tun möchte, sei mit einer ca. 220€ teuren, gebrauchten RTX 3070 gut beraten.Skavermin schrieb:Aber wir leben nicht in einer idealen Welt und mit 8 GB VRAM kann man auch einen Großteil der modernen Spiele in ansehnlichen Einstellungen spielen.
Unter den meistens Tests von mies programmierten AAA-Titeln rasseln die Mistgabeln.Skavermin schrieb:Zumal der VRAM-Bedarf auch eher vom den zunehmend schlecht optimierten Spielen kommt und da regt sich kaum jemand auf.
Ich habe den Eindruck, das Zocken ist für viele nur eine weitere Konsumgewohnheit von vielen weiteren, parallelen Zerstreuungen geworden. Womöglich hatte das Hobby früher für viele einen anderen Stellenwert.
Sicherlich ist das Thema außerdem komplexer. Früher gabs gefühlt 1 Auflösung und man musste nicht einen Katalog aus 5-10 Fachbegriffen studieren, um sein Spiel einzustellen. (XMP, DLSS, Downsampling, FSR, Energieprofil, Steckerformat, etc. war alles kein Thema)
Zuletzt bearbeitet:
Zwirbelkatz schrieb:Wer das tun möchte, sei mit einer ca. 220€ teuren, gebrauchten RTX 3070 gut beraten.
Zumindest bei ebay gingen die meisten letzten eher zwischen ~250 und ~270 Euro weg. Investierte Zeit für einen Schnapper, ggf. keine Garantie mehr, Restrisiko, wenn man nicht selbst begutachten kann sowie mitunter jahrelange Nutzungsdauer (die 3070 erschien 2020) -- da ist der Topvalue schnell relativiert. Ist jetzt keine Werbung, 8GB sollte man sich 2025 GUT überlegen: Aber krachneue 5060 war halt auch schon für unter 300 im Mindstar. Dazu gibts die Arcs für unter 300. Der Gebrauchtmarkt spiegelt letztlich den Neumarkt. Beides (im Mittel) dezent überhitzt. Hiervon profitiert man aber als Verkäufer. Hatte vor ein paar Monaten selbst noch für eine 2017 gekaufte 1050 Ti zählbare Scheine bekommen -- und die taugt nun wirklich nur noch für den Windows-Bildschirmschoner --- -- aber auch nur, wenn da Raytracing deaktiviert ist.
Deshalb beste Investition: Gut auf die eigene Grafikkarte achten.
Zuletzt bearbeitet:
Zudem muss Derjenige dass auch erstmal mit dem VRAM und dessen zu geringe Größe in Verbindung bringen. Viele kennen solche technischen Zusammenhänge schlicht gar nicht und schieben das einfach auf das Spiel (Bug, schlechte Programmierung) oder denken sich einfach, das soll so.Skavermin schrieb:Aber wenn man es nicht anders kennt, dann weiß man auch nicht was man verpasst und wenn ich von 4 GB auf 8 GB upgrade, sind das trotzdem Welten.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 9.641
Zwirbelkatz schrieb:Womöglich hatte das Hobby früher für viele einen anderen Stellenwert.
Sicherlich ist das Thema außerdem komplexer. Früher gabs gefühlt 1 Auflösung und man musste nicht einen Katalog aus 5-10 Fachbegriffen studieren
Früher gab es einfach diesen massiven medien konsum nicht, der einen einfach stumpf werden lässt. Es war auch alles ziemlich teuer. Ich lache immer innerlich wenn sich über Preise beschwert wird.
blende11 schrieb:Jenem reicht eine Einsteigerkarte mit 8 GB unter Full HD vollkommen aus
Mir reicht sogar meine 6500 XT 4 GB noch vollkommen aus
Schlicht deswegen, weil fast alle meine Spiele älteren Datums sind und neue nicht geplant sind, bevor mein Schamstapel nicht halbiert ist. Alles läuft mit 50+ Fps, minimale Bildrate ist auch in Ordnung und ich hab meinen Spaß.
Allerdings kann ich die Kritik hierzulande und das Obacht! an die Käufer hierzulande verstehen.
Ich selbst habe beschlossen, mittelfristig weiterhin auf FullHD zu bleiben, aber wenn ich denn kaufen müsste, käme mir eine neue Karte unter 12 GB jetzt nicht mehr in den Rechner.
blende11 schrieb:Viel Spaß beim Spielen, ich wünsche allen ein schönes Wochenende!
Habe ich gerade mit Fahrenheit: Indigo Prophecy Remastered, Far Cry 4, Red Dead Redemption 2 und wiederholt mit The Witcher 3 — gleichfalls!
Skavermin schrieb:@Svennc ich bin vor einigen Monaten in den Genuss gekommen, "Mines of Moria" mit einer GTX 1050 TI in FHD zu zocken. Ging gut und es sah auch nicht schlecht aus. Musste allerdings alles auf Low stellen.
Pssst! Persönlich hatte ich noch Elden Ring (GOTY 2022) und Baldur's Gate (GOTY 2023) damit gespielt. Und musste NICHT mal alles auf low stellen. Elden Ring war ein PS4xPS5-CrossGen-Game, das offiziell nur 3GB VRAM brauchte. Erst PS5-Exclusives gingen flächendeckend auf 6-8 GB hoch. Das nächste Großprojekt von Europas ~drittgrößtem RPG-Studio würde die 1050 Ti auch noch schaffen.
Aber das bleibt bitte unter uns zwei, ja?
Zuletzt bearbeitet:
Gamenick
Cadet 4th Year
- Registriert
- Sep. 2017
- Beiträge
- 120
Skavermin schrieb:An der 8 GB Diskussion sieht man aber auch immer, dass wir in einer ziemlichen Bubble leben. Habe bis zu meiner RX 9070 XT auch mit einer RX 6650 XT in QHD gespielt und es kam nie vor, dass ich kein Spiel spielen konnte. Es gibt auch einfach eine Vielzahl an Spielern, die nicht die neusten Spiele spielen und denen die Vorteile von 16 GB nicht auffallen.
Hab selber ne rx 6650 xt und spiele tatsächlich sogar in uwqhd, aber halt nie das aktuellste - hole viele Titel aus 2022/23 nach (Resident evil 4, God of War, Uncharted, Plage Tale Requiem)
In viele Spielen reicht in der Auflösung, teils mit FSR 8Gb VRAM nicht mehr oder gerade so. Selbst ein Greedfall aus 2019 macht die 8 GB auf UWQHD + Ultra Details voll, sodass es unspielbar wird, obwohl die Karte locker über 100 fps schaffen würde. Gut dann stellt man Texturen von Ultra auf hoch und kann problemlos spielen.
Der VRAM Geiz bei Nvidia/AMD m Jahr 2024/2025 ist einfach nur noch ein unnötig limitierender Faktor und man hat das Gefühl, dass man eigentlich potente Karten so künstlich limitieren will damit man doch schnell wieder aufrüstet.
Gamenick schrieb:Der VRAM Geiz bei Nvidia/AMD m Jahr 2024/2025 ist einfach nur noch ein unnötig limitierender Faktor und man hat das Gefühl, dass man eigentlich potente Karten so künstlich limitieren will damit man doch schnell wieder aufrüstet.
Immerhin: Das wird gut zwei, maximal drei Jahre vor der nächsten Konsolengen eh bald wieder passieren.
Den Rest regelten dann CrossGen-Perioden und immer länger werdende Entwicklungszyklen der AAAA-Blockbuster. 2018 gab es die erste Hardware mit Hardware-RT-Features. Bis heute kann man die Titel an einer Hand abzählen, die sie zur Pflichtübung machen. Der PC gibt hier nicht mehr den Rhythmus vor. Deshalb ist es auch unerheblich, wann irgendwas erstmals für PC auf den Markt kam. Die Nischen, die er noch für sich hat, sind selten die typischen Grafik-Blockbuster.
Zuletzt bearbeitet:
CadillacFan77
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.385
Es ging ja um die 9060. Die hat GDDR6.blende11 schrieb:nVIDIA verbaut in der RTX5xxx Serie GDDR7, der teurer ist.
Und auch nVidia zwingt niemand, GDDR7 zu verbauen bei Budget / Einsteigerkarten...
Abgesehen davon, ist GDDR7 nur noch etwa 30-50% teurer als GDDR6. Preise für GDDR7 sind nicht bekannt, aber die von GDDR6 schon.
Hier eine kurze Zusammenfassung von ChatGPT. Die Kosten sind für beide Varianten überschaubar im Gesamtkontext:
Geschätzte Herstellerkosten für 8 GB GDDR7
- GDDR6-Preise als Referenz: Im September 2024 lag der Spotpreis für GDDR6 bei etwa 2,30 USD pro GB, also rund 18 USD für 8 GB .Reddit+7Reddit+7Reddit+7
- GDDR7-Aufpreis: Laut TrendForce lag der Preisaufschlag für GDDR7 gegenüber GDDR6 im Juni 2024 bei etwa 20–30 %. Demnach könnte der Preis für 8 GB GDDR7 zwischen 21,60 USD und 23,40 USD liegen.Reddit
- Großabnehmerkonditionen: Hersteller wie NVIDIA, AMD und Intel schließen langfristige Verträge mit Speicherproduzenten ab und erhalten dadurch Mengenrabatte. Ein Reddit-Beitrag schätzt, dass der Preis für 16 Gb GDDR6-Module bei Großabnahme auf 2–2,80 USD pro GB sinken kann . Überträgt man diese Rabatte auf GDDR7, könnten die Kosten für 8 GB GDDR7 bei etwa 16–20 USD liegen.Reddit+1
@Wolfgang
In der Folie von AMD steht doch ganz klar, dass die Karte am 5. Juni verfügbar (Available) sein wird.
https://pics.computerbase.de/1/1/7/5/9/3-38b2cf423d959e87/3-1080.f1dff6ed.png
Da könnt ihr doch den Kalender mal aktualisieren. Aktuell ist dort nur die Switch 2 für den 5. Juni terminiert.
In der Folie von AMD steht doch ganz klar, dass die Karte am 5. Juni verfügbar (Available) sein wird.
https://pics.computerbase.de/1/1/7/5/9/3-38b2cf423d959e87/3-1080.f1dff6ed.png
Da könnt ihr doch den Kalender mal aktualisieren. Aktuell ist dort nur die Switch 2 für den 5. Juni terminiert.
Ähnliche Themen
- Antworten
- 607
- Aufrufe
- 55.639
- Antworten
- 147
- Aufrufe
- 16.667
- Antworten
- 69
- Aufrufe
- 4.016
- Antworten
- 208
- Aufrufe
- 13.237
- Antworten
- 57
- Aufrufe
- 4.403