Radeon RX 6800 kaufen bevor nicht mehr verfügbar?

Nicht Bestand und Neukauf verwechseln. Es geht doch darum, wenn man was neues braucht, kauft man "eigentlich" nichts mehr mit 8 GB in der Liga um die es hier geht, auch wenn das Spiel oder die Spiele momentan noch mit weniger auskommen.

Wenn ich aber 8 GB habe (ich z.B.) kaufe ich mir dennoch nichts neues, nur um 12 oder mehr GB zu haben und für die "Zukunft gerüstet zu sein". Letzteres mache ich nur, wenn die Situation sowieso gerade passt...
 
Pisaro schrieb:
Hier mal ein schönes Video:
Das habe ich vorhin zufälliger Weise gesehen, trendet wohl gerade. Ist aber nur Meinungsmache pro Nvidia. Er unterstellt, dass AMD den langsameren Speicher hätte, was von der Technologie her natürlich stimmt. Trotzdem hat eine 7900 XT deutlich mehr Speicherbandbreite, als die 4070 Ti. Das erwähnt er aber selbst dann nicht, als er erklärt, dass die Speicherbandbreite von Speichergeschwindigkeit und Speicherinterface abhängt. Insgesamt will er damit erreichen, dass es so aussieht, als hätte die 7900 XT zwar viel, aber dafür zu langsamen Speicher, was absurd ist, da die Speicherbandbreite gerade bei der 4070 Ti ein Flaschenhals ist, nicht bei der AMD-Karte.

Dazu ist das Video halt auch nur ein Strohmann. Kaum jemand wird ernsthaft bestreiten, dass 12 GB VRam momentan nur in sehr wenigen Konstellationen zu wenig sind.
Interessant für all jene, die 900-Euro-Karten im Jahresrhythmus kaufen. Der TE will die Karte aber 5-6 Jahre lang nutzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Th0rben
Windell schrieb:
ch komm du tust auch so als würde jetzt stündlich ne AMD Karte abrauchen
Nein, tu ich nicht. Fakt ist das die letzten Wochen nicht gerade schön für AMD waren in Sachen "Probleme".
Ergänzung ()

Pjack schrieb:
Ist aber nur Meinungsmache pro Nvidia.
Sorry, da bin ich dann mit einem Kopfschütteln raus.
Pjack schrieb:
die Speicherbandbreite gerade bei der 4070 Ti ein Flaschenhals ist
Das kleine Interface der 4070 Ti wird in dem Video sogar negativ erwähnt.

Es ist eigentlich wie IMMER: Man sagt XY RAM reichen, bringt dazu noch ein Video/Test oder whatever und die "Gegenpartei" sagt dann: "Neee du, AMD hat mehr RAM, kauft keine nVidia Karten weil die zu wenig RAM haben".

Sorry, dass ist mittlerweile lächerlich und kann nichtmal belegt werden.
Ergänzung ()

Pjack schrieb:
Der TE will die Karte aber 5-6 Jahre lang nutzen.
Kann er ja. In 5-6 Jahren muss er viele Details eh stark runterstellen, genauso wie mit dem Gegenpart RX 7900XT ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxi_rodriges
kann gelöscht werden
 
Zuletzt bearbeitet:
Lasst euch nicht verrückt machen was die AMD "Problematik" angeht. Das Einzige was ist das einige Chargen der 7900er Karten zu wenig Flüssigkeit hatten in der Vapor Chamber.
Die Leute tun jetzt so als würden reihenweise AMD Karten sterben.

Fakt ist, was P/L angeht sind die alten 6xxxer Karten von AMD am Besten. Zumindest wenn man nicht den Fokus auf RT angeht.

Und bevor Jemand mit Fanboy ankommt,ich besaß vorher eine 980Ti und vor meinem AM4 System einen i7 2600k der mir seit 2011 treue Dienste geleistet hatte.


Daher mein Tipp:

Falls du ein gutes Angebot für eine RX6800 siehst,schlag ruhig zu!
 
  • Gefällt mir
Reaktionen: nobody01 und Thukydides
Pisaro schrieb:
Sorry, da bin ich dann mit einem Kopfschütteln raus.
Kann ich verstehen.
Nur noch mal zur Verdeutlichung: die 4070 Ti hat 504 GB/s, die 7900 XT jedoch 880 GB/s Speicherbandbreite.
Bei ihm klingt es aber, als hätte die 7900 XT zwar viel, aber langsamen Speicher. Und Du postest sowas, obwohl dir bereits vorgeworfen wurde, ein Fanboy zu sein. :evillol:

Pisaro schrieb:
Sorry, dass ist mittlerweile lächerlich und kann nichtmal belegt werden.
Bei 3070/3080-Release haben viele die Teile als Speicherkrüppel bezeichnet. Wollten andere aber auch nicht hören. 2 Jahre später, zack: Speicherkrüppel.
Aber sorry, dass ich die 4070 Ti nicht jetzt mit Spielen benchen kann, die in zwei Jahren erscheinen.

Pisaro schrieb:
In 5-6 Jahren muss er viele Details eh stark runterstellen, genauso wie mit dem Gegenpart RX 7900XT ;)
Kannst dir ja mal den CB-Test zu Spider-Man: Miles Morales durchlesen. Da wird empfohlen, bei 8 GB VRam direkt die Texturdetails zu reduzieren, weil sonst der Speicher irgendwann überläuft.
Eine 3070 erreicht ohne RT in WQHD 71,6 FPS avg, ist also eigentlich nicht zu langsam.
D.h. im erstbesten Spiel (letzer Game-Benchmark von CB abseits von Witcher 3 = buggy und Portal RTX = Techdemo), tritt genau das ein, was man als Käufer nicht will: die GPU ist schnell genug, aber der Speicher reicht nicht.
Und genau dieses Problem wird die 4070 Ti in viel mehr Spielen treffen, als die 7900 XT. Denn, egal wie viel wir hier rum diskutieren: 20>12
 
  • Gefällt mir
Reaktionen: Thukydides
Windell schrieb:
Fakt ist, was P/L angeht sind die alten 6xxxer Karten von AMD am Besten.
Dem kann ich zustimmen.

Windell schrieb:
Das Einzige was ist das einige Chargen der 7900er Karten zu wenig Flüssigkeit hatten in der Vapor Chamber.
Auch. Jetzt kam halt der komische neuer Treiber. Aber mal abwarten ob das Problem überhaupt oft vorkommt oder mehr oder weniger ne Eintagsfliege war.
Windell schrieb:
Und bevor Jemand mit Fanboy ankommt

Wird bei dir keiner. Du argumentierst immer sachlich und haust nicht sowas wie "Lederjackenfans" oder "AMD Treiber sind Müll" etc raus.
Ergänzung ()

Pjack schrieb:
Bei ihm klingt es aber, als hätte die 7900 XT zwar viel, aber langsamen Speicher.
Das ist interessant, denn er hat die 7900XT nichtmal erwähnt. Er hat einfach Fakten genannt und gesagt, viel VRAM bringt dir nicht so viel wenn der RAM lahm ist bzw. das Speicherinterface viel zu klein ist. Alles andere dichtest zu dir dazu. Da denkt man dann natürlich an den klassischen Fanboy ;). Aber keine Sorge: Du bist keiner, dass kann ich soweit sagen.

Pjack schrieb:
Bei 3070/3080-Release haben viele die Teile als Speicherkrüppel bezeichnet. Wollten andere aber auch nicht hören. 2 Jahre später, zack: Speicherkrüppel.

Echt? Zumindest bei der 3080 geht dir in 97 von 100 Spielen NICHT der Speicher aus ;).
Pjack schrieb:
Kannst dir ja mal den CB-Test zu Spider-Man: Miles Morales durchlesen. Da wird empfohlen, bei 8 GB VRam direkt die Texturdetails zu reduzieren
Wie ich schon erwähnt habe: Du wirst IMMER ein paar wenige Spiele finden die entweder extrem viel Speicher brauchen, extrem viel GPU Leistung brauchen oder auf AMD/nVidia einfach schlechter laufen.

Gerade letztes ist nervig. Da kann man auch Spider-Man: Miles Morales nehmen. Was bringt es mir dann bei AMD mehr VRAM zu haben um die Texturen eine Stufe höher zu stellen, wenn im CB Test zu lesen ist: "AMD-Grafikkarten schneiden auffällig schlecht in Spider-Man: Miles Morales ab"
Ergänzung ()

Ist halt ein großes Problem. Je nach Spiel kann man sagen "Kauf keine AMD" und je nach Spiel kann man auch sagen "Kauf keine nVidia". Schwieriges Thema.
Pjack schrieb:
obwohl dir bereits vorgeworfen wurde, ein Fanboy zu sein.
Macht natürlich Sinn mit AMD Hardware im PC ;). Habe halt ne nVidia GPU da mir AMD in dem Leistungsbereich nichts geben kann. X1650, HD7850, R9 290, um mal ein paar meiner AMD GPUs zu erwähnen :)

Um das einfach mal abzuschließen: Natürlich ist es überhaupt nicht verkehrt mehr VRAM zu haben. Je nach Spiel sogar sinnvoll. Allerdings wird mit dem VRAM halt übertrieben da die meisten Spiele gar nicht so viel davon fressen wie angenommen.

Edit: Mal was lustiges/ interessantes am Rande: Als ich die 5XXX Prozessoren und auch die RX 6XXX Karten von AMD verteidigt habe, war ich plötzlich AMD Fanboy.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iamcriso
Pisaro schrieb:
Das ist interessant, denn er hat die 7900XT nichtmal erwähnt.
Joar, gibt ja auch so viele andere Karten mit "20 GB". Er muss das Doppelpack 3080er gemeint haben.
Nachdem er direkt davor von AMD-Karten mit mehr Speicher (als NV) spricht, und den Karton einer 7900 XTX abbildet.

Pisaro schrieb:
Er hat einfach Fakten genannt und gesagt, viel VRAM bringt dir nicht so viel wenn der RAM lahm ist bzw. das Speicherinterface viel zu klein ist. Alles andere dichtest zu dir dazu.
Unter dem Video schreibt er: "Die kürzlich erschienene RTX 4070 Ti stellt z.B. 12GB RAM bereit. Eine RX 7900 XT von AMD allerdings 20GB. Wichtig dabei ist: VRAM ist nicht gleich VRAM! NVIDIA geht mit dem GDDR6X Speicher, AMD hingegen nur mit GDDR6[...]" Das nennt man übrigens Framing. Im Video ist es halt noch deutlicher. Aber von mir aus, ob Du es nicht verstehen kannst oder willst ist egal.

Pisaro schrieb:
Was bringt es mir dann bei AMD mehr VRAM zu haben um die Texturen eine Stufe höher zu stellen, wenn im CB Test zu lesen ist: "AMD-Grafikkarten schneiden auffällig schlecht in Spider-Man: Miles Morales ab"
Dass das Spiel auf einer 6800 flüssig läuft, ohne die Texturen runter drehen zu müssen? Und das, obwohl es kein AMD-Titel ist? Ob AMD oder Nvidia in einem Spiel besser läuft, ist doch ein ganz anderes Thema. Wie dumm steht die 3070 denn erst da, wenn man einen AMD-Titel spielen will und zusätzlich noch der VRam zu knapp ist.
Ich habe vor zwei Jahren überlegt, mir eine 3070 zu holen, weil die UVP damals doch überraschend niedrig war. Kommend von einer 1070 Ti war mir aber der VRam zu knapp, 8 GB hatte ich ja schon. Bin froh, das damals so entschieden zu haben, die aktuelle Situation bestätigt mich.

Pisaro schrieb:
Echt? Zumindest bei der 3080 geht dir in 97 von 100 Spielen NICHT der Speicher aus ;).
Drei sind halt drei zu viel, wenn auf einer 6800 (XT) der Speicher überall reicht. Navi 21 scheint deutlich besser zu altern.
Zum Release war eine 6800 zb. 3% schneller, als eine 3070. Inzwischen sind es 11%.
Eine 6800 XT war 6% langsamer, als eine 3080, jetzt ist sie 4% schneller.

Pisaro schrieb:
Schwieriges Thema.
Nein, eigentlich gar nicht. Geld egal: 4080/4090. Geld nicht egal: 67X0 XT oder irgend sowas.
6800 XT für 600 Euro war fair, inzwischen zu teuer. 6800/6900 XT waren im Abverkauf auch ok, inzwischen zu teuer.
4070 Ti zu teuer für eine Karte der Mittelklassekarte. 7900 XT/XTX ebenfalls zu teuer, für das, was sie bieten.

Pisaro schrieb:
war ich plötzlich AMD Fanboy
Wenn Du das so oft zu hören bekommst, Du aber keine erotischen Gefühle für einen der Hersteller empfindest, solltest Du mal deinen Disskussionsstil im Hinblick auf Sachlichkeit anpassen.
 
Pjack schrieb:
Zum Release war eine 6800 zb. 3% schneller, als eine 3070. Inzwischen sind es 11%.
Eine 6800 XT war 6% langsamer, als eine 3080, jetzt ist sie 4% schneller.
Bei der RTX 3070/RX 6800 sind es 8% für die RX 6800 und mit Raytracing sind es 11%+ für die RTX 3070.
Die RTX 3080 ist überall schneller als eine RX 6800 XT.
1.png2.png
 
Hito360 schrieb:
16GB ist absolutes Minimum. wird sind in 2023 angekommen, 6800 hatte 2020 16GB in der Mittelklasse

Nach diesem Video weiß ich, dass deine Aussage mit Vorsicht zu genießen ist!
 
Au man, das Video streuen sie jetzt aber. :evillol:
Selbst, wenn man das Framing ignoriert:
Horizon Zero Dawn ist von 2020
Shadow of the Tomb Raider ist von 2018
Far Cry 6 von 2021
CP77 von 2020
Aktuell sind nur Spiderman Remastered und Dying Lights 2 (hab ich eins überklickt?).
Seine Frage: "Wie viel VRAM braucht man 2023?" kann man also in der Tat mit 8 GB beantworten, voraus gesetzt man spielt vor allem Spiele, die mehrere Jahre alt sind oder pickt sich das raus, was noch läuft.

DaHell63 schrieb:
Bei der RTX 3070/RX 6800 sind es 8% für die RX 6800 und mit Raytracing sind es 11%+ für die RTX 3070.
Okay, ich habe offenbar im alten Testparcours von Grafikkarten-Rangliste 2023 geschaut und Du in Next-Gen.
Dann kommt das Nvidia wohl wieder mehr entgegen. Trotzdem hat die 6800 zur 3070 seit Release gut gemacht. Vllt. zeigt sich da schon die VRam-Problematik, vllt. hat AMD bei den Treibern mehr nachgebessert bzw. waren die von Nvidia beim Start ausgereifter.
1673507645987.png
 
Zuletzt bearbeitet:
Pisaro schrieb:
Achso? Absolutes Minimum heißt das man unter 16GB gar nicht mehr zocken kann? Interessant :)

Das zeigt dann deutlich was für ein fanatischer Fanboy du bist, denn @Skudrinka hat ein komplettes AMD System. Vorher denken und dann schreiben!
Ergänzung ()


Leider ja. Deswegen würde ich momentan von AMD abraten. Da kommt gerade viel zusammen.

bei allem Respekt, 12GB RTX4070 ist doch jetzt schon an der Grenze & ein gruener Profi verdreht Worte: gar nicht mehr zocken hast du doch geschrieben. Ja, in 15 Monaten kann eine 12GB 4070 def. nicht mehr mithalten
der Punkt: die meisten kaufen fuer 2-3 Jahre ein, deine Sig sieht eher nach alle 9 Monate aus. - bonus: Jmd mit dem Inbegriff einer FanboiGPU nimmt sich raus andere User als Fanboi zu beschimpfen? herrlich :D




YouTube Videos von nichtetablierten oder gar irrelevanten "Kreativen/Authors/HardwareExperts" sind zu 99,998% nur clickbait oder Vorlesen/Zeigen der Berichte von etablierten Websites/Individuen?etc.
Lesen geht meist schneller und werbefreier...aber wer Videos verlinken muss ist tippfaul?



plus:
1673517003548.png
 
Zuletzt bearbeitet:
Das mit der Speichergröße bei GPUs ist immer so ein zweischneidiges Schwert.

Ja eine RX6800 (XT) hat 16 Gb ist aber z.b. 50% langsamer als eine RTX4070 Ti welche wiederrum ~250-350 € (noneXT/XT) teurer ist. Dir bring letzendlich nichts, massig an VRam zu haben, wenn die GPU zu langsam ist.

Wenn man aber auf den anderen Seite schaut, das alle UE 5.1 Techdemos und Fornite, gut und gerne sich 10 Gb an VRam genehmigen. Könnten !! 12 Gb bei kommenden Spielen zu wenig sein.



@Thukydides was ist den dein geplantes gesammt Budget für deine PC ?
 
  • Gefällt mir
Reaktionen: Pisaro
Ja, jetzt sind wieder alle Marketingopfer, die 24GB bei einer 7900xtx nicht als Minimum ansehen, um die nächsten 10 Jahre zocken zu können... Aber vielleicht ist es genau anders herum. Wer weiß...

Wenn ich hier im Thread die Kaufberatungen lese, sehe ich zu
Hito360 schrieb:
User, die eine neue Karte wollen, weil die alte zu langsam geworden ist oder ein Systemwechsel ansteht u.s.w.

Nicht weil sie etwa ruckelt, wegen fehlendem VRAM.


Edit: viel faszinierender an dem Video ist die Tatsache, dass der Unterschied in der Auslastung des VRAM bei unterschiedlichen Auflösungen sehr interessant ist.
 
  • Gefällt mir
Reaktionen: Pisaro
Weniger beeindruckend ist hingegen der Speicherausbau. 12 GB sind zwar 50 Prozent mehr VRAM als bei der GeForce RTX 3070 Ti, was aber nichts daran ändert, dass die Radeon RX 7900 XT mit 20 GB klar mehr bietet und 12 GB auch heute schon nicht mehr durchweg den optimalen Betrieb ermöglichen und in Zukunft von Zeit zu Zeit zu wenig sein werden. Wer zum Beispiel in Spider-Man Remastered in Ultra HD inklusive Raytracing im Nachhinein DLSS aktiviert oder umschaltet, rennt sofort in einen VRAM-Mangel. 12 GB sind bei der aktuellen Generation voraussichtlich ziemlich genau das, was 8 GB bei der alten gewesen sind: meistens ausreichend, spätestens nach 2 Jahren aber auch mal zu wenig.
Aus dem CB-Test der 4070 Ti. Aber klar, wer sich mehr als die 12 GB bei einer 900 Euro teuren Karte wünscht, ist natürlich einfach nur doof.
 
  • Gefällt mir
Reaktionen: Hito360
Hito360 schrieb:
ein gruener Profi verdreht Worte
Das zeigt dann leider deutlich das du nur ein blinder, nicht objektiver Fanboy bist. Schade. Zuerst "Lederjacke", jetzt das.
Hito360 schrieb:
gar nicht mehr zocken hast du doch geschrieben
Richtig, ich hätte eher schreiben sollen: FAST gar nicht mehr zocken. Denn das ist im Endeffekt das was du mit einem ABSOLUTEN Minimum aussagst.
Hito360 schrieb:
ouTube Videos von nichtetablierten oder gar irrelevanten "Kreativen/Authors/HardwareExperts" sind zu 99,998% nur clickbait
Mag sein. FAKTISCH ist das hier im Video nicht der Fall, du kannst die Szenarien alle selbst nachprüfen.

Aber ist schon geil: Da zeigt ein Video (gibt noch mehrere, auch generelle Tests belegen das) das man fast nie mehr als 10GB braucht und Hito360, der blinde nicht objektive AMD Fanboy, fühlt sich davon gleich angegriffen und sagt das Video hat keine Relevanz.

Come on, bitte mach dich doch selbst nicht so lächerlich :(

Man muss halt schauen. Ist GPU A etwa genauso schnell wie GPU B, hat aber mehr VRAM? Dann sollte man wahrscheinlich GPU A nehmen.
Ist GPU A langsamer als GPU B, hab aber mehr VRAM nimmt man dann logischerweise GPU B.

Das die 4070 Ti natürlich zu wenig VRAM in der Leistungsklasse hat ist logisch, allerdings halt sehr stark abhängig von den Spielen und der Auflösung. Deswegen wird die GPU halt nicht unbrauchbar.
Für 4K sollte man die 4070 Ti definitiv nicht nehmen.
 
Zuletzt bearbeitet:
Ich finde, wenn man eine gewisse Summe x ausgeben möchte und y Jahre die Karte nutzen, dann sollte diese Karte auch etwaige Eventualitäten aus dem Weg räumen.
Und dann nehme ich lieber Karten mit soviel VRAM wie ich kriegen kann.

Und ich finde es eine Dreistigkeit von Nvidia für 900€ eine Karte anzubieten die nicht mindestens 16GB Vram besitzt.

Zumal sogar die Vorgängergen der Konkurrenz soviel VRAM besitzt.
 
  • Gefällt mir
Reaktionen: Pjack und Thukydides
@Pisaro

Ich finde das kann man so einfach nicht sagen.

Wenn eine Grafikkarte 10% langsamer ist aber doppelt so viel VRAM für das selbe Geld bietet, würde ich immer die mit mehr VRAM vorziehen, wenn es mir wichtig ist die GPU lange zu behalten.

Ich habe mich z.B. damals auch für die RX 480 8GB entschieden, weil die 2 GB VRAM mehr hatte, als die GTX 1060 6GB. Damals war sie etwa 5% schneller, heute gibt es Spiele, da schlägt sie die GPU um 60-70%.

Ich bin halt jemand der eine Grafikkarte min. 5-6 Jahre einsetzen möchte. Ich brauche nicht immer das neuste und es stört mich auch nicht irgendwann die Details etwas runterzudrehen. Ich möchte halt einfach nicht in die Bredouile kommen, schon nach 2-3 Jahren eine neue GPU kaufen zu müssen, nur weil der VRAM leer läuft.

Ich verwende die Grafikkarten dann auch immer bis zum absoluten Limit, bis neue Spiele quasi unspielbar sind. Und wenn ich dann ein solches Spiel spielen möchte, kaufe ich mir zu dem Zeitpunkt eine neue GPU.

Ich würde auch eine RTX 4090 kaufen weil die so schön viel VRAM hat und auch brutal schnell ist. Ich glaube das könnte eine GPU sein die 10 Jahre lang halten könnte. Mein Bruder hatte eine HD 7970 Ghz Edition und die lief jetzt über 10 Jahre. Das war schon beeindruckend, wie lange man die nutzen konnte. Jetzt war ihr Limit allerdings wirklich erreicht. Damals hatte die noch "absurde" 3 GB VRAM. Ich denke auch das sie das gerettet hat über die lange Zeit.

Ich habe mich jetzt entschieden die RX 6800 für 549,00€ zu kaufen. Der Preis ist sogar nochmal um 20€ gesunken. Ich kann mir nicht vorstellen, das ich die noch zu einem besseren Preis bekomme und glaube das dieses Segment bald total brachliegt, wenn die letzte Karten verkauft wurden.

Von Februar - September könnte der ganze Preisbereich von 450-900€ unbesetzt bleiben. Das wäre schon irgendwie verrückt.
 
  • Gefällt mir
Reaktionen: nobody01 und Windell
Zurück
Oben