Unentschlossen zwischen RTX 4070 und RX 6800 XT

Roxy :)

Cadet 2nd Year
Registriert
Aug. 2023
Beiträge
19
Hallo,
Ich möchte mir meinen ersten Gaming PC zusammenbauen und habe mich jetzt schon etwas ins Thema eingelesen. Bis jetzt habe ich weder Peripherie noch Gehäuse oder Komponenten.

Nun schwanke ich zwischen der RTX 4070 von NVIDIA und der RX 6800 XT von AMD.

Woran ich mich am meisten festhänge ist, dass die RTX 4070 nur 12GB VRam hat im gegensatz zu den 16GB der RX 6800 XT.
Gerade wo die Games momentan immer anspruchsvoller werden, frage ich mich ob 12GB noch ausreichen.

Da ich wirklich sehr unentschlossen bin und noch lange kein Profi, hoffe ich hier auf guten Rat.

Vielen dank im Voraus :)

1. Wie viel Geld bist du bereit auszugeben?
… ca. 650,-

2. Möchtest du mit der Grafikkarte spielen?
Ja.
  • Welche Spiele genau? … Genshin Impact, Sims 4, Hogwarts Legacy usw. Keine (Competitive) Shooter.
  • Welche Auflösung? Genügen Full HD (1920x1080) oder WQHD (2560x1440) oder soll es 4K Ultra HD (3840x2160) sein? … Mindestens WQHD
  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen? … Hoch/Ultra
  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein? … bin mir nicht sicher.
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
... als Hobby und von Software habe ich um ehrlich zu sein noch nicht viel Ahnung.

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
... /

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
Bis jetzt habe ich noch keine Hardware aber ich würde wahrscheinlich als CPU den AMD Ryzen 7 5700x verbauen. Als Mainbord wahrscheinlich das 'ASUS Rog Strix B550-F Gaming (Wifi ll)(AMD,AM4,DDR4,ATX)'.


6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
... Möglichst leise und wenn möglich in Weiß erhältlich.

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
... möglichst sofort.
 
ShowOff schrieb:
Da der TE beim Rest des System auch noch unschlüssig scheint, würde ich fast sagen, dass der Thread verschoben werden sollte oder einen neuen aufmacht ( Desktop - Kaufberatung )
Mir geht es gerade tatsächlich nur um die GPU da sie bei einem Gaming PC ja so ziemlich die wichtigste Komponente ist.
 
Auch die von dir genannte 5700x ist eine gute Wahl mit guten P/L.
Achte beim Kauf auf dann noch guten RAM, am besten 2x16GB mit 3600'er und stelle im Bios des Mainboard das XMP ein, sonst verschenkst du CPU-Leistung.
Dazu noch eine nvme m.2-SSD und der Spaß beginnt.
 
  • Gefällt mir
Reaktionen: Ja_Ge und Roxy :)
@Roxy :) ich denke Du machst mit beiden Grafikkarten nichts "falsch". Und beide liegen nah beieinander auch im RT ist der Unterschied bei 1440p nur 16%:

1692261952019.png

https://www.computerbase.de/thema/grafikkarte/rangliste/

In FPS umgerechnet sind das dann 100 vs 116 oder eben 60 vs 69.
Die Unterschiede sind da und oft benannt, aber da ist jetzt keine Differenz zwischen den Karten die einen (teilweise hier im Forum stattfindenden) religösen Fanatismus rechtfertigen würde.

Grüße
 
  • Gefällt mir
Reaktionen: Roxy :)
Roxy :) schrieb:
Was haltet ihr davon wenn ich mir erstmal (gerade da es mein erster PC ist) die 4070 hole und wenn ich zu einem späteren zeitpunkt merke der VRAM reicht mir doch nicht rüste ich auf eine GPU mit 16GB auf.

Macht das sinn?
und schon hat NV wieder jemand gefunden, der genau auf dieses miese Produktmarketing mit dem zu geringen VRAM für viel zu viel Geld reinzufallen scheint. Tolles Beispiel :)

Und dann kaufst du dir in kurzer Zeit wieder eine überteuerte 16GB Karte von NV, richtig?

Genau das, was NV will....Glückwunsch.

Und andere verteidigen das auch noch...

Die 4070 ist eine gute Karte, ja. Aber NICHT für ~650€! Punkt! Für 450€ vll...

Daher würde ich einfach mal den Release von der 7800XT 16GB abwarten. Die wird ähnlich viel kosten weil sie wohl auch ähnlich Leistung wie die 6800XT/6900XT/4070 haben wird. Aber immerhin hat sie 16GB...

Da hätte ich einfach ein besseres Gefühl wenn man schon so viel Geld ausgibt.

Naja, meine 2 Cents dazu...
 
  • Gefällt mir
Reaktionen: Balu_, C0rteX, Denniss und eine weitere Person
danyundsahne schrieb:
Und dann kaufst du dir in kurzer Zeit wieder eine überteuerte 16GB Karte von NV, richtig?
Ich denke wenn ich aufrüste (aufgrund des VRAM'S), würde ich nicht zu NV greifen... Es geht ja auch ums komplettpaket, daher würde ich fürs erste wahrscheinlich die 4070 nehmen. (Bin mir zwar immer noch nicht 100% sicher aber ich tendiere dazu)
 
  • Gefällt mir
Reaktionen: SonyFriend und Apo
ja die rtx4070 schafft 4k so gerade wenn man die Texturen nicht voll aufdreht
Der vram reicht bis 1440p noch aus ist aber schon jetzt knapp das wird noch schlimmer je mehr ue5 Spiele kommen da diese sich strikt nach dem rop Leistung orientieren
Zu sehen am aktuellen remnant 2 das linear je Auflösung an die rop Leistung limitiert wird.
Dazu kommt der vram Belegung das liegt primär an nanite das nativ die Auflösung nutzt um die pixeltapete zu rendern.
Anders bsp sind ports die so gut wie alle bei vram nicht geizen. Ich habe dieses Jahr schon 10 Spiele gesehen wo die 12gb vram ab 1440p eng werden und In 1080p locker reichen
Klar werden die mit patches auf 8gb gpu Lauf bar gemacht also an Optimierungen mangelts nicht.
Das würde ich aber nicht bei 4k sagen da hat man nur die option texturen zu senken bzw fsr dlss oder Nis

Ob die 16gb noch reichen in 4k ist fraglich da reden wir über Belegungen bis 20gb vram das sind aber noch ausnahmen.
Und auch für mich der Grund dem monitor auf 1080p treu zu bleiben bis irgendwann 2027 ne sku mit 30tf (rtx4070ti level) und 24gb vram kommt. (6 gddr7 24gbit 36gbps an 96bit=432gb/s)
 
syfsyn schrieb:
...
Anders bsp sind ports die so gut wie alle bei vram nicht geizen. Ich habe dieses Jahr schon 10 Spiele gesehen wo die 12gb vram ab 1440p eng werden ....
Die Spiele will ich sehen, da ich mit der 4070TI alles in 4K Spiele, natürlich alles auf Ultra.
Bei Spielen wie Elden Ring, BG3, F1-2023 gibt es da überhaupt keine Probleme, bei D4 kann es nach einiger Zeit eng werden mit 12GB, da Diablo viel VRam reserviert, ab >11GB reservierten VRAM kann ea dann Mikroruckler geben, einfach Schatten und Details von Ultra auf hoch, Unterschied sieht man in 4K nicht und schon bleibt auch Diablo unter 10GB VRam.
Jetzt nenn mir mal 10 Spiele die auf einer 4070er nicht laufen ?

PS. Cyberpunk und Hogwards Legacy kommen zwar an die Grenze, aber wenn man bereit ist auch mal in die Optionen zu schauen kommt man auch damit ohne wirkliche Qualitätseinbußen klar. Lege ich Wert auf RT, hilft mir der größere Speicher bei den meisten AMD Karten auch nicht weiter, weil zuwenig FPS.
 
  • Gefällt mir
Reaktionen: Tr8or, Roxy :) und Technico
Nicht zu vergessen dass der nvidiatreiber anfängt tu tricksen wenn der VRAM sehr knapp wird, da fehlen dann plötzlich ein paar details oder Texturen werden in einer sehr geringen Qualität geladen. HWUB hat das ja am Beispiel einer 3070 mit Hogwards gezeigt.
Die damaligen Käufer einer 3070 (8GB reicht dicke) sind die heutigen Käufer der 4070 (12GB reicht dicke). und dann gibt es noch ein paar arme Seelen die auf die Bauernfängerei mit der 4060TI 16GB reinfallen.
 
  • Gefällt mir
Reaktionen: C0rteX
leider ist es so das Spiel ihre Speicheverwaltung so einrichten das die qualität sich m verfügbaren vram einstellt.
Unter UE spielen besonders andere engines machen das auch daher ist der rat je mehr vram desto besser richtig vergleichen kann man das nicht mehr und benchmarks sollte gpu load game dedicated vram systemram dedicated game rambelegung und frameverlauf haben um das aufzudecken
alles daten die mit capframex ermittelt werden können
Alternativ in hwinfo64
Es ist extrem Schwer geworden echte vergleiche zwischen den gpu's darzustellen fps erzählen leider nicht immer die Wahrheit.
eine Lösung wäre die low settings zu prüfen vs maxed settings ob da geschummelt wird.
 
Schauen wir doch einfach was Computerbase im Techniktest dazu sagt. Diese Quelle sollte ja für alle anwesenden Aussagekraft haben.

Aus dem Techniktest von "the Last of US"

Detaillierte Oberflächen fordern viel VRAM (Update)​

The Last of Us Part I bietet sehr hoch aufgelöste Texturen, die viele Details zeigen. Das verlangt nach viel Grafikkartenspeicher, wie sich im Test gezeigt hat. Wirklich sorgenlos spielt es sich erst ab 16 GB, bei kleineren VRAM-Bestückungen müssen teils große Einbußen in Kauf genommen werden.

Besonders schlimm ist es bei Grafikkarten mit nur 8 GB, denn dann müssen die schönsten Texturen selbst in Full HD gar nicht erst ausprobiert werden. Der Einfluss auf die FPS ist noch zu vernachlässigen, die immer wieder auftretenden Haker aber nicht mehr – sie stören sehr.

Auch 10 GB sind noch nicht genug um glücklich zu werden. Immerhin Full HD schafft die damit vertretene GeForce RTX 3080 problemlos, doch bereits ab WQHD geht das Haken wieder los: Das Frametime-Verlaufsdiagramm zeigt, dass es immer wieder kleinere Ruckler im Spiel gibt.Wird in Ultra HD DLSS Quality hinzugeschaltet, werden die Haker deutlich größer. Das ist schade, denn Rohleistung hat die Grafikkarte genug, so müssen die Texturdetails herunter gedreht werden.

Mit 12 GB spielt es sich in UHD mit DLSS Quality haarscharf an der Grenze. Der Benchmark lief ohne Probleme, doch wurde im Grafikmenü im laufenden Spiel auch nur eine Option angepasst, lief der VRAM wiederholt über und das Spiel ruckelte. Damit ist nicht auszuschließen, dass die 12 GB nach einer längeren Spielzeit ebenso zu wenig sind – das hat sich beim Test nicht prüfen lassen. Ultra HD als Renderauflösung, also ohne Upsampling, ist direkt viel für 12 GB.

Techniktest von Diablo 4:

Speicherbedarf: Erst ab 16 GB wirklich sorgenfrei​


Diablo IV benötigt eine erstaunlich hohe Menge an Grafikkartenspeicher, denn erst ab 16 GB VRAM läuft das Spiel auch in hohen Auflösungen mit dem höchsten Preset einwandfrei. Verfügt die Grafikkarte lediglich über 12 GB, muss in Ultra HD mit Einschränkungen gelebt werden. Mit nur 8 GB gilt die Aussage sogar schon für Full HD. Upsampling kann die Auswirkungen unter Umständen etwas abmildern, aber nicht abstellen.


Diablo IV reagiert gleich doppelt auf zu wenig Grafikspeicher:


  1. Von Zeit zu Zeit werden Texturen einfach nicht geladen, was keine Leistung kostet, aber sichtbar ist.
  2. Darüber hinaus stockt Diablo IV bei VRAM-Mangel immer mal wieder kurz, was nur auffällt, wenn man darauf achtet. Gelegentlich ruckelt es gern mal deutlich, weil plötzlich eine ordentliche Menge Daten aus dem Speicher geschmissen wird. Selbst die FPS können sichtbar darunter leiden
Wer nun die Texturdetails zurückstellen möchte oder muss, sei gewarnt: Jede einzelne Stufe bedeutet eine deutlich schlechtere Texturqualität. Schon von „Ultra“ auf „Hoch“ bekommt man deutlich einfachere Tapeten vorgesetzt, vor allem der Boden wirkt ziemlich matschig. Noch eine Stufe tiefer bringt den Grafikverlust auf die Spitze, die niedrigen Texturen zeigen eigentlich nur noch Matsch. Blizzard sollte entsprechend noch mal an den Texturstufen drehen, denn auch optisch kleinere Abstufungen sollten im Zweifelsfall genug Speicher freiräumen lassen.

Ich erspare mir jetzt noch 5 weitere Beispiele zu Posten. Bedenkt dabei das es keine 2 Jahre dauert bis die die Anforderungen der hohen Einstellungen den heutigen ultra Einstellungen entsprechen.

Ich würde immernoch auf die Vorstellung der 7800 warten. Ist ja nur noch 1 Woche.
 
Zuletzt bearbeitet:
Na auf diese Weise kann ich alles relativieren. Deiner Schlussfolgerung kann ich nicht folgen. Wenn unabhängige Tests aus mehreren zuverlässigen Quellen klarstellen wie die Fakten stehen, dann bilde ich mir trotz sehr viel Erfahrung und Grundwissen nicht ein es besser zu wissen. Schon gar nicht wenn sich diese Ergebnisse mit meinen Erfahrungen decken.

Wir reden hier ja nicht von irgendwelchen Sonderfällen, sondern vergleichbare Ergebnisse von Einstellungen. The Last of US und diablo hat nicht einmal Raytracing. Du kannst also noch Mal mindestens 2 GB dazurechnen, wenn ein Spiel die selbe Qualität + Raytracing darstellt. Da wird's mit 16 GB schon knapper. Raytracing ist doch das, was ihr immer so sehr wollt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShowOff
Na sicher erwähnen sie die. Lies noch Mal ganz genau. Und auch wenn ich mich wiederhole. Das ultra von heute ist das hoch von morgen.

Baldurs Gate 3 frisst fast soviel Leistung wie Cyberpunk. Denk mal darüber nach.

Noch Mal als Zitat:

"Wirklich sorgenlos spielt es sich erst ab 16 GB, bei kleineren VRAM-Bestückungen müssen teils große Einbußen in Kauf genommen werden."

"Wer nun die Texturdetails zurückstellen möchte oder muss, sei gewarnt: Jede einzelne Stufe bedeutet eine deutlich schlechtere Texturqualität. Schon von „Ultra“ auf „Hoch“ bekommt man deutlich einfachere Tapeten vorgesetzt, vor allem der Boden wirkt ziemlich matschig."

Und sowas soll man sogar bei einer 850 Euro teuren 4070 ti ab Tag 1 hinnehmen? Nein danke. Für mich für eine 600 Euro Karte schon nicht akzeptabel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShowOff
maxi_rodriges schrieb:
Das was links im Video (FSR 2.0 VS DLSS 2.0) ist, da bekommt man doch Augenkrebst, Schwindelanfälle und Übelkeit.
Das alles nach 5 Sekunden gerade. Spielt jemand echt so? Ist doch nicht euere ernst.

Upscaling ist wie jede andere Technologie eine Frage der Implementierung. Das kriegen eine Spiele besser hin, bei anderen funktioniert das nicht so gut.
Ich persönlich habe Raytracing oft nicht an. Gleichzeitig bin ich froh es zu haben, um es dann in Spielen wie Cyberpunk genießen zu können, wo die Implementierung gut gelungen ist.

C0rteX schrieb:
Ich würde den 7800xt/FSR 3 Release nächsten Monat abwarten. 650 Euro sollten dafür reichen.

12 GB ist nachweislich bereits heute schon echt knapp. Diablo 4, Last of US, Hogwarts, RE kannst du dir auf Computerbase in den Techniktests ansehen. Alle Titel aus der PS 5 Gen benötigen viel mehr Speicher.

Hardware unboxed bezeichnet 12 GB nicht umsonst als das absolute Minimum.

Selbst wenn es das Minimum darstellt, wer kann oder will sich das auf der PC Plattform noch leisten?
Da würde ich nicht 1000 Euro ausgeben wollen, um vermeintlich in ein paar Jahren in bestimmten Details Ruhe zu haben.
Im Moment sehe ich das größte Problem bei der schlechten Optimierung von Spielen. Einige Publisher meinen, sie könnten ihren Titel in einem fortgeschrittenen Beta Status releasen. 2-3 Performance Patches später ist die Leistung dann deutlich niedriger.
Diablo 4 ist im low End recht moderat was die Anforderungen betrifft. Mein Bruder spielt das Spiel mit einer GTX 690. Leider werden im High End gerne riesige Speichermengen für Texturdetails benötigt. Da kann man schon erheblich sparen, indem man die herunterdreht. Dann kommen noch einige unerklärliche Performanceeinbrüche hinzu. Mein Cousin verbraucht mit einer 3080Ti 200 Watt mehr, wenn er beim Händler steht.
Die Spielehersteller sperren sich mit ihren hohen Anforderungen einen Teil ihrer potenziellen Kundschaft aus. Klar für viele Spiele ist der Markt inzwischen die Konsole. Aber selbst auf Computerbase wird schon über die Anforderungen einiger neuer Titel gestöhnt und das in einem Enthusiastenforum. Der normaler Nutzer hat 4-5 Jahre alte Grafikkarten verbaut oder noch älter.
Hinzu kommt, dass Spiele mit solchen Anforderungen nicht unbedingt besser aussehen. Das erzeugt dann nur noch ungläubiges Stirnrunzeln.

C0rteX schrieb:
Na sicher erwähnen sie die. Lies noch Mal ganz genau. Und auch wenn ich mich wiederhole. Das ultra von heute ist das hoch von morgen.

Baldurs Gate 3 frisst fast soviel Leistung wie Cyberpunk. Denk mal darüber nach.

Noch Mal als Zitat:

"Wirklich sorgenlos spielt es sich erst ab 16 GB, bei kleineren VRAM-Bestückungen müssen teils große Einbußen in Kauf genommen werden."

"Wer nun die Texturdetails zurückstellen möchte oder muss, sei gewarnt: Jede einzelne Stufe bedeutet eine deutlich schlechtere Texturqualität. Schon von „Ultra“ auf „Hoch“ bekommt man deutlich einfachere Tapeten vorgesetzt, vor allem der Boden wirkt ziemlich matschig."

Und sowas soll man sogar bei einer 850 Euro teuren 4070 ti ab Tag 1 hinnehmen? Nein danke. Für mich für eine 600 Euro Karte schon nicht akzeptabel.

Der TE hat eine klare Budgetgrenze und um in 4k noch in 2 Jahren zu spielen, reicht es aller Wahrscheinlichkeit nach nicht.

Zugleich muss man auch ein wenig auf die eigenen Anforderungen schauen. In Tests wird auf alle Veränderungen geachtet, um mögliche Einbußen zu beschreiben. Wenn man jedoch ins Spielgeschehen vertieft ist, muss man denn einen Boden mit hohen Texturen haben? Ich persönlich würde das mit nein beantworten.

In Diablo 4 brennt es im Moment an einigen Stellen. Berichte von Usern legen nahe, dass unabhängig von der Grafikkarte bis hin zur 4090 Performance Probleme auftreten können, was für Blizzard unsäglich peinlich sein sollte. Bleibt nur zu hoffen, dass sie diese Probleme abgestellt bekommen. Ansonsten muss man die Regler ein Stück weit anpassen. In Diablo 4 merke ich im Gefecht nicht viel, wenn die Texturen 30-40% niedriger sind.

Ich habe auch immer gerne argumentiert, dass ich die Karten von NVIDIA je nach Modell gerne 100-200 Euro günstiger sehen würde. Davon habe ich mich inzwischen verabschiedet. NVIDIA hat es aufgrund ihrer sehr komfortablen Lage im B2B Geschäft nicht nötig, die Preiswünsche von uns Endkunden zu erfüllen.

Vielleicht noch ein Punkt pro 4070: Der Wiederverkaufswert dürfte ein Pluspunkt sein, da die Karte aus der aktuellen Generation stammt. Wenn es AMD sein soll, würde ich den Release der 7800XT abwarten, aber die bisherigen Leaks geben wenig Anlass dazu, dass hier große Sprünge gemacht werden. Zumindest könnte man bei der Karte auf FSR 3.0 hoffen. Was damit rauszuholen ist, hat AMD bisher leider noch nicht demonstriert.
 
  • Gefällt mir
Reaktionen: hamsi61, Technico und Loopman
C0rteX schrieb:
Na auf diese Weise kann ich alles relativieren.
Und du machst nur Cherrypicking.

Da es kaum Karten mit >12GB RAM auf dem Markt gibt, werden sich Spiele bzw. deren Hersteller wohl hüten die Grenze noch weiter nach oben zu verschieben.
Bis auf einzelne Ausnahmen, in speziellen Szenarien, sind 12GB für alles satt und genug. In WQHD/1440p erst recht.

Alles andere ist nur ein absoluter Anti-Hype was VRAM betrifft.
 
  • Gefällt mir
Reaktionen: hamsi61 und Technico
Es ist also Cherrypicking wenn fast alle neueren PS5 Triple AAA Spiele das gleiche Verhalten zeigen und für die UE 5 engine das gleiche Schicksal verkündet wird?

Das Problem ist einfach das seit 2016 nvidia absichtlich so wenig Speicher wie nur möglich verbaut, damit der Kunde frühzeitig eine neue Karte kauft. Also werden Sollbruchstellen eingebaut. Das ist in vielen Branchen so, nur ist die Frage ob man so etwas mit sich machen lässt oder so ein Verhalten bestraft indem man sich für die Konkurrenz entscheidet. Die Entwickler schreien seit Jahren nach mehr VRAM.

Besonders die neue Konsolengen mit ihrem Dekompressionschip, SSD Anbindung und dem gemeinsamen Speicher für CPU und Grafikeinheit sind einfach viel effektiver mit diesen workloads als es jeder PC sein kann. Deshalb ist für bessere Grafik, auch viel mehr Speicher notwendig. Wenn ihr mir nicht glaubt, dann schaut euch die passenden Videos von Hardware unboxed an.

Nvidia ist diesbezüglich gewaltig auf die Nase gefallen mit rtx 40. Die 4080 12 GB wurde zur 4070 ti. Die 4080 ist durch die absurden 72 Prozent Preissteigerung zum Vorgänger ein Ladenhüter. Die 4070 ist innerhalb von wenigen Tagen von Nvidia von 650 auf 600 gefallen, weil niemand sich diesen Preis antun wollte. Die 4060er sind die größten Flops überhaupt.

Und da ist genauso das alberne Speicherinterface schuld, welches nur bedingt durch den L2 Cache aufgefangen wird. Anders sind solche Ergebnisse wie im Anhang nicht zu erklären. Eine 4070 ti performt im Nvidia Vorzeigespiel cyberpunk nur auf dem Level einer 3080 10 GB, obwohl da eigentlich die 4070 stehen müsste. Das ist ein erheblicher Leistungsverlust.

Die Grafikdetails herunterstellen soll die Lösung sein? Warum dann überhaupt eine teure Grafikkarte kaufen? Wozu Raytracing? Wozu wqhd oder 4k? Man kann doch einfach in 720 p auf Low spielen. Aber wenn man FSR 2 statt DLSS verwenden soll, na das geht natürlich nicht. Das reduziert ja die Bildqualität etwas. Bei der Doppelmoral bekomm ich das kotzen.

Also ich bezahle keine absurden Preise für mittelmäßige Produkte. Ständig wird nach besserer Grafik verlangt, aber die Entwickler sind natürlich schuld wenn das 50 GB Texturpakete nicht in den 8 GB Speicher passt. Ihr macht euch die Welt wirklich einfach.

Nvidia ist nie schuld. Grafikdetails kann man runterstellen. Wenn die Texturen in diablo nur noch Matsch sind, weil die ultra Texturen nicht in den VRAM passen, dann ist es natürlich der Entwickler. Die Preissteigerungen sind natürlich immer okay. Ich verstehe euch einfach nicht mehr. Wenn ihr dieses Vorgehen absegnet, bekommt ihr in der nächsten gen für 600 Euro eine 4060 ti mit 10 GB mit dem Corecount einer 50er Karte.

Nvidia hat es bei RTX 20 versucht, bei RTX 30 Besserung versprochen und auch zum Teil eingehalten, aber bei RTX 40 völlig den Vogel abgeschossen.

Es gibt einfach keinen dummen move der nicht relativiert wird. Hängt die eigene Selbstachtung so sehr an Nvidia oder was ist das Problem?

Ich weiß gar nicht warum ich hier noch herumhänge. Der Wissensgewinn ist hier nahezu Null. Man bricht sich einen ab um mit Quellen ein Gesamtbild herzustellen und in einer Kaufberatung nützlich zu sein, aber es wird von manchen einfach nicht gelesen oder verstanden. Eigentlich mein Fehler überhaupt ins Forum zu schauen. Ist echt nur noch traurig.
 

Anhänge

  • Screenshot_20230624-120022.png
    Screenshot_20230624-120022.png
    477,2 KB · Aufrufe: 81
  • Screenshot_20230624-120149.png
    Screenshot_20230624-120149.png
    444,5 KB · Aufrufe: 81
  • Screenshot_20230624-120124.png
    Screenshot_20230624-120124.png
    434,7 KB · Aufrufe: 76
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ShowOff
ja sollen wir uns jetzt alle 1000€+ karten reinballern weil der vram zu knapp wird oder was willst du uns sagen. sollen wir uns amd karten holen die nur semi bei raytracing sind und treiberprobleme haben. der markt hat halt nichts parat, man muss kompromisse eingehen, anders geht es gerade nicht. mir wäre es auch lieber 800€ für ne 20gb karte mit 4080 leistung zu zahlen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Loopman, Technico und Ja_Ge

 
Gamescom abwarten - warten was die Radeon 7700XT und 7800XT bringen - und dann weiterschauen.

Ansonsten: Die 6800XT ist keine Option mehr. Zum Einen weil die EOL ist und somit nicht mehr hergestellt wird. Die Preise für die Karten steigen wieder und übersteigen auch die der 4070. Zudem hat die 6800XT einen um 100 Watt im Schnitt höheren Strombedarf als die 4070 - somit keine Option.

Entweder noch abwarten - oder die 4070 nehmen. Ggf. wenn AMD vorgestellt hat. Es kann durchaus sein, dass Nvidia dann doch gezwungen sein wird die 4070 preislich zu reduzieren. Denn ich denke, dass die 7700Xt die 4070 bei niedrigeren Kosten in der Gesamtleistung schlagen wird. Alles Andere wäre zudem enttäuschend.
 
  • Gefällt mir
Reaktionen: Loopman
Zurück
Oben