4070 oder 7800 xt

Naja - schlecht optimierte Spiele sind ja nun auf nem anderen Blatt.

Zu den Treibern: AMD hat aktuell nur ein seit 2021 bestehendes gravierendes Problem - was auch ein lange existierender Bug ist der nicht auftreten MUSS aber kann. Siehe hier:

https://www.computerbase.de/forum/t...tet-nicht-runter-loesung-mittels-cru.1986961/

Das Problem mit nicht runtertaktenden VRAM haben sie immer noch nicht in allen Fällen behoben was teils zu hohen Idle VRAM Taktraten und hoher Stromaufnahme im Idle führt - vor Allem mit zwei Monitoren. Das Problem hat Nvidia in der gravierenden Form nicht.

Ansonsten ist die Frage: Wird Upscaling und DXR genutzt? Wenn ja - dann klar Nvidia. Denn bei Ray Tracing und Upscaling ist AMD zwei Generationen hinterher. Wenn das Beides keine Rolle spielt und einem die Idle Lastaufnahme mitunter egal ist, spricht nichts gegen ne AMD Karte. Instabil sind die Treiber per se nicht. AMD hat lediglich eben mit den Timings der Monitore gravierendere Probleme die sie nicht beheben wollen.

Es entscheiden also die Features die man nutzen möchte. Denn FSR 2 und 3 können bei Weitem nicht mit DLSS 2 und 3.5 mithalten. Ebenso sind AMD Karten beim RayTracing halt langsamer - die 7800XT hat aber in Rasterisierung einen Vorteil gegenüber der 4070 und ist auch in den empfehlenswerten Top Modellen von Power Color und Sapphire deutlich günstiger als die 4070.

Abwägen - dann selbst entscheiden.
 
  • Gefällt mir
Reaktionen: gruuli
mae1cum77 schrieb:
Wie gesagt, RBAR/SAM und DirectStorage sind der sinnvollere Ansatz, nicht ständig mehr VRAM.
Ich finde es immer cool wenn Menschen eine "seitliche" Denkweise (Stichwort RBAR / SAM) haben, statt nur geradeaus zu denken, indem man zb. "im jetzt" 8GB VRAM nimmt und in der Zukunft davon ausgeht, dass es einfach 16GB werden, oder heute 540 Hz Monitor, in ein paar Jahren 1.000 Hz = sowas halte ich immer für fatal. Wollte das nur mal loswerden :)

Nun wirklich zum "nicht ständig mehr VRAM" - die Frage ist immer ab wann es noch sinnvoll / nutzbar ist und ab wann nicht mehr, man sagt ja bei Hardware immer: mehr ist besser btw. haben ist besser als brauchen, egal ob VRAM, RAM oder CPU Kerne.

Nun würde ich keine Wette eingehen bei jetzt schon bestehenden 24GB Grafikkarten und 4K Auflösungen, sowie RT / Pathtracing usw. (mMn. immer noch in den Kinderschuhen), dass es nicht doch ganz schnell knapp werden könnte mit 10, 12 oder gar 16GB VRAM, auch weil Texturen immer mehr und hoch aufgelöster werden, das sind eben immer Dinge die niemand weiß...

...inwiefern sich auch Game Engines effizienter entwickeln ODER auch nicht (Stichwort "wir rotzen das so hin und kompensieren den Bockmist mit Upscaling), ein Alan Wake 2 ist zb. ohne Upscaling so gut wie unspielbar mit nicht den absoluten Monster-Karten 4090/7900XTX, was jetzt kein Beispiel dafür sein soll, es sei schlecht umgesetzt oder sowas!

Ein Deathloop war zb. auch ein Ausnahme-Titel, wo CB tatsächlich 16GB VRAM empfohlen hat (Zitat: "10 GB schnell Pflicht, sorglos erst mit 16 GB") für höhere Auflösungen, da hab ich mich auch erschrocken, wobei man da natürlich behaupten kann (gerade auch bei der Optik des Spiels), dass die Entwickler schlampig waren oder Memory Leaks die Ursache sind.

Wie immer im Leben ist es sehr schwer beim Thema Hardware klar zu sagen ab wann etwas "unnötig" ist oder nicht, denn wenn man es darauf anlegt bekommt man auch 64GB RAM voll oder 24GB VRAM, oder eine 4090 ganz leicht kleingehackt.
 
Zuletzt bearbeitet: (Deathloop Ergänzung)
  • Gefällt mir
Reaktionen: mae1cum77
stillermitlese schrieb:
Wären die treiber bei nvidia genauso schlecht wie bei amd müssten wir 10 mal mehr davon hören wrum ist das nicht der Fall? Weil sie funktionieren.
Nein, weil Sie beide sehr gut funktionieren.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle
Ich hatte jetzt 1 Jahr lang die 6800XT und bin zur 4070 gewechselt.

Zur "VRam-Problematik": solange man nicht in 4K spielt - und das sind beides keine 4K Karten, sollte sich das bei AAA Titeln nicht allzusehr auswirken. Ich habe hier mal einen Link - ohne jetzt alles selbst geprüft zu haben.
LINK VRAM Usage FPS Review Reservierter VRAM ist nicht gleich benutzter VRAM. Die VRAM Hysterie wird zu oft hochgekocht.

Ich bin zur 4070 gewechselt, weil mir Features wie DLSS, RT und FG gefehlt haben. Wenn du in Richtung AAA Titel in 1440P mit vollen Details gehst, würde ich dir zur 4070 raten. Ich habe Cyperpunk und die Starfield Beta mit FG und DLSS voll ausnutzen können. Da wird die 7800XT trotz mehr Rohleistung kein Land mehr sehen. Klar hat die 7800XT mehr Rohleistung, nur nicht soviel das es FG und Raytracing überlgen ist.

Ich habe eine von KFA2 die bei 190 W mit 3GHZ läuft. was manchmal nochmal 3-5% mehr FPS bringt. Die läuft aber auch mit 145-150% W und hat immernoch 95% ihrer Leistung.

Es hängt halt von deinen Spielen und deiner Auflösung ab. In Hunt:Showdown hatte ich z.B. 160FPS Average, mit der 4070 nur noch ca. 135 FPS. Hunt hat auch kein DLSS oder FG (ist ein DX11 Game), da war es dann wieder ein Rückschritt. Dennoch habe ich bisher kein VRam Problem festellen können bei : Hogwarts, Hunt, CP2077, COD, OW2, D4, BG3, Starfield. in 1440P wohlgemerkt. Ich konnte keine nachlad stutters oder ähnliches in den Games feststellen. Fun Fact: Angeblich hat Diablo 4 und Starfield bei meiner 6800XT zwischen 27GB und 31GB Vram belegt :D -.- .......... selbst da gabs keine Microstutters. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gruuli
Verak Drezzt schrieb:
da kannsde dir gerne noch so tolle Luftschlösser bauen
Danke, mein letzter Versailles-Nachbau konnte sich durchaus sehen lassen :). Federleicht!

Geht doch garnicht darum Dinge schönzureden. Gaminggrafik ist an einem Scheideweg, der klassische Zweig läßt sich langsam nurnoch unter Aufwendung erheblicher Rasterleistung und VRAM-Verbrauch realisieren, das geht nicht lange so weiter.

Die Alternative sind dedizierte, spezialisierte Einheiten die im Verbund mit den Grafik-Kernen arbeiten. Dazu neue Antialiasing-Techniken und Framegeneration. So wird Pathtracing realistisch.

DirektStorage bietet eine einfache Möglichkeit die Daten direkt vom Massenspeicher bei Bedarf abzurufen und on-the-fly zu entpacken. Das spart zusätzlich Platz auf dem Massenspeicher. Da das bisher über die CPU abgewickelt wurde, haben sich das moderne Spiele oft gespart, mit dem Ergebnis von >200GB-Spielen.
 
mae1cum77 schrieb:
Geht doch garnicht darum Dinge schönzureden. Gaminggrafik ist an einem Scheideweg, der klassische Zweig läßt sich langsam nurnoch unter Aufwendung erheblicher Rasterleistung und VRAM-Verbrauch realisieren, das geht nicht lange so weiter.
wenn dem so wäre, warum sehen wir dann davon nichts in der Umsetzung ? der Trend geht wie man dieses Jahr gesehen hat ganz im Gegenteil in die andere Richtung, wie gesagt deine Theorien hier sind ja schön und gut, aber haben nichts mit der Realität zu tun,

können uns gerne in 1-2 Jahren nochmal darüber unterhalten und schauen wie dann der Stand der Dinge ist, aber ich gehe davon aus dass sich der Trend der dieses Jahr mit besagten Titel begann, auch so weitergehen wird, solang werde ich hier für WQHD keine 12GB VRam Karte für 600-850€ empfehlen

außer man gibt sich mit medium-high Texturen in den nächsten Jahren zufrieden
 
  • Gefällt mir
Reaktionen: gruuli
Wenn man den Treiber manuell installiert ersetzt Windows gar nix. So ein Blödsinn....
Und die AMD-Treiber laufen schon seit Ewigkeiten rund. Diese alte Mär, dass die mies sind. Es nervt.

Fehlt nur noch ein Netzteil-Kommentar....

Würde die 7800XT nehmen. Ist meiner Meinung nach auch die beste im 7000er -Reigen. Wenn dich die die 4GB weniger und der Aufpreis nicht stören greif zur 4070.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gruuli und Verak Drezzt
Verak Drezzt schrieb:
der Trend geht wie man dieses Jahr gesehen hat ganz im Gegenteil in die andere Richtung, wie gesagt deine Theorien hier sind ja schön und gut, aber haben nichts mit der Realität zu tun,
Vorsicht, das täuscht ;). Spiele werde langfristig entwickelt und selten auf eine modernere Engineversion portiert während der Entwicklung. Da ist es nicht weiter verwunderlich.

Die UE 5.x zeigt, wo es hingeht. Die unterstützt neue Features sowohl Soft- als auch Hardware-seitig. Zudem bringt sie mit TSR eine eigene temporale AA Variante, die laut bisherigen Berichten besser als FSR2 abschneidet.
 
Puh, diese Diskussion hatten wir ja lange nicht mehr 😅.

Ich würde keine AMD mit 3 Jahre alten Features und Technikstand fürs gleiche Geld wie vor 3 Jahren kaufen nur weil da ein anderer Name dran steht. Heisst nicht, dass die Karte schlecht ist aber ich ziehe new Tech, die zuverlässig läuft vor wenn ich schon 500 Euro und mehr für eine GPU ausgebe. Fürs Geld der 7800xt müsste es m.E. eine 7900xt geben heute (weil sie halt einfach schneller ist) und für Betatesten/Ärgern ist mir meine Zeit zu schade. Dann lieber eine 4070 mit etwas weniger Vram und allen anderen Pluspunkten, die ja hinlänglich bekannt sein sollten.
 
  • Gefällt mir
Reaktionen: Tr8or, maxi_rodriges und patze812
ich will ehrlich gesagt gar nicht wissen wie viele da draußen und auch teils hier auf dem Board, extra wegen dem VRam Thema, Leutz von einer 3070, 3080(Ti) auf eine 4070(Ti) oder 4080 gewechselt sind und Nvidia feiert das selbstverständlich richtig gut ab und wird mit Blackwell nächstes Jahr nicht anders aussehen

wobei ich selbst da Nvidia zutrauen würde wieder mit einer 5060 mit 8GB und einer 5070 mit 12GB um die Ecke zukommen, ggf. bekommt die 5070Ti als auch die 5080 wieder 16GB, aber hey laut deiner These wird das schon passen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coroy, patze812 und gruuli
Verak Drezzt schrieb:
wobei ich selbst da Nvidia zutrauen würde wieder mit einer 5060 mit 8GB und einer 5070 mit 12GB um die Ecke zukommen
Ja ich auch, bei den Einsteiger bis Mittelklasse-Karten (dazu zähle ich jetzt einfach mal noch die 4070, auch wenn die aktuell schon knapp 600 kostet) gibts halt einfach nicht so viel VRAM wie bei AMD, habe ich das Gefühl.

Diese VRAM Sache stößt mir schon länger sauer auf bei Nvidia (mal davon ab ob 10 oder 12GB nun reichen oder nicht): eine 4060 Ti für knapp unter 500€ hat dicke 16GB Speicher, eine 4070 für knapp 600€ (und Ti für dann schon über 800€) wieder nur 12, eine 4080 dann wieder 16GB, die kostet dann aber auch schon jenseits der 1.000€...

...das hinterlässt bei mir das Gefühl von "nichts Halbes nichts Ganzes", oder du verkaufst deine Niere. Aus Marketing-Sicht ja ein intelligenter Move.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coroy
gruuli schrieb:
Diese VRAM Sache stößt mir schon länger sauer auf bei Nvidia: eine 4060 Ti hat dicke 16GB Speicher, eine 4070 (und Ti) wieder nur 12
ja weil das alles so gewollt ist von Nvidia, wenn du dick Speicher haben willst, musst du zu einer 4080 bzw. 4090 greifen, obwohl du eigentlich nicht mehr als 600€ hinlegen willst

und wäre die 4060Ti mit 16GB entsprechend günstig, würde auch nichts gegen sie sprechen, aber wenn du für etwas mehr eine 35% schnellere 4070 bekommst, stellt sich die Frage dahingehend auch gar nicht mehr,

wobei die Leistung auch eher einer FullHD Karte würdig ist und man diese im Grunde genau wegen dem VRam Thema, nur als Konter gegen die 7700XT gebracht hat, die nochmals 15-20% schneller ist, wenn man sie mal hier mit der 6800 non XT vergleicht: https://www.pcgameshardware.de/Gefo...Test-Benchmark-Release-8GB-vs-16GB-1424743/2/

daher einfach nur harter bullshit den Nvidia da abzieht und das nicht erst die letzten beiden Generationen
Ergänzung ()

das geht schon seit Maxwell und der GTX970 Speicheranbindung verarsche und viele feiern den Saftladen auch noch dafür, hätte Nvidia nicht so einen dicken Marktanteil würden sie sich auch sowas nicht erlauben, daher alles nur Kausalität, hätten wir schon eine GTX970 mit 8GB gegenüber einer R9 390/290X und eine 3070 mit 12-16GB gegenüber einer 6700XT/6800 gesehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coroy und gruuli
Naja - es bringt aber teils auch nichts, wenn die Konkurrenz dann andere Schwächen hat und bei modernen Upscaling Featurs weit abgehängt hinterherhinkt - von der Effizienz ganz zu schweigen.

Man muss daher schon abwägen wem man sein sauer und hart verdientes Geld geben will. Das hängt vom Anwendungsszenario und, in Bezug auf das ewige VRAM Thema bei AMD mit der eigenen "Leidensfähigkeit" zusammen.

Die VRAM Diskussion, vor allem in Auflösungen bis 1440p, war insgesamt schon etwas überzogen. Ich habe mit ner 3070 in 1440p ohne Probleme Last of Us oder Hogwards Legacy spielen können. Das geht schon wemn man sich ein Wenig mit den Settings befasst. NATÜRLICH hat mehr VRAM Vorteile - eine übermäißg riesige Diskussion sollte man jetzt aber auch nicht daraus machen, da eben andere Faktoren gravierender sind - wie eben DLSS vs FSR und Ray Tracing. Denn ob 12 oder 16 GB VRAM wird erstmal in 1440p keinen großen Unterschied machen.
 
  • Gefällt mir
Reaktionen: gruuli
Bono35 schrieb:
von der Effizienz ganz zu schweigen.
ach komm, die bei Ampere zuletzt komischerweise auch kein Thema war und AMD mit einer 6900XT sowie einer 6800XT gegenüber einer 3080 sowie 3090 sogar besser da stand, hat sich nicht wirklich auf die Kaufentscheidung vieler hier ausgewirkt
 
Die Effizienz-Schere ist zwischen RDNA3 und Ada Lovelace schon größer - vor Allem bei 7800XT vs 4070.
RDNA2 war gegenüber Ampere deutlich konkurrenzfähiger zudem in der Gesamtleistung.

Die 7800XT ist ja eher ein Refresh der 6800XT - wenn man es rein von der Leistung betrachtet und ehrlich zu sich selbst ist.
 
Bono35 schrieb:
Denn ob 12 oder 16 GB VRAM wird erstmal in 1440p keinen großen Unterschied machen.
Das ist eben die große Frage, ob und wie lange das so ist, ich persönliche kaufe eine Grafikkarte und behalte diese locker 5 oder 7 Jahre, da werden solche Dinge eben gravierender als bei Jemanden, der die wechselt wie seine Unterhosen.
 
Bono35 schrieb:
Die 7800XT ist ja eher ein Refresh der 6800XT - wenn man es rein von der Leistung betrachtet.
ja und warum ? weil eine 6800XT genauso schnell wie eine 3080 war und eine 4070 sprich 7800XT nun ebenso... böses AMD
 
Man bedenke die bessere TExtur-Kompression bei Nvidia....
 
solltest dich lieber mal fragen weshalb Nvidia mit einem 90% Marktanteil es nicht gebacken bekommen hat bei einer 4070 nicht mehr als 3080 Leistung rauszuholen oder eine 4060Ti nicht mal an die Leistung einer 3070 kommt,

während bei Ampere noch die 3070 die Leistung einer 2080Ti und die 3060Ti die Leistung einer 2080Super hatte, von wegen Gesamtleistung RDNA2 gegenüber Ampere, dann hätte es wohl auch keine 7800XT mit selbiger Leistung zur 3080 davor gegeben

und ihr hättet nichts gehabt woran ihr euch hochziehen hättet können wenn der Leistungssprung wie zuvor bei Ampere größer ausgefallen wäre
Ergänzung ()

aber zum Glück werden ja im Frühjahr die "Super" Karten kommen die diese Lücke dann wieder schließen... mit entsprechenden Aufpreis und wohl teils mehr VRam
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coroy
Verak Drezzt schrieb:
es nicht gebacken bekommen hat bei einer 4070 nicht mehr als 3080 Leistung rauszuholen oder eine 4060Ti nicht mal an die Leistung einer 3070 kommt,
War ein Kompromiß. Kleine Rastersteigerung bei 2,5facher Steigerung bei RT- und Tensor-Leistung. Bei Pathtracing macht das einiges aus.
 
Zurück
Oben