4070 oder 7800 xt

gruuli schrieb:
Und letzteres stimmt auch, nur frage ich mich eig. warum? FSR ist ja Open Source und kann theoretisch doch von jedem (Entwickler) ins Spiel eingebaut werden, der darauf Bock hat, man muss es einfach nur tun... bei DLSS muss eine Kooperation mit Nvidia stattfinden, soweit ich weiß, was bei FSR nicht unbedingt der Fall ist.
DLSS zu implementieren ist eine Kleinigkeit. Dazu gab es einige Aussagen von Entwicklern die das bestätigen. Gilt auch für FSR. Fakt ist, AMD hat eher einen geringen Marktanteil, daher ist es eher Fatal, wenn ein Spielehersteller DLSS nicht unterstützt. Siehe den Aufschrei bei Starfield, dass eine AMD Kooperation war und nur FSR unterstützt hat. Der Aufschrei in den Foren war immens, jetzt wird DLSS nachgereicht (oder wurde nachgereicht) Bezahlen müssen die ja nicht dafür.
Es gibt ja bereits Modder, die DLSS in Spiele implementieren. Das zeigt ebenfalls wie einfach das sein muss und wie überschaubar der Arbeitsaufwand ist.

Fazzo schrieb:
NVidia Treiber schon immer besser und stabiler gewesen
Sorry, aber das ist quatsch und ist ein Märchen aus einer Zeit die schon lange vorbei ist. Die Probleme bei den Treibern auf Seiten AMD und Nvidia geben sich nichts.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und gruuli
was gibt es bei so einer Aussage zu erklären, wie meinst du dir darüber ein Urteil zu erlauben, wenn du die letzten 25 Jahre keine AMD Karte genutzt hast ?

ich nutze seit 2015 (R9 390, Vega64 und jetzt die 6800XT seit 2021) und dem Speicherdebakel bzw. verarsche seitens Nvidia mit der nicht kommunizierten Speicherbestückung der GTX970 und die ich eigentlich kaufen wollte, nur noch AMD Karten und hatte davor im Wechsel immer ATI oder Nvidia im System und kann dir sagen das ich mit AMD Treibern keine großartigen Probleme bis dato hatte

daher woher nimmst du bitte deine Aussage die ich oben zitiert habe, vom hören sagen ?
Ergänzung ()

und sowas wird dann auch noch geliked... glaubsde an nix mehr
 
  • Gefällt mir
Reaktionen: coroy, cosmo45, Ghostfacekalle und 2 andere
DiePalme schrieb:
DLSS zu implementieren ist eine Kleinigkeit. Dazu gab es einige Aussagen von Entwicklern die das bestätigen. Gilt auch für FSR.

DiePalme schrieb:
...Das zeigt ebenfalls wie einfach das sein muss und wie überschaubar der Arbeitsaufwand ist.
Ich weiß ja nicht inwieweit Du dich damit auskennst, aber ich weiß, dass derzeit nur Unreal Engine und Unity Engine zb. DLSS (und FSR?) nativ unterstützen, das heißt hier geht es wohl "von Haus aus", wie ist denn das bei anderen Engines wie zb. Source Engine?

Wäre das dort nur mit erheblichen Mehraufwand möglich? CS2 supported zb. nur FSR 1 und sonst gar nichts, Apex Legends (ebenfalls Source Engine) lässt sowas ganz vermissen (da gibts nur son "Adaptive Resolution" Blödsinn), obwohl Respawn und EA auf AMDs Homepage mit AMD eine Kooperation haben (was ja erstmal auch nicht viel bedeuten muss, ich weiß).

Ich habe mal gelesen, dass bestimmte Engines (u.A. Source) sowas nicht unterstützen, die Frage: Gibt es Engines die sowas gar nicht können, oder nur mit viel Aufwand oder wie ist das zu erklären, dass man in einem neuen CS2 (mit Source 2 Engine) FSR 1 einbaut, aber nix darüber hinaus?
 
@gruuli bei CS2 solltest du im Grunde auch mit einer 7800XT keine Probleme haben was die FPS angehen, sodass du auf FSR angewiesen wärst
 
  • Gefällt mir
Reaktionen: gruuli
Verak Drezzt schrieb:
bei CS2 solltest du im Grunde auch mit einer 7800XT keine Probleme haben was die FPS angehen, sodass du auf FSR angewiesen wärst
Ja, dass ich damit keine Probleme haben werde ist mir klar, ich meine nur, was will man mit FSR 1, wen interessiert die erste Version? Das hätten die sich sparen können, wirkt halt wie so ein "rotzen wir FSR1 rein, aber auf mehr haben wir keinen Bock" Ding.
 
gruuli schrieb:
Das hätten die sich sparen können, wirkt halt wie so ein "rotzen wir FSR1 rein, aber auf mehr haben wir keinen Bock" Ding.
naja kommt auch mit auf die Umsetzung an und ab welcher Karte kann man FSR nutzen ? schaue gerade und sehe ab einer RX4xx bzw. einer GTX 10xx Karte, also mit einer 1050Ti oder RX460 ist FSR sicher von Vorteil
Ergänzung ()

hängt da weniger mit der FSR Version als mit der technischen Umsetzung zusammen, gibt bei FSR2 und auch DLSS2.0 Games wo die technische Umsetzung grottig ist
 
  • Gefällt mir
Reaktionen: gruuli
Da Upscaling immer häufiger zur Pflicht wird, führt eigentlich kein Weg an Nvidia vorbei.

FSR2 ist ein deutlicher Kompromiss, vor allem im Bewegtbild. Bei DLSS hingegen sieht das Bild mittlerweile häufig besser aus, als nativ und zusätzlich gibts noch Frame Generation in mittlerweile recht vielen Spielen. AMD muss sich bei FSR3 mit FG erstmal beweisen, da haben die bisherigen Reviews ja eher enttäuscht. So oder so bleibt die Qualität des Upscalers auch mit FSR3 unverändert zu FSR2.

Einizger Nachteil bei Nvidia sind die 12 GB VRAM, was die Entscheidung nicht einfach macht.

Die AMD Karte wird dadurch sicherlich besser altern, aber eben nur, wenn man die schlechtere Bildqualität von FSR akzeptieren kann. Das ist eben der Tradeoff.
 
  • Gefällt mir
Reaktionen: gruuli
@gruuli
Native Unterstützung ist ja was anderes als es zu implementieren. Bei den Spielen die du aufgelistet hast sind teilweise älter oder laufen auch so mit 200+ FPS auf potenter Hardware. Glaub CS2 läuft bei mir auf der 4080 in UWQHD mit über 400FPS. Wozu noch DLSS oder FSR? Apex Legends ist ein ähnlicher Kandidat.
Grade bei diesen Online Spielen mit sehr schwachen Anforderungen an die Grafikkarte, will sich wohl niemand mehr darum kümmern, da völlig unnötig.
Wichtig ist es ja eher bei Spielen die nativ einfach nicht mehr gestemmt werden können.
 
  • Gefällt mir
Reaktionen: gruuli und Verak Drezzt
Fazzo schrieb:
. Spiele z.B. gerade Robocop Rogue City, was auf Grund der UE5 Engine die Karte schön fordert. Ich liege zwischen 80 - 110 FPS und es läuft butterweich und die Grafik des Games ist das Beste, was ich bis jetzt je gesehen habe.
P.S. Die FPS natürlich mit DLSS!
Meine Frau hat das Game auch gerade auf der Platte. Auffällig, ist der im Vergleich zur Optik, niedrige VRam Verbrauch.
RTX 4070TI/160W Setting und FPS auf ~halbe Hz des Bildschirmes gelocked.
3.png4.png
5.png6.png
7.png8.png
9.png10.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fazzo
  • Gefällt mir
Reaktionen: gruuli
Auch wenn man nVidia VRAM-Geiz vorwerfen kann, sollte man den ordentlich aufgebohrten (iirc) L2-Cache der Karten nicht unterschlagen. Ist dem Cache-System bei AMD ähnlich und solange die Hit-Rate hoch genug ist (bis WQHD klappt das bei 4070/Ti ganz gut), kompensiert das einiges an VRAM und gibt die Zeit, Assets/Texturen nach Bedarf zu tauschen.

RBar/SAM dazu und hoffentlich noch DirectStorage mit vollem Feature-Set und das relativiert sich alles.
 
@mae1cum77
Das hilft aber auch alles nur bedingt. Am Ende zeigt es sich ja bei solchen VRam Fressern wie Hogwarts Legacy, dass das alles nur bedingt hilft, wenn klar mehr als z.B. 8 oder 10GB VRam benötigt werden. Sprich, damit kann man die Grenze, ab wann es kritisch wird, etwas hinausziehen. Das hilft vielleicht, wenn 11GB gefordert sind man aber nur 10 hat (so mal rein theoretisch). Darüber hinaus hast du dann aber dennoch teilweise massive Probleme.
 
  • Gefällt mir
Reaktionen: Ghostfacekalle und gruuli
DiePalme schrieb:
Das hilft aber auch alles nur bedingt.
Hab auch nicht behauptet, das wäre ein Allheilmittel :). Man darf bei der Betrachtung aber nicht vergessen, daß die Game-Engine hier der Faktor ist. Ist diese bei der Allokation zu aggressiv, gibt es Probleme.

Dabei ist Allokation != tatsächlich nötiger VRAM, da kann man auch übertreiben. Cyberpunk mit Pathtraycing, DLSS Quality und FG braucht ca. 10 GB und schankt die ganze Zeit um diesen Wert, ganz ohne vollzulaufen, geht also.

Wie gesagt, RBAR/SAM und DirectStorage sind der sinnvollere Ansatz, nicht ständig mehr VRAM.
 
mae1cum77 schrieb:
Wie gesagt, RBAR/SAM und DirectStorage sind der sinnvollere Ansatz, nicht ständig mehr VRAM.
dann erzähl das mal den Entwicklern von Dead Space Remake, The Last of us, Resident Evil 4 und noch ein paar anderen VRam fressern die dieses Jahr raus kamen und in Zukunft wohl nicht weniger werden
 
Verak Drezzt schrieb:
dann erzähl das mal den Entwicklern
Die haben das interessanteste Feature für direktes Asset/Textur-Streaming nicht genutzt, nur die reine Ladegeschwindigkeit. Das war bisher halbherzig und sagt nichts über das Feature aus, nur über die Entwickler.
 
mae1cum77 schrieb:
Hab auch nicht behauptet, das wäre ein Allheilmittel :).
Wollte ich auch nicht unterstellen. Aber jemand der nicht ganz im Thema drin ist, könnte das auch falsch verstehen. Deine Formulierung war dahingehend nicht so klar für Anfänger. ;)
 
  • Gefällt mir
Reaktionen: Verak Drezzt
DiePalme schrieb:
Deine Formulierung war dahingehend nicht so klar für Anfänger.
Die war alles andere als falsch. Auch, wenn es bisher nicht genutzt wurde bietet die DirectStorage-API der Grafikkarte direkten Zugriff auf die SSD (optimalerweise NVMe) ohne Umwege über CPU/RAM. Das spart nicht nur CPU-IO. Dadurch wird das unnötige 'Auf-Vorrat-Halten' abgemildert und der VRAM weinger vollgemüllt.

Ein grosser Cache mit brauchbare Hit-Rate und RBAR/SAM runden das Ganze dann noch zusätzlich ab.

Da ist noch einiges Luft. Nur weil wir uns an hohen VRAM-Verbrauch gewöhnt haben, heißt das nicht, daß das gottgegeben ist und unveränderlich.
 
ich würde das geplante Obsoleszenz Spiel mit dem VRam seitens Nvida als Kunde mir nicht gefallen lassen und 600€ für eine 4070 hinlegen oder sogar 850€ für eine 4070Ti, wenn man bedenkt das man eine 6750XT z.Z. für 330€ die kaum langsamer als eine 4070 ist, bekommt

weil Nvidia genau so kalkuliert das die Leutz mit der nächsten oder gar übernächsten Generation dann auf eine Karte wechseln werden die mehr VRam hat, während ich seit 2021 meine 6800XT habe, bekommen die Leutz wahrscheinlich erst mit einer 5070 16GB, wenn überhaupt, ist einfach nur lachhaft was Nvidia abzieht wenn man bedenkt das es 8GB VRam Karten schon seit der 290X gibt
Ergänzung ()

ich würde mir keine 12GB Karte für WQHD für nen Preis von 600€ Ende 2023 noch zulegen
 
  • Gefällt mir
Reaktionen: coroy
DiePalme schrieb:
Sorry, aber das ist quatsch und ist ein Märchen aus einer Zeit die schon lange vorbei ist. Die Probleme bei den Treibern auf Seiten AMD und Nvidia geben sich nichts.
ist kein quatsch. Jetzt sieh dir mal die nvidia verteilung an gpus an zu amd gpus. 10:1

Wären die treiber bei nvidia genauso schlecht wie bei amd müssten wir 10 mal mehr davon hören wrum ist das nicht der Fall? Weil sie funktionieren.
 
  • Gefällt mir
Reaktionen: Fazzo
mae1cum77 schrieb:
Ein grosser Cache mit brauchbare Hit-Rate und RBAR/SAM runden das Ganze dann noch zusätzlich ab.

Da ist noch einiges Luft. Nur weil wir uns an hohen VRAM-Verbrauch gewöhnt haben, heißt das nicht, daß das gottgegeben ist und unveränderlich.
ist ja schön und gut in der Theorie, aber die Praxis sieht halt leider anders aus, da kannsde dir gerne noch so tolle Luftschlösser bauen, wenn der VRam Bedarf in der Entwicklung künftiger Games nicht gesenkt wird
 
  • Gefällt mir
Reaktionen: gruuli
Zurück
Oben