News 6950 XT, 6750 XT und 6650 XT: RDNA-2-Refresh soll am 20. April erscheinen

Firstdim schrieb:
(...)

Ich verstehe dich nicht ganz oder habe ich was verpasst...
Du kaufst dir einen UHD Monitor um die minimale, visuelle Unterschiede zu genießen, dann fährst mit reduzierten Settings und somit spielst mit reduzierten Details und Quali, die in Vergleich mit Ultra WQHD settings, nur schlecht aussieht...
....sorry, wo ist hier die Logik ?

(...)
Ich hab einen 4k Fernseher auf dem ich auch zocke. Somit profitiere ich schonmal 2 mal.
Dazu kommt, dass ich viele, viele Spiele hab, die wunderbar in 4k laufen, es gibt ja nicht nur AAA.
Der Rest ist Ansichtssache, ich sehe weder bei FFAX noch bei 80% RS einen signifikanten optischen Unterschied, beim Downgrade auf WQHD schon (abgesehen davon, dass der TV meist darauf besteht, in nativer Auflösung bespielt zu werden).
Weder empfinde ich also die Unterschiedeals "minimal" noch meine Settings als optisch "schlecht".
Ergänzung ()

Northstar2710 schrieb:
Ich finde es garnicht so abwegig.
Kommt auch ganz auf die Größe des Monitors an.
49" und damit beim davorsitzen für Maus/Tasta selbst für mich fast zu gross aber ich steh auch drauf, also nehm ich bei Civ und Tw den Riesenbildschirm hin :). Ist aber schon speziell, gebe ich zu.
Northstar2710 schrieb:
Und die subjektive Wahrnehmung von Bildqualität im spielvergnügen und nicht als Standbild. Außerdem spielt er auf Max(Ultra Details) dazu hat er mit der 80% scaliering 3millionen Pixel mehr als mit Ultra Wqhd.
Vor allem das.
Northstar2710 schrieb:
Das einzige wo er keine richtigen wert legt ist Minimum 60fps.
Nicht in TW, ja.
Northstar2710 schrieb:
Wo man sagen muss kommt es nunmal auch ganz auf die Spiele an die man spielt.
Viel, wenn auch nicht hauptsächlich alten Kram, Couch Coop, Emulatoren, Indiegames.
 
  • Gefällt mir
Reaktionen: Firstdim
radoxx schrieb:
Ich versteh jetzt ehrlich nicht warum es unmittelbar vor RDNA3 noch einen dermaßen seichten Aufguss geben soll.
"Unmittelbar"? Was denkst du wann RDNA3 vorgestellt wird und wieviel Zeit dann noch vergeht bis man die irgendwo kaufen kann?

Es wurde lediglich gesagt, dass die ersten Modelle 2022 released werden.
Das wird dann aber wohl erstmal nur das High-End-Modell sein. Kaufen kannst es dann wahrscheinlich auch nicht direkt. Wenns sehr gut läuft, dann vielleicht zum Weihnachtsgeschäft. AMD stellt ja auch erstmal die CPUs auf Zen4 und 5nm um und für die APUs sind die 6nm erstmal sicher auch gut ausgelastet.
Die refreshten 6000er werden also bis irgendwann 2023 die Stange halten müssen unterhalb der RDNA3-Highendmodelle.
 
.Sentinel. schrieb:
WENN

SEHR viel besser. Hätte ich SEHR viel besser geschrieben. Aber ich habe nur sehr viel besser geschrieben.
Warum? liest du etwas was ich gar nicht geschrieben habe?

Dann muss man sich ja nicht um kleinigketen streiten.
Wie du richtig sagst. 50 W sind kein pappenstiel...
Deswegen nochmal den verlinkten Test anschauen! Da sind deutlich mehr als 50W unterschiede!

.Sentinel. schrieb:
RAM hochknüppeln
ah warum hochknüppeln. sind doch einfach die schnelleren Chips verbaut.
Nicht die gleichen und OC... was meinst du damit?

.Sentinel. schrieb:
Bis jetzt basieren die Gerüchte von 450W+ auf "Überlegungen" eines Users,
ah der neue Stecker, die spezifikationen dazu... das macht man weil zukünftig was passieren soll?

.Sentinel. schrieb:
Das Problem ist doch die Diversifizierung...
wir können sicherlich davon ausgehen das keinensfalls weniger Karten produziert werden...
über Preise braucht man eigentlich keine Worte mehr verlieren.

.Sentinel. schrieb:
Je nach Featureset
falscher Thread...
hier wurde wenn über die gestiegene TDP gemeckert.
ein wichtiges feature für den einen... kann für den anderen komplett uninteressant sein.
so brauch man auch nicht anfangen... führt auch zu nix.


MfG
 
Matthias80 schrieb:
ein wichtiges feature für den einen... kann für den anderen komplett uninteressant sein.
Nicht wenn man den allgemeinen Zweck und die Entwicklung von Grafikkarten betrachtet.
Ziel von Grafikkarten war es schon immer Szenen mit steigender Komplexität mit steigender Geschwindigkeit und steigender Grafikqualität zu liefern.

Wieso sollte man das nun plötzlich ausblenden und einen status quo akzeptieren? Gerade jetzt wo es endlich wieder größere Fortschritte in diversen Bereichen durch die neuen Features gibt?

Wie gesagt- Ich halte das für tendenziös. Man konnte sich seit jeher mehr FPS durch Einschnitte in Auflösung oder Grafikqualität erkaufen.

Hauptaugenmerk und Triebmotor lag und liegt auf Verbesserung der Grafikqualität.
Technisch werden wir diesbezüglich bei 4K/120Hz/FPS eine Sättigung erfahren.
Qualitativ wird das ganze wahrscheinlich im Path- Tracer mit 1000SPP enden.

Mit entprechenden Denoisern ist wahrscheinlich aber sogar bei 1/10 davon das Ende der qualitativ sichtbaren Fahnenstange erreicht.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Gerade jetzt wo es endlich wieder größere Fortschritte in diversen Bereichen durch die neuen Features gibt?
Mmh na DLSS gehört ja schon mal nicht dazu...
Und ich hab noch kein Spiel gesehen wo RT so viel besser war, das ich darauf nicht verzichten könnte. Vielleicht kommen wir da irgendwann mal hin wo es nicht nur Marketing geblubber ist.
Change my mind.

Mfg
 
  • Gefällt mir
Reaktionen: .Sentinel.
Matthias80 schrieb:
Mmh na DLSS gehört ja schon mal nicht dazu...
Wie kommst Du zu der irrigen Annahme?
Was glaubst Du mit wieviel Sparsity bzw. Rekonstruktion in aktuellen Titeln auch beim Rastern gearbeitet wird?

Und wie ich oben schrieb- Ziel der Grafikkartenentwicklung war nie, auf irgendetwas zu verzichten, sondern aufzusatteln. Und das hauptsächlich im qualitativen Sinn - Man strebt gegen den Fotorealismus mit einer ganzheitlichen, konsistenten Rendermethode.

Gibst Du den Entwicklern Grafikpower, dann stecken die das erst in grafische Qualität und schauen sekundär (je nach Genre aber auch nicht), dass die Framezahlen ebi Auflösung XY passen.
 
.Sentinel. schrieb:
Weil es upscaling ist.
Deine Punkte die Du aufgezählt hast. Genau dafür ist es ja nicht.
Hardware bringt nicht genug fps.
Interne Auflösung runter. AI drüber... Fps hoch. Sieht oft nicht schlechter aus.

Aber rt könnte genau das sein. Deine aufgezählten Punkte. Wenn es denn mal in der Fläche in den Spielen gebracht werden würde. Weil das aber noch ein weiter Weg ist. Zack kommt wieder dlss Krücke... Damit ich den Weg einigermaßen erträglich gehen kann.

Also diese Baby Gehversuche stand jetzt als Killer Feature zu verkaufen. Das finde ich doch dann aber sehr tendenziös!

Mfg
 
Matthias80 schrieb:
Weil es upscaling ist.
Deine Punkte die Du aufgezählt hast. Genau dafür ist es ja nicht.
Es ist temporales supersampling. Wie gesagt- Was glaubst Du, wie oft Du in aktuellen Rasterspielen mit Teilauflösungen (auch temporal) beglückt wirst, ohne dass Du es merkst?

Matthias80 schrieb:
Hardware bringt nicht genug fps.
Interne Auflösung runter. AI drüber... Fps hoch. Sieht oft nicht schlechter aus.
Anders:
Bruteforce und inneffiziente Berechnung bringt nicht genug FPS.
Auflösung runter, temporal kumulieren und schon einmal berechnete Pixel nicht Bild für Bild wieder berechnen, sondern beibehalten, so weit es geht. Je besser der Algorithmus wird, umso sauberer das Endergebnis.
Vorteil- Kostenloses Antialias und eben Supersampling. Details werden also aufgrund der intern höheren Abtastungsauflösung besser ins Raster übertragen.

Matthias80 schrieb:
Aber rt könnte genau das sein. Deine aufgezählten Punkte. Wenn es denn mal in der Fläche in den Spielen gebracht werden würde. Weil das aber noch ein weiter Weg ist. Zack kommt wieder dlss Krücke... Damit ich den Weg einigermaßen erträglich gehen kann.
RT haben wir mit Hybrid einfach eine Krücke. Würde man rein auf RT setzen (also auch die Primärpixelbildung) und in zweiter Instanz einen Raster für diverse Effekte, könnte man die erheblich bessere Skalierung von RT nutzen, um die GPUs in der Kernzahl zu steigern, aber die Taktung deutlich zu senken->Erheblich bessere Effizienz.


Matthias80 schrieb:
Also diese Baby Gehversuche stand jetzt als Killer Feature zu verkaufen. Das finde ich doch dann aber sehr tendenziös!
Das Prinzip ist inzwischen ziemlich ausgereift. Was soll denn daran kein Killerfeature sein, wenn Du Supersampling bekommst, also höhere interne Auflösung als nativ, qualitativ höchstwertiges AA und noch einen Geschwindigkeitsschub, den man sonst nur vom Sprung auf eine neue Grafikkartengeneration erhält?

Soll das Feature auch noch kochen können?

Die Studios müssen das Ding nur mal ordentlich integrieren.
Komisch, dass es ein par schaffen und andere kriegens nicht sauber hin.
Das liegt aber weniger am Feature, als an der Programmierung bzw. dem Willen, es sauber zu Implementieren oder der schlechten Ausgangsbasis eines Titels. Wird da viel mit Sparsity, Rekonstruktion und temporaler Kumulation gearbeitet, braucht man DLSS nicht draufsetzen.
DLSS benötigt ein absolut beruhigtes, temporal stabiles Bild um qualitativ hochwertig arbeiten zu können.

Wie sehr es um die Sogrfaltspflicht bei den Implementationen steht, sieht man spätestens, wenn wieder ein Entwickler den Texture Lod- Bias nicht angepasst hat und somit das Bild unschärfer ist.
Einer der Hauptpunkte des Programmers Guide von NVIDIA, der oft genug einfach ignoriert wird.

Die erreichte Qualität liegt dort oftmals nicht an Fehlern des Features.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
aktuellen Rasterspielen
Na auf dem PC doch hoffentlich ehr weniger. Oder meinst du die Grafikeinstellungen die man ja nicht tätigen muss. Auf Konsolen denke fast nur!


.Sentinel. schrieb:
Erheblich bessere Effizienz.
100% zustimm


.Sentinel. schrieb:
kein Killerfeature sein
Noch nen Stückchen weiter lesen...

Die spiele sind einfach noch nicht da. Selbst in Spielen wo es mal echt schick aussah. War es einfach belanglos.

Mfg
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Matthias80 schrieb:
Die spiele sind einfach noch nicht da. Selbst in Spielen wo es mal echt schick aussah. War es einfach belanglos.

Mfg
Nunja- Dann gehörst Du zu den Glücklichen, für die anscheinend die Grafikqualität bereits ohne RT & co. als optimal erscheint.

Spart sicherlich viel Geld... ;)

Spaß beiseite- Ich weiss was Du meinst. Dir sind die Steigerungen in der Grafikqualität zu marginal.
Klar- Konnte man vorher schon alles per Raytracing vorberechnet haben.

Bedeutet aber- Je schöner vorberechnet, umso statischer zwangsweise die Szene. Wenig Interaktionsmöglichkeiten, wenig Physik, wenig Zerstörung usw.

Da stößt man ohne RT extrem schnell an Grenzen. Und es wird doch gerade immer mehr dynamik, bessere Physik und bessere Interaktion von vielen Spielern gefordert.

Wie Du schreibst- Das wird schon. Dauert halt noch.
 
  • Gefällt mir
Reaktionen: Laphonso und Matthias80
Matthias80 schrieb:
Und ich hab noch kein Spiel gesehen wo RT so viel besser war, das ich darauf nicht verzichten könnte.
Metro Exodus ist - im Wortsinne - ein Unterschied wie Tag und Nacht.
Die "dunklen" Passagen und Licht+Schatteneffekte sind dank Raytracing hier dermaßen intensiv für die Immersion und Atmosphäre, dass sich seitdem die Frage längst nicht mehr stellt.


Cyberpunk komplett ohne Raytracing ist auch noch hübsch, aber verliert erheblich an Wirkung, wenn man den Unterschied kennst. Es sieht ohne Raytracing einfach "blasser" aus, so "unrealistic bland".


Das ist auch, so wie ich das wahrnehme, übergreifend einstimmig. DIe paar people die RT "doof" finden, gibt es immer, aber die visuelle Immersionsperspektive lässt gar keine andere Option als Raytracing zu, weil es realistischer ist und mehr Wirkung entfaltet.

Was uns fehlt ist die Rechnenpower. Dafür kann das Raytracing per se aber nichts.

Die für AMD RT kastrierten Effekte bei Titeln wie Far Cry 6 oder das das letzte Resident Evil sind eher das Problem, weil das aus Marketinggründen so beschnitten wurde, dass die AMD GPUs nicht den üblichen Rückstand haben auf die Ampere Technik in den RT Benchmarks.
Da dachte ich mir auch, okay, dann lasst es einfach weg. Das ist dann einfach keine Werbung für Raytracing.

Edit: Fürs Protokoll: Gibt auch "Nvidia Raytracing" Titel, bei denen ich mir denke ..naja..."bemüht" sagt man wohl dazu, aber das sieht nicht nach RT Feature und optischem "woah!!" aus....

Über alles gibt es derzeit vielleicht auch nur 4-5 Titel, bei denen Raytracing wirklich sichtbar und spürbar "den" Effekt erzielt, für das es vorgesehen ist und damit das Spielerlebnis bereichert gegenüber RT off.

Das ist nach über 3 Jahren zweifellos zu wenig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Lotusblüte
Pchelp88 schrieb:
Ganz vergessen es muss immer sinnlos Ultra sein und in einem RTS braucht man 144fps.

Die Rx 6900 XTXH in 1440p ohne Raytracing steht durchschnittlich über der Rtx 3090.
In UhD 3 Fps hinter der rtx 3090

https://www.computerbase.de/2022-02...st-2022/3/#abschnitt_benchmarks_in_3840__2160

Eine Grafik herauszupicken die eine Ausnahme darstellt ist ein Witz. Warhammer ist die Ausnahme, wo aber auch Nvidias Karten schlecht performen.
Ärgerlich für Leute die Warhammer spielen, für andere egal.

Generell ist mehr Leistung super und für UHD zukünftig auch nötig, aber dennoch sind die aktuellen nicht verkehrt.
Sicherlich wiederholt sich 2020 in Sachen Verfügbarkeit außer die Preise liegen an der 2000€ Grenze.
bad_sign schrieb:
Tja lieber Pchelp88, dann freust du dich sicher, wenn ich dir sage Ultra -> Low sind +100% FPS.
Wir kommen also auf.... <<< 144 FPS, moment es sind sogar <60 FPS, omg es sind sogar meist <30 FPS🙀
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Firstdim
Laphonso schrieb:
Was uns fehlt ist die Rechnenpower.
Ja vermutlich die beiden besten und schönsten Argumente dafür. Leider auch die beiden extremsten was die Performance betrifft. Das hab ich auf Screenshots gesehen... Bestaunt. Aber flüssig durchzocken... 2077 hab ich zum Release durch... Da war ja vieles noch im argen.

Mfg
 
  • Gefällt mir
Reaktionen: Firstdim und Laphonso
FranzDurst schrieb:
Die Rx 6900 XTXH in 1440p ohne Raytracing steht durchschnittlich über der Rtx 3090.
In UhD 3 Fps hinter der rtx 3090

https://www.computerbase.de/2022-02...st-2022/3/#abschnitt_benchmarks_in_3840__2160

Eine Grafik herauszupicken die eine Ausnahme darstellt ist ein Witz. Warhammer ist die Ausnahme, wo aber auch Nvidias Karten schlecht performen.
Ärgerlich für Leute die Warhammer spielen, für andere egal.
Wow 3 fps erwähnenswert. Glaube ich nicht desto mehr Spiele im Benchmark desto weiter zurück liegt Amd. Bei nur AAA hast du vielleicht Recht. All in all Nvidia dx9 bis 12. Kein wunder. Kleine Studios haben oft nicht die Ressourcen + amds treiber. Gcn war aber viel schlimmer .
 
Laphonso schrieb:
Die für AMD RT kastrierten Effekte bei Titeln wie Far Cry 6 oder das das letzte Resident Evil sind eher das Problem, weil das aus Marketinggründen so beschnitten wurde, dass die AMD GPUs nicht den üblichen Rückstand haben auf die Ampere Technik in den RT Benchmarks.
Ja, das ist klar, aber auch andersrum😉
Ein Cyberpunk ist ausnahmslos auf Nvidia optimiert und es gibt "RT Effekte" die eigentlich. ... keine oder nur teilweise sind.
So eine Wasser wie in 16:07 gab's schon vor 100 Jahren bei half Life, ok nicht 1:1, aber wie anhand diesen Beispiel das Wasser ohne RT zum Betonfläche würde ist schon lächerlich.
Auch in 12:30, without RT Effekte kastriert.

Das die Technik eine Zukunft hat steht ohne Frage, da sieht man anhand der 22:10 Szene.
Es geht eher nicht um Kleinigkeiten die man im Video mit Lupe und eingefrorenen Bilder sucht, sondern um diese ... Sättigung diese Immersion die man gerade in der Taxi Szene sehen kann.
Die Frage ist noch...
Kaufe ich mir eine 2000€ Karte und spiele schon in einem Jahr mit Abstrichen in Texturen Settings oder warte erst Mal bis die Technik bzw Karten besser werden.
Es ist so verfrüht wie die Leute die auf UHD schon jetzt umgestiegen sind.
Was ist besser:
Ein Bild mit RT, reduzierten Settings und 50 Hz, oder...
....ein Bild ohne RT mit vollen Settings
und smoothen 120 Hz 💅
 

Anhänge

  • Screenshot_20220309-100649.jpg
    Screenshot_20220309-100649.jpg
    885,7 KB · Aufrufe: 188
Zuletzt bearbeitet:
Sehr schön mit der 6400. Die dürfte dann quasi das AMD Pendant zur GT 1030 sein. Für Casual Gamer könnte die dann reichen. Zumindest verglichen mit meiner GT 1030 und ich spiele ja auch nicht mehr so GPU lastige Spiele. Lost Ark und Genshin Impact gehören da bei mir sicherlich zu den fordernden Spielen im Vergleich zu Yu-Gi-Oh! - Master Duel und Yu-Gi-Oh! - Legacy of the Duelist - Link Evolution.
 
BrollyLSSJ schrieb:
(...) Lost Ark und Genshin Impact gehören da bei mir sicherlich zu den fordernden Spielen im Vergleich zu Yu-Gi-Oh! - Master Duel und Yu-Gi-Oh! - Legacy of the Duelist - Link Evolution.
Pf, Yu Gi Oh der alte Leistungsfresser xD. Ich spiel grad Pokrmon Gold auf dem PC, das ist mal Unterforderung :D.
 
  • Gefällt mir
Reaktionen: Cadilac
Firstdim schrieb:
Auch in 12:30, without RT Effekte kastriert.
Da ist nichts "kastriert". Du hast ohne RT einfach eine flache bzw. eindimensionale Occlusion in den Schatten.
Das ist eines der großen Probleme beim Rastern, dass Szenen, die verschattet sind, ohne vorberechnetes Raytracing/einer Lightmap komplett ihre Plastizität verlieren.

Um zumindest den Anschein von Szenentiefe zu erwecken, hat man fürs Rastern die Screenspace Ambient Occlusion erfunden (die wiederum auf einem Raytracing- ähnlichen Verfahren beruht).
 
  • Gefällt mir
Reaktionen: Firstdim
Ich wollte mir gerne die 6700xt für 1440p gaming holen aber Preise fallen ja zur Zeit stark und ich kann auch noch mit meiner iGPU alte Spiele nachholen und warten.
Wie kann man denn dieses Gerücht verstehen? Wird die Karte am 20. April erst vorgestellt und dann später gibts die zu kaufen, oder kann man die schon am 20. dann kaufen? Einen Monat warten ist kein Problem. Ein Jahr schon eher.
Und wie sieht ihr das zu welchem Preis die verfügbar sein wird? Wenn Preise weiterhin fallen sollte sie doch zwischen 6700 und 6800 sein, oder nicht? Weiß nicht was die Erfahrung aus früheren Jahren sagt, wobei leider natürlich nie die Erfahrung für die Chip-Knappheit da war.
 
Zurück
Oben