Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD

  • Gefällt mir
Reaktionen: icke79
Ich würd' mich nicht zu sehr auf eine 7950XT freuen. Wenn AMD tatsächlich eine GPU bauen könnten, die der 4090 gewachsen ist, warum tun sie's dann nicht? Damit könnten sie erstklassig angeben (bragging rights).

Nicht falsch verstehen: Ich mag AMD Karten. Für mich geeignet, weil ich keine Spiele mit RT habe, und die neuen Karten werden billiger sein als die von nVidia, auch ein nicht zu unterschätzender Vorteil.

Soll jeder mit dem glücklich werden, was er/sie/es haben will. Ich werd' keinem die Wahl madig machen. :)
 
DDM_Reaper20 schrieb:
Ich würd' mich nicht zu sehr auf eine 7950XT freuen. Wenn AMD tatsächlich eine GPU bauen könnten, die der 4090 gewachsen ist, warum tun sie's dann nicht? Damit könnten sie erstklassig angeben (bragging rights).

Weil ein gutes Pferd nur so hoch springt wie es muss. Direkt zum Start alle Asse offen zu legen, ist nicht unbedingt der klügste Schachzug. Außerdem brauchen die Hersteller auch noch Puffer für einen Refresh nach 12 Monaten bevor dann wieder die neue Generation auf den Markt kommt.
 
  • Gefällt mir
Reaktionen: DDM_Reaper20
Das Ganze Performance Orakeln erinnert mich ein wenig an den Start von Radeon VII. Da wurden anhand der theoretischen Teraflops Leistung im Vorfeld Vermutungen - von wegen Nvidia 2080 Ti Killer - aufgestellt die dann beim Launch in Rauch aufgingen. AMD kocht auch nur mit Wasser. Und schürt mit seinen Launch Präsentationen oftmals Erwartungen die unmöglich zu erreichen sind.
Warten wir doch einfach mal erste Tests ab und schlagen uns dann weiter die Köppe ein. 😉

Und zum Thema DisplayPort 2.1: mir genügt HDMI 2.1 völlig. Mehr als 120 FPS in 10 Bit 4K RGB brauch ich echt nicht.
Ich kann aber auch verstehen dass ESportler gern CS mit 500 FPS in 4K sehen würden.
Letztendlich ist es ein technologischer Fortschritt der zu begrüßen ist. Ändert aber vermutlich nix an der Tatsache dass die ersten DisplayPort 2.1 Karten jetzt nicht mal im Ansatz diese Leistung bringen. 4090 eingeschlossen. Nvidia wird sich schon dessen bewusst gewesen sein dass die Schnittstelle in den heutigen Modellen noch keinen Sinn macht. Wozu also einbauen?
 
  • Gefällt mir
Reaktionen: Melu76
Verak Drezzt schrieb:
RDNA3 hätten 16GB auch immer noch vollkommen gereicht, wenn es nur rein um's gamen geht.
Vielleicht brauchte AMD nun aber ein bisschen mehr Speicherbandbreite, um die Shader zu füttern und für eine bessere Skalierung bei höheren Auflösungen zu sorgen. (der Infinity Cache ist ja auch etwas geschrumpft)

Weniger Speicher bei gleichem Memory Bus wären dann 10GB bei der XT und 12GB bei der XTX.
 
  • Gefällt mir
Reaktionen: Apocalypse
Zuletzt bearbeitet von einem Moderator:
Ich habe nicht alle Kommentare gelesen, deswegen die Frage: Gab es schon eine Architekturdiskussion?

Mich würde die neue Verdopplung der FP32-Einheiten interessieren. Laut AMD kommen die dann zum Tragen, wenn zweimal exakt die gleiche Instruktion angegeben wird. Ist das vergleichbar mit Nvidia oder gibt es unterschiedliche Szenarien, wo wer die Einheiten voll ausgelastet kriegt? Außerdem klingt es so, als hätte AMD jetzt zwei Einheiten, die sowohl INT als auch FP32 können. Gibt es da Szenarien, wo auch INT doppelt so schnell verarbeitet werden kann? INT kommt ja deutlich seltener in Spielen vor als FP32, aber interessant fänd ich's.

Was ist mit dem Gerücht, dass AMD eine größere Karte per 2x Navi 32 herausbringen könnte. Kann man das schon ins Reich der Mythen schicken? Würde mich sehr reizen, darauf bis ins nächste Frühjahr zu warten.

Was mir jetzt klar ist, ist der Grund für den kleinen Infinity-Cache. Die Hitrate bleibt gleich, aber die Bandbreite ist doppelt so groß, womit man effektiv auf höhere Raten kommt. Das erklärt, warum AMD den Cache nicht vergrößern muss und macht meiner Meinung nach eine weitere Version mit doppeltem IF-Cache obsolet.
 
.Sentinel. schrieb:
Jetzt musst Du Dich halt mal entscheiden?
Ich nehme Tor 3
.Sentinel. schrieb:
Der Lag Nativ vs DLSS3 ist bei DLSS3 niedriger. Und das bei mit FG erheblich gestiegener Framezahl.
Konntest Du vor dem ganzen DLSS&CO Gedöns keine Spiele spielen, weil alle Laggy waren?
Du vergleichst Äpfel mit Birnen.
Ob DLSS3 besser ist, juckt auch nicht, wenn DLSS2 vom Input-Lag am Besten ist.
.Sentinel. schrieb:
Ja- Knapp gehalten aber nicht von den Fertigern oder NVIDIA. Das wäre finanzieller Selbstmord, die Produktionsstraßen zu drosseln oder zu stoppen, wenn die Kapazitäten gebucht sind.
Natürlich von nvidia! Von wem den sonst?
Oder warum fallen die Preise von RTX 3050 oder RTX 3060 nicht ins Bodenlose?
Stattdessen kommt eine RTX 3060 8GB... Warum? Weil die Chips auf Halde herumliegen.
.Sentinel. schrieb:
Es fällt mir auf, dass symptomatisch demjenigen, dem es bei DLSS3+Framegeneration auffält, wenn in einem Frame den Bruchteil einer Sekunde kleine Teilbereiche inkonsistent sind, dann komischweise überhaupt nicht stört oder auffällt, wenn z.B. bei Screenspace- Reflections beim Perspektivwechsel teils der Effekt über große Bildschirmbereiche komplett und über die gesamte Szenendauer wegglitch. Denen fällt komischer Weise auch oftmals nicht auf, dass Objekte beleuchtet scheinen, obwohl sie in einer schattigen Ecke stehen....
Irgendwie merkwürdig, nicht?
Mir ist das Banane und ich finde das Konzept für Spieler sinnbefreit.
.Sentinel. schrieb:
Ja- Ganz, ganz sicher. NVIDIA stand mit dem Geldkoffer vor der Tür und hat die Entwickler dafür bezahlt mal eben einen Teil der bereits erstellten und QA getesteten Renderpipeline wegzuwerfen.
Aluhut bitte absetzen.
Du kannst es nachlesen, wenn Du die Suchmaschine Deiner Wahl bemühen würdest.
Weiters hat den PC-Port nicht das Studio gemacht, daß das Original entwickelt hat... Die Sony Spielen liefen alle auf einer PS4 mit der poppeligen Polaris-GPU ansprechend. Das hat in dem Fall auch nichts mit nvidia zu tun, sondern mit der Faulheit des ausführenden Studios. nvidia steht oft genug mit dem Geldkoffer bei den Entwicklern, das ist ja auch kein Geheimnis.
.Sentinel. schrieb:
In Metro Exodus Enhanced erhöht RT die Immersion und Atmosphäre -> Höherer Spielspaß.
Schön für Metro und das ist auch Geschmackssache.
Für Dich tut es das, für andere nicht, aber das Spiel spielt sich auch ohne RT vermutlich gut genug.
 
Irgendwie erinnert mich das Aufgepumpe von RT durch nV von Anfang an an die Einführung der Tesselation mit der 400er Reihe von vor ein paar Jahren. So kann man auch einen Bedarf am Markt schaffen, den man dann mit proprietärer Technik in mehr oder weniger Alleinstellung bedient. Ich meine damit nicht, dass die Technik grundsätzlich schlecht ist, aber durch die Nähe von nV an diversen Spieleschmieden nehmen die am Ende dann schon Einfluss auf die Implementierung in den Games. Im Ergebnis ist die Leistung mit dem neuen Feature dann für die Konkurrenz unerreichbar.
 
Also ich tippe wie damals bei meiner.. 1600€ die XTX..
Es macht null sinn, dann keine 4090 zu kaufen. DP 1.2 oder 1.4 und PCIE 5.0 weggedacht.
Ist in der Highend Sparte und Schnellste karte (Außer bei Ubisoft Games)
Enyo79 schrieb:
Wozu brauchst du die Konkurrenz zur 4090?
Wenn du die Leistung brauchst kauf sie dir einfach. Wenn nicht dann eben eine RX 7900 oder NV 4080 16GB.

Oder willst du nur das dadurch die 4090 günstiger wird damit du nicht so viel bezahlen musst?
Nein ich dachte sie wollen auch im Highend Segment mitmischen... Ich bezahle halt die Leistung. Wenn man es hat. Hat nicht jeder, aber ich habe eben gerne die Schnellste GPU.. Ob AMD oder Nvidia
 
Eli0t schrieb:
Du kannst es nachlesen, wenn Du die Suchmaschine Deiner Wahl bemühen würdest.
Auch dann finde ich keinerlei validen Hinweis darauf, dass man die AMD Optimierungen bei God of War alle rausgenommen hat. Noch weniger, dass das einem Impuls von nVidia zu verdanken wäre.

Ich bitte um entsprechenden Link.

Danke
Ergänzung ()

icke79 schrieb:
Irgendwie erinnert mich das Aufgepumpe von RT durch nV von Anfang an an die Einführung der Tesselation mit der 400er Reihe von vor ein paar Jahren. So kann man auch einen Bedarf am Markt schaffen, den man dann mit proprietärer Technik in mehr oder weniger Alleinstellung bedient.
RT und Tesselation sind jeweils ein Subset von DX Features und somit keine nVidia proprietäre Technik.

Ich meine damit nicht, dass die Technik grundsätzlich schlecht ist, aber durch die Nähe von nV an diversen Spieleschmieden nehmen die am Ende dann schon Einfluss auf die Implementierung in den Games. Im Ergebnis ist die Leistung mit dem neuen Feature dann für die Konkurrenz unerreichbar.

Und ich dachte immer, dass Grafikkarten deswegen weiterentwickelt werden, weil man 1. die technische Qualität steigern will (FPS+Auflösung) und eben auch 2. die rein grafische Qualität.
Merkwürdig, dass Du das nicht so siehst.
Hat AMD irgendwas daran gehindert RT und DLSS vor nVidia auf den Markt zu werfen? Hätten sie doch auch tun können....

Seid froh, dass es auf dem Gebiet nachwievor erhebliche Innovation herrscht....
Jeder der meint, dass RT ein Irrweg wäre, ist auf dem Holzweg. Jeder der meint, dass die Rasterisierung von heut auf morgen perfekt und performant gewesen ist, betreibt das Hobby Computer nur nicht lang genug.
Entwicklungen brauchen immer Zeit.
 
Zuletzt bearbeitet:
Malustra schrieb:
Weil? Beide Features "können" sichtbare schöne Auswirkungen haben.
Funktionieren tun sie beide aber nur, wenn sie implementiert werden.
Wo Äpfel-Birnen-Vergleich :D ...
Der Vergleich hinkt weil die Verbreitung von PhysX ein Witz war und der Mehrwert zum Aufwand verschwindend gering. Du kannst RT deswegen nicht damit vergleichen.
Und RT ist nicht proprietär. AMD kommt damit nur schlecht klar bzw. hängt immer eine Gen hinterher.
Malustra schrieb:
Dafür muss ich nicht fast den doppelten Preis zahlen.
Nein muss man nicht. Genieße dank DLSS volles RT in 1440p bei Cyberpunk mit einer 700€ GPU.
Malustra schrieb:
Wer natürlich Spiele nur wegen der Grafik spielt und Story/Gameplay eher Nebensache ist,
der wird natürlich um eine 4090 nicht herumkommen um auch die paar Zusatzeffekte nutzen zu können.
Ich kenne so Leute tatsächlich. Ich spiele Spiele auf jeden Fall vor allem wegen der Story und dem Gameplay. Da ist es mir recht egal, wie stark oder realistisch sich eine Pfütze spiegelt.
Wieso nicht beides haben?:)
 
Ich verstehe immer nicht, warum man sich alte Beiträge noch schnappt und zitiert :confused_alt:
Eigentlich war bereits alles geklärt. Jetzt wiederhole ich mich nur gezwungenermaßen...

Sly123 schrieb:
Der Vergleich hinkt weil die Verbreitung von PhysX ein Witz war und der Mehrwert zum Aufwand verschwindend gering. Du kannst RT deswegen nicht damit vergleichen.
Und RT ist nicht proprietär. AMD kommt damit nur schlecht klar bzw. hängt immer eine Gen hinterher.

Aus meiner Sicht hinkt der vergleich nicht, weil PhysX in aller Munde war und damals immer als Totschlagargument verwendet wurde, warum man lieber zur Nvidia Karte greifen solle.
Fakt ist und bleibt. Sowohl PhysX als auch RT müssen implementiert werden. Und es ist nur so gut, wie es auch implementiert wurde. AMD hängt hinterher, weil sie später angefangen haben.

Sly123 schrieb:
Nein muss man nicht. Genieße dank DLSS volles RT in 1440p bei Cyberpunk mit einer 700€ GPU.

Ich brauche kein DLSS. Man braucht weder RT nochn DLSS. Fakt ist, ich muss nicht den annähernd doppelten Preis für eine GPU zahlen, damit sie schneller in RT ist. Ich nutze kein RT weil mir hohe FPS Raten wichtiger sind als die ein oder andere zusätzliche oder "andere" Spiegelung. Das ist einfach Geschmackssache. Eine aktuelle 700€ GPU muss erst mal kommen :D

Sly123 schrieb:
Wieso nicht beides haben?:)
Wer unbedingt die größte RT Leistung haben möchte, muss zur 4090 greifen.
Wer nur generell viel Leistung benötigt und nicht die höchste RT Leistung braucht, da RT oft irrelevant ist, der spart sich eben das viele Geld. Das ist vor allem für Leute interessant, die wie ich sagte, mehr auf das Spiel in Form von Story, Gameplay usw. schauen. Nicht jeder analysiert im Spiel jedes einzelne Objekt haargenau. und steht prüfend davor, ob das jetzt RT ist, oder nicht :D
Die Unterschiede zwischen RT und non RT sind nämlich oftmals nicht erkennbar ohne Direktvergleich.

VG
 
  • Gefällt mir
Reaktionen: Scheinriese und icke79
Malustra schrieb:
Die Unterschiede zwischen RT und non RT sind nämlich oftmals nicht erkennbar ohne Direktvergleich.
Ich seh das zwar auch nicht direkt aber ich habe dazu einen eigenen Test mit den Kids und deren Freunden gestartet bei der 4090. Vorher konnte man es schon beim Gameplay merken ob RT an ist oder nicht weil die Performance deutlich litt.

CP77,F1 22, COD und Fortnite. Ausser bei COD haben sie zuverlässig erkannt, dass zumindest was anders war und fanden das Ergebnis mit RT grösstenteils bei mehreren Durchläufen auch hübscher. Kommt auch drauf an was man gewohnt ist und kennt ,denn als Fortnite Cracks lagen sie am meisten richtig und fanden es übereinstimmend auch mit vollem RT am besten.
 
  • Gefällt mir
Reaktionen: Sly123
Tornavida schrieb:
Ich seh das zwar auch nicht direkt aber ich habe dazu einen eigenen Test mit den Kids und deren Freunden gestartet bei der 4090. Vorher konnte man es schon beim Gameplay merken ob RT an ist oder nicht weil die Performance deutlich litt.
Das ist genau der Grund warum RT für mich z.B. noch keine Option ist. In der Zukunft vielleicht mal, aber derzeit noch nicht. Dafür frisst der Kram noch zu viel Strom, ist zu teuer und bietet zu wenig Mehrwert. ^^

Tornavida schrieb:
CP77,F1 22, COD und Fortnite. Ausser bei COD haben sie zuverlässig erkannt, dass zumindest was anders war und fanden das Ergebnis mit RT grösstenteils bei mehreren Durchläufen auch hübscher. Kommt auch drauf an was man gewohnt ist und kennt ,denn als Fortnite Cracks lagen sie am meisten richtig und fanden es übereinstimmend auch mit vollem RT am besten.

Dazu muss man sagen, dass es natürlich auf das Spiel ankommt und auch wie gut man ein Spiel kennt. Wenn man jetzt Stammspieler in einem bestimmten Spiel ist und plötzlich eine neue grafische Funktion anschaltet, die sichtbar implementiert ist, kann man es sicher erkennen. Bei einem neuen Spiel, was man aber erst neu spielt unmöglich. An den Effekten steht ja nicht RT dran. Also wenn RT in einem Spiel implementiert ist, was man sehr lange und sehr oft spielt, kann man es sicher erkennen. Ich zum Beispiel habe für sowas gar keine Zeit. Wenn ich was Spiele, dann eher was neues und nicht die 100. Session in ein und dem selben online Spiel ^^ Ich würde also nie irgendwas erkennen. Und die Vergleichsvideos zeigen ja, dass die Unterschiede oft wirklich gering sind. Natürlich auch abhängig vom Spiel. Cyberpunk hat ja eher noch sichtbarere Auswirkungen. Ich sage es mal so. Schlechter wird es mit RT in den meisten Fällen sicher nicht. Eiin Must-Have ist es derzeit aber sicher nicht :D
 
  • Gefällt mir
Reaktionen: Sly123 und Scheinriese
Malustra schrieb:
Aus meiner Sicht hinkt der vergleich nicht, weil PhysX in aller Munde war und damals immer als Totschlagargument verwendet wurde, warum man lieber zur Nvidia Karte greifen solle.
Fakt ist und bleibt. Sowohl PhysX als auch RT müssen implementiert werden. Und es ist nur so gut, wie es auch implementiert wurde. AMD hängt hinterher, weil sie später angefangen haben.
Danke, dass du dich doch noch mal wiederholt hast, da ich das PhysX-Thema schon völlig verdrängt hatte. Das wurde doch auch super in den 3dMark implementiert, ohne dass es je einen wirklichen praktischen Nutzen in irgendwelchen Games hatte.
Dass das für mich seinerzeit nicht so der Riesen Aufreger war, liegt aber wahrscheinlich daran, dass ich in jungen Jahren (hatte mir sogar in grauer Vorzeit die GForce 256 sowie die GForce3 direkt nach erscheinen zugelegt) selbst mal in der grünen Fraktion zu Hause war.
Zum Glück lässt der Druck, vorne dabei sein zu müssen, irgendwann nach, weil sich die eigenen Prioritäten durch Gründung einer Familie und einem anspruchsvollen Job stark verändert haben.
 
  • Gefällt mir
Reaktionen: Malustra
Malustra schrieb:
Ich verstehe immer nicht, warum man sich alte Beiträge noch schnappt und zitiert :confused_alt:
Eigentlich war bereits alles geklärt. Jetzt wiederhole ich mich nur gezwungenermaßen...
Für mich war's nicht geklärt. :)
Malustra schrieb:
..., da RT oft irrelevant ist, der spart sich eben das viele Geld. Das ist vor allem für Leute interessant, die wie ich sagte, mehr auf das Spiel in Form von Story, Gameplay usw. schauen. Nicht jeder analysiert im Spiel jedes einzelne Objekt haargenau. und steht prüfend davor, ob das jetzt RT ist, oder nicht :D
Die Unterschiede zwischen RT und non RT sind nämlich oftmals nicht erkennbar ohne Direktvergleich.
Wieso trennst du Grafik und Story so akribisch im Kontext mit der Spielequalität??
Heutzutage ist es möglich gute Story mit einer authentischen Grafik zu entwickeln.
Jeder akkurate Schatten trägt der Spiel-Atmosphäre bei. Das merkst du in dem Moment nicht, da es eher subjektiv wahrgenommen wird. Aber letztendlich ist es Fakt, dass die Umgebung dadurch authentischer wirkt.

Malustra schrieb:
... Bei einem neuen Spiel, was man aber erst neu spielt unmöglich. An den Effekten steht ja nicht RT dran. Also wenn RT in einem Spiel implementiert ist, was man sehr lange und sehr oft spielt, kann man es sicher erkennen. [...]

Schlechter wird es mit RT in den meisten Fällen sicher nicht. Eiin Must-Have ist es derzeit aber sicher nicht :D
Dito.
Es ist ein schönes Extra und ich würde nicht darauf verzichten wenn ich die Möglichkeit(60+fps@DLSS) habe.
Spiele nicht competitive.
Aber 2000€ ist mir das auch nicht wert.
 
  • Gefällt mir
Reaktionen: Tornavida
haltezeit schrieb:
Was feiert ihr die Karten so hart, ohne echte Tests gesehen zu haben ? Die Führung so kampflos an Nvidia übergeben zu haben find ich eigentlich hart enttäuschend. Lieber die Karte als 7800 release und im Hintergrund noch paar Monate an einer echten Konkurrenz zur 4090 basteln um zumindest ansatzweise heranzukommen.

Auch der Preis selbst ist im Moment nichts-sagend. Steuern und Lieferschwierigkeiten werden die Karte vermutlich auch auf 1300 - 1400€ jagen. Nvidia kann quasi auf Knopfdruck die schwächere 4080 als 4070Ti von der Leine lassen und realistisch unter 999€ am Markt platzieren und das wars mit der Euphorie.

Eine Karte die vermutlich knapp 100-150€ günstiger als eine RTX4080 ist und auch vermutlich ihre Plätze in den echten Tests hinter der RTX4080 finden wird. Nothing special herr
edit : aus gegeben Anlass und wie vermutet :

1667910675584.png
 
  • Gefällt mir
Reaktionen: Malustra
Sly123 schrieb:
Wieso trennst du Grafik und Story so akribisch im Kontext mit der Spielequalität??
Heutzutage ist es möglich gute Story mit einer authentischen Grafik zu entwickeln.
Jeder akkurate Schatten trägt der Spiel-Atmosphäre bei. Das merkst du in dem Moment nicht, da es eher subjektiv wahrgenommen wird. Aber letztendlich ist es Fakt, dass die Umgebung dadurch authentischer wirkt.
Nein das sage ich so natürlich nicht ^^
Es geht nur um diese Zusatzeffekte oder minimal andere Darstellung.
Es geht einfach nur darum, dass es zwei Arten von Spielern gibt. Die altbekannten Grafikh*ren (:D) die jedes bisschen rauskitzeln wollen und sich dann auch gerne mal irgendwelche ENB Mods und sonstiges in die Spiele klatschen weil gute Grafik nicht gut genug ist und die Leute die halt wirklich einfach spielen wollen und nicht auf jedes kleinste Detail schauen. Es gibt auch ohne RT heutzutage gute Storys mit authentischer Grafik. Dafür braucht es RT nicht. Das will ich damit sagen. Es ist nicht so, dass ein Spiel ohne RT keine gute Grafik haben kann. RT ist noch nicht so lang präsent und bisher hat ja auch nie einer gesagt, dass ein Spiel eine schlechte Grafik hätte, weil da irgendein RT Feature fehlt. Nice to have definitiv, aber must have? Absolutes nein. Wie gesagt wie gut und wie deutlich sich RT im Spiel auswirkt hängt von der Implementierung ab. Die Vergleichsvideos zeigen Spiele wo man es deutlicher sieht, aber auch viele Spiele, wo es lediglich leichte Nuancen sind, die man wirklich im Direktvergleich suchen muss. Nichts, was den Spielfluss in irgendeiner Weise beeinträchtigen würde.
Sly123 schrieb:
Dito.
Es ist ein schönes Extra und ich würde nicht darauf verzichten wenn ich die Möglichkeit(60+fps@DLSS) habe.
Spiele nicht competitive.
Aber 2000€ ist mir das auch nicht wert.

Da bin ich komplett bei dir. Ich meine auch die AMD Karten können RT, so ist es ja nicht.
Es muss ja nicht immer High End sein, aber ich würde RT tatsächlich aktuell gar nicht haben wollen.
Ist mir einfach noch zu früh. Wer jetzt eine 4090 hat, wird RT je nach spiel auch nutzen und das würde ich dann auch. Aber diese noch massiven Performanceeinbußen sind mir persönlich zu krass. Das meinte ich dann damit, dass es eben das Grafiklager gibt und die Leute die mehr Wert aufs Spiel und Performance legen ^^
Mir ist es viel wichtiger, dass mein 144HZ Monitor mit idealerweise 144FPS befeuert wird und nicht bei 60-80FPS rumdümpelt und zwischendurch Mikroruckler bekommt. Ruckler sind für mich nämlich die Pest und machen die Atmosphäre viel mehr kaputt, als es einige neue grafischen Effekte gutmachen könnten. Bei Rucklern werd ich aus dem Spiel gerissen :D


Wenn die 7900XTX 1800€ gekostet hätte und die 4090 1950€ dann wäre glaube ich die Entscheidung recht klar. Aber bei so einem großen angekündigten Preisunterschied muss ich wirklich nicht lang nachdenken.
Bin ja auch mittlerweile fast 30 und zu beschäftigt. Gelegenheitszocker eben :D
Das wärs mir nicht wert und was mich an der 4090 unabhängig vom Preis am meisten stört ist der Stromverbrauch, die utopische Größe und diese Schmorr Probleme (kann man wohl fixen?). Bin da nicht so überzeugt von diesem Brechstangenprinzip. Hab zwar keine Angst vor Strompreisen aber muss ja nich sein xD

Btw. Ich bin aber nach wie vor gespannt, wie nah die XTX wirklich an die 4090 kommt. Ohne RT.
Ich würde schon erwarten, dass sie sich relativ nah darunter platziert. Sonst wäre ich auch enttäuscht.
Muss ja kein Kopf an Kopf Ding sein, aber wenn die nachher 20% langsamer ist, wäre es uncool.
 
  • Gefällt mir
Reaktionen: Scheinriese und Sly123
Zurück
Oben