News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

finds ja immer wieder witzig wie bei mängeln der AMD Karten die Dinge schön geredet werden, hier der Stromverbrauch. "mach UV, Powertarget einstellen, FPS CAP"

für 900€ will ich das nicht. Da stell ich gar nix ein, das Ding hat out of the box zufriedenstellend zu laufen.
Hatte schonmal ne 300 Watt (AMD) Karte, die r9 390. Es war zum Kotzen. Bude heizt sich auf, und wenn sie gefordert wird gibts immer wieder hitzebedingte abstürze. Dann 350 Watt für die 7900 XTX? ne lass mal. echt nicht. Bei Intel wird (zu Recht) die Brechstange kritisiert, bei AMD wird sie verteidigt, man kann ja UV. hach. Wenn sich die Leute ihrer Doppelmoral wenigstens bewusst wären. Aber was erwarte ich

Der Gegenspieler von NVIDIA kommt mir mit 285 Watt aber auch nciht in den PC. Bin mit meiner 4070 vollends glücklich, und ja, ein Kaufgrund war die konkurrenzlose Leistung im 200Watt Bereich.

Dann noch das Problem der fehlenden interessanten AAA games, was auch meinen letzten Rest an Interesse für eine Grafikkarte dieser Preisklasse verschwinden lässt
 
  • Gefällt mir
Reaktionen: Quidproquo77, MrHeisenberg und hknsbti
War kurz davor, die Karte zu kaufen. Habe mich dann für eine 4070Ti Super entschieden. Komme von der 5700XT welche nach 5 Jahren jetzt doch ausgetauscht werden musste.

Unter anderem hat mich das wohl heftige Spulenfiepen abgeschreckt. Ein Hin und Her Schicken von so teuren Produkten kommt für mich nicht infrage, probieren und wieder verpacken ist für mich Stress pur. :D Des Weiteren war es die pure Neugier auf die Features von Nvidia, wie läuft DLSS (FG)? Wie sieht Raytracing aus?

Über 1000 € wollte ich auf keinen Fall ausgeben.

Keine Ahnung, ob das an der doch schon recht alten 5700XT liegt, aber bezüglich Bildqualität zwischen DLSS vs. FSR liegen Welten. Diablo 4 z. B. sieht wie ein komplett anderes Spiel aus.

Für MICH die richtige Entscheidung, auch wenn mir bewusst ist, dass es in Bezug auf Preisleistung nicht die vernünftigste Entscheidung war.
 
@bdb von einer 5 Jahre alten Karte auf eine neue irgendetwas schließen zu wollen ist nicht zielführend.
Bei jeder Neuentwicklung ist es anders.
Bei der 7900xtx hättest du nativ UHD spielen können wo kein Upscaler drankommt.

Zum Preid:
Mir idt keine Grafikkarte der Welt 900€ wert, wenn es um Gaming geht. Meine absolute Grenze ist bei so 500-600. Aber da muss es im Vergleich auch noch ein gutes PL sein.

Aktuell stehen die RX6800 für ca 440€ oder 7800XT für 520€ am Besten da alles in Allem.

Nvidia hat in dieser Range keine stichhaltigen Angebote. 4060 zu langsam, 4070 Ti oder Super, alles zu teuer und/oder zu wenig RAM
 
  • Gefällt mir
Reaktionen: SweetOhm
Shinigami1 schrieb:
Rasterizer-Performance ist natürlich nicht weniger wichtig aber wenn ich die Wahl habe eine gute RT Karte zu kaufen die zudem noch DLSS mit sich bringt (was in jedem Fall besser wie FSR ist), fällt meine Wahl ganz eindeutig auf Nvidia. Man sieht ja das in so ziemlich jedem neuen AAA Spiel auf Upscaler gesetzt wird und RT immer mehr in den Vordergrund rückt. Das ist auch gut so. Nvidia hat schon immer auf Fortschritt gesetzt und andere Hersteller wie AMD ziehen dann später nach.
Raster ist immer noch die Basis für 99% aller Spiele.
Rasterleistung ist das Maß der Dinge für 100% aller VR Titel.
Bis jetzt war es so, das mit jeder neuen NV Gen, NV 1-2 Vorzeigetitel gesponsert haben, welche das max mögliche mit der neuen Gen gezeigt haben (mit der NV Vorgänger Gen aber nur leidlich und die aktuellste AMD Gen war dannauf diesem Level). Ergo hat man für 1-2 Vorzeigetitel eine next Gen von NV benötigt. Soll jeder selber beurteilen, wie wichtig es ihm ist, diese wenigen Titel in max Settings zu fahren.

Ich selber spiele nach wie vor mit einer 6900xt.. Weil mir die N31 zu wenig mehr Wumms im Vergleich zu N21 liefert, um die Ausgabe zu rechtfertigen. Einzig lohnendes Upgrade wäre in meinen Augen eine 4090..aber da gehe ich beim Preis nicht mit. Also abwarten was die nextgen bringt.. Und da ich pragmatisch ( und nicht ideologisch verseucht) bin, nehme ich das, was meinen Bedürfnissen am Ehesten entspricht.
 
  • Gefällt mir
Reaktionen: SweetOhm, up.whatever und TheHille
Ausnahmslos alle GPU aus dem Mindstar (selbst eine 4090 mit 1.799€) sind auch am 27.01. um 09.30 noch voll verfügbar. Das lässt nur einen Schluss zu: der Markt ist zu diesen Preisen satt.
 
@Vitche

Kannst du in den Preis/Leistungsvergleich auch die RTX4090 rein machen? Die RTX4090 gehört mit ihren ebenfalls 24 GB RAM einfach mit in den Vergleich bei der 4K Auflösung...
 
  • Gefällt mir
Reaktionen: Cool Master
GreatEvil schrieb:
Was ist denn die "Umfrage" für eine dumme Hetzerei?
Der "Best Buy" ist die 9700 XT und die kommt nicht mal in der Umfrage vor.
Weil es die gar nicht zu kaufen gibt? Ok, schon klar, Du hast einen Zahlendreher drin und meinst die 7900XT
Lies die Frage noch mal nach, die da lautet "Welche Grafikkarte würdest Du für 900€ kaufen?" Dann weißt Du auch, warum die 7900XT nicht drin ist.
Und für was Leute heutzutage schon den Begriff "Hetzerei" nutzen, ist bemerkenswert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Vitche, MrHeisenberg und eine weitere Person
Immer weiter so, dann muss Nvidia wieder kontern und die werden ebenfalls güsntiger.
 
Ist das so?
Wieso sollte Nvidia mit über 80% Marktanteil auf eine kleine Firma mit ~12% Marktanteil reagieren, wenn sie doch den Markt beherrschen.
 
  • Gefällt mir
Reaktionen: Skynet1982
Shinigami1 schrieb:
Nvidia hat schon immer auf Fortschritt gesetzt und andere Hersteller wie AMD ziehen dann später nach.
Das ist Quatsch, dass AMD immer nur nachzieht...aber sowas von.

Siehe Mantle, siehe HBM, siehe Chiplets bei CPUs/GPUs, oder generell die CPU Sparte (hier ist Intel eher aktuell fleißig am kopieren), siehe DDR5 only bei MB, alleine schon, dass AMD Open Source vorantreibt und nicht nur proprietären Mist macht wovon keiner was hat, siehe Freesync, danach wurde G-Sync plötzlich erst freesync-fähig,
Wo ist NVidias treiberseitige FrameGen für ALLE DX11/12 Games?
etc etc....

Wo bitte ist hier AMD der Nachzügler??
Nur weil man RT nur eine Gen später gebracht hat?
Solche Aussagen wieder...
 
  • Gefällt mir
Reaktionen: SweetOhm, up.whatever, eXe777 und 3 andere
Convert schrieb:
Kannst du in den Preis/Leistungsvergleich auch die RTX4090 rein machen?
Die hatte ich sogar zuerst mit eingeplant, aber deren P/L-Verhältnis ist (im Vergleich) so unfassbar schlecht, dass a) alle anderen Grafikkarten dann deutlich näher zusammenrücken, was die Lesbarkeit verschlechtert und b) sie damit ohnehin keine sinnvolle Option ist, trotz aktuell 1.799 Euro im MindStar. ^^

So sähe das dann aus:
1706350331208.png
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe, SweetOhm, up.whatever und 5 andere
neofelis schrieb:
Der Marktpreis der 7900XTX orientiert sich nun ziemlich genau am allgemeinen Grafikkarten-Ranking in der Raytracing-Performance.
Ergo - Rasterizer-Performance ist allem Anschein nach ein zweitrangiges Kriterium für die Käufermasse.
Was zählt sind die Strahlen.
Ist mir auch aufgefallen. Denke aber eher der Grund liegt darin, das mit maximaler Qualität getestet wird. RT hat weiterhin eher eine limitierte Relevanz als Feature für die breite Masse. Was wiederum dazu führt, das man sicher sein kann, bei AMD für den gleichen Preis gleiche RT Leistung zu bekommen und darüber hinaus wesentlich mehr Rasterizingleistung. Schon ein gute Deal, aber dann muss man noch je nach Vorliebe, Stromverbrauch und gefühlte Unterschiede in FSR und DLSS einberechnen. Da ich kein Alan Wake 2 habe, ist bei mir AMD gesetzt.
 
  • Gefällt mir
Reaktionen: SweetOhm
kiffmet schrieb:
@pacifico Die 1080Ti kam wenigstens mit 471mm², die 2080Ti sogar mit 754mm² (ebenfalls 1200€ beim Launch)

Würden quer durch die Bank die Preise um 25-30% gesenkt, wären diese deutlich angemessener.
Ihr ignoriert mittlerweile seit einigen Jahren geflissentlich das Wafer pro neuem Mode 50 Prozent teurer geworden sind.

Das ist eine exponentielles Entwicklung.

Dein Preisgefüge von 2016 funktioniert aufgrund dieses Fakt nicht mehr.

Is halt so...
 
MrHeisenberg schrieb:
Die 3090(TI) ist über 3 Jahre alt und last Gen. Die 7900 XTX ist das aktuelle Flagschiff von AMD. Es spricht also nicht für AMD, wenn man nicht mal die last Gen. Karten der Konkurrenz übertreffen kann.
Du hast vollkommen recht das die 3090(ti) nicht der Maßstab sein kann, besonders auch weil ja auch die Nachfolger von Nvidia die Karte deklassieren.

Aber natürlich ist die 7900xtx durchaus für viele die bessere alternative zur 4080 gewesen und jetzt halt sogar zur 4070(ti), einfach weil Preis/Leistung bei dem "Flagship" gut genug ist um sich mit der günstigeren Oberklasse von Nvidia zu messen.
Umkehrt müssen sich aber natürlich RDNA 3 mit RDNA 2 vergleichen lassen, genauso wie Ada, weil RDNA2 Preislich ja durchaus attraktiv geblieben ist und sich dort alte Flaggschiffe für Mid-Range Preise erwerben lassen. Da sieht es dann imho für beide Hersteller nicht so gut in der neuen Mittelklasse aus und erst in der Oberklasse können sie sich wirklich absetzen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Tr8or schrieb:
Wieso sollte Nvidia mit über 80% Marktanteil auf eine kleine Firma mit ~12% Marktanteil reagieren, wenn sie doch den Markt beherrschen.
Die das "Super Lineup" ist natürlich keine Reaktion auf Konkurrenzprodukte. Achtung Ironie
Ergänzung ()

CiX schrieb:
Finds ja immer wieder witzig wie bei mängeln der AMD Karten die Dinge schön geredet werden, hier der Stromverbrauch. "mach UV, Powertarget einstellen, FPS CAP"
Finde es eher sehr schade, das aus einfachen Tipps zum effizienteren Betrieb einer Karte, direkt gleich eine XY VS XY Diskussion gemacht wird.

Wenn du mit der 4070 zufrieden bist und die Karten deinen Anforderungen entspricht, top.
Ich bin Out of box mit meiner 7800XT zufrieden für meine Anforderungen.
Ich habe Sie noch etwas optimiert, ja. Aber weil ich Spaß am der Technik habe, nicht weil es nötig gewesen wäre.

Kurze Frage, spielst du mit Gsync und dann ohne FpsCap?
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm, coxon und Apocalypse
CiX schrieb:
ür 900€ will ich das nicht. Da stell ich gar nix ein, das Ding hat out of the box zufriedenstellend zu laufen.
Hatte schonmal ne 300 Watt (AMD) Karte, die r9 390. Es war zum Kotzen. Bude heizt sich auf, und wenn sie gefordert wird gibts immer wieder hitzebedingte abstürze.
Hatte den Vorgänger, der im Grunde die gleiche Karte war, r9 390, Freund ebenfalls, ich die Nitro mit gutem Kühlkonzept und er ein Referenzdesign. Das Referenz Design war Schrott, laut und heißt. Der Stock Kühler flog direkt runter und ein Aftermarket Kühler kam drauf, Problem gelöst, Karte war fast genauso Leise und Kühl wie meine.

Blieb dann nur noch die Abwärme, da kann man nix machen, außer Fenster auf oder Klimaanlage ein paar Watt mehr verbrauchen lassen oder halt wirklich eine Sparsamere Karte nehmen, wenn das ein Problem ist.

Abstürze sollte es aber nicht geben, sonst taugt die Karte nicht, gab es bei keiner der 290 von denen ich gesprochen hatte, zum einen wären die ohnehin langsamer geworden, hätte sich aber nicht abgeschalten müssen, wenn es zu heiß wurde, zum anderen sollten Karten wo das Kühlkonzept so schlecht ist das sie abstürzen direk zurück an den Hersteller gehen.

Wobei ich zugeben muss, von Asus Karten, die auf AMD GPUs dann einfach den Nvidia Kühler drauf geklatscht haben und dann die Karten ziemlich kaput waren, davon hatte ich auch schon gehört, aber Serien wo ein Partner sein Design versemmelt hat gibt es immer wieder, ganz egal ob mit Nvidia oder AMD GPU.

Aber wie gesagt, wenn die Wärme das Thema ist, nimm halt weder ne 4090 noch ne 7900xtx, etc
Einfach zu einer Karte mit weniger Abwärme greifen, zumindest die 4070 und 4070 super bringen doch brauchbare Performance in einem 200-230W Paket. Und auch die 7700xt und 7800xt sind mir ihren um die 250W auch noch deutlich unter den von dir erwähnten 300W. Direkt so aus der Box, mit einer Nitro oder ähnlichen Custom-Karte dann auch recht Leise und Kühl. Aber selbst die Referenz-Designs haben deutlich bessere Kühler, sowohl bei AMD als auch Nvidia als noch damals vor fast 10 Jahren zu R9 390 Zeiten.

Die Leute die 900€ und mehr ausgeben, erwarten halt mehr Leistung, auch wenn es natürlich trotzdem Schade ist, das es keine 4090 gibt die direkt mit einem BIOS Profil kommt, das die Karte auf 300W Limitiert, die meisten kaufen sowas halt für maximale Leistung, deswegen ist das ganze UV Zeug noch ein wenig Nische und meist nicht ab Werk dabei. Wobei ein Silent-Bios in dem die Karten nicht ganz so viel Strom ziehen können immer häufiger tatsächlich ab Werk dabei ist.
Ergänzung ()

Mr. Vega schrieb:
Die das "Super Lineup" ist natürlich keine Reaktion auf Konkurrenzprodukte. Achtung Ironie
Es könnte, und das wäre für Nvdia schlimmer, eine Reaktion auf zuviel Lagerbestände sein.
Ergänzung ()

pacifico schrieb:
Dein Preisgefüge von 2016 funktioniert aufgrund dieses Fakt nicht mehr.
Die Chips sind dafür auch kleiner geworden und zumindest viele sehen ja auch einen gewissen Preisaufschlag im Zuge der Inflation ein. Sind wahrscheinlich jene, die Aufgrund der Inflation und den Lohnanpassungen mehr Kaufkraft als vor 2017 haben.

Findest du, selbst im Wissen um 50% Aufschlag auf die Wafer kosten, das eine 4060ti für 439€ und mit nur 8GB eine guter Preis und eine gute Karte war?
Mit 16GB für 439€ damals hätte ich sie möglicherweise sogar direkt gekauft! ;-)

Die Beispiele bei der Einstiegsklasse und Unteren Mittelklasse sind zahlreich und die Tatsache das sich die 3070 im Vergleich noch so gut schlägt und auch RDNA2 noch so attraktiv ist, ist halt Teil des Problems. Die 4090 für 1500€ ist da wirklich weniger das Problem gewesen. Da war mit sicherheit auch viel Jammern auf hohem Niveau dabei.
Ergänzung ()

Vitche schrieb:
Die hatte ich sogar zuerst mit eingeplant, aber deren P/L-Verhältnis ist (im Vergleich
hihi, ich glaube ich hatte mich noch vor kurzem Beschwert das man die 4090 nicht ausblenden kann, genau eben wegen der Lesbarkeit.

Wobei da echt ein Toggle zum an und ausmachen einzelner Karten wahrscheinlich am nettesten ist, aber das macht natürlich dann auch wieder noch mehr arbeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coxon und Mr. Vega
danyundsahne schrieb:
Das ist mittlerweile über 10 Jahr her.

danyundsahne schrieb:
...siehe HBM, siehe Chiplets bei CPUs/GPUs...
Spielt für dich und mich keine Rolle, ob da HBM oder GDDR6X drin werkelt und aus wie vielen Chiplets die GPU besteht.
Was eigene Features angeht, ists bei AMD sehr mau und das seit sehr langer Zeit.

danyundsahne schrieb:
Wo bitte ist hier AMD der Nachzügler??
Nur weil man RT nur eine Gen später gebracht hat?
Genau deswegen. Folgende Features kamen in erster Linie von Nvidia, während AMD nur nachzog:
  • RT
  • DLSS -> FSR
  • Frame Generation -> (A)FMF
  • Reflex -> AntiLag(+)
  • CUDA -> ROCm
  • Hairworks -> TressFX
  • GSync -> Freesync
 
MrHeisenberg schrieb:
Das ist mittlerweile über 10 Jahr her.
Darum geht's nicht, sondern um die Aussage AMD zieht nur nach. Was einfach nicht stimmt.
Mantle hat den Weg zu Vulkan und Dx12 maßgeblich geebnet...
MrHeisenberg schrieb:
Spielt für dich und mich keine Rolle, ob da HBM oder GDDR6X drin werkelt und aus wie vielen Chiplets die GPU besteht.
Was eigene Features angeht, ists bei AMD sehr mau und das seit sehr langer Zeit.
Siehe oben, mag sein dass NV teils bessere Features hat. Bestreite ich auch nicht.
Mir geht's um die genannte Aussage.
Fertig.
 
  • Gefällt mir
Reaktionen: SweetOhm
danyundsahne schrieb:
Darum geht's nicht, sondern um die Aussage AMD zieht nur nach. Was einfach nicht stimmt.
Was Features angeht, stimmt diese Aussage, wenn das letzte Relevante über 10 Jahre her ist.

danyundsahne schrieb:
Mantle hat den Weg zu Vulkan und Dx12 maßgeblich geebnet...
Weiß ich nicht. Tut aber auch nichts zur Sache. Mantle war gut, aber es ist trotzdem über ein Jahrzehnt her.
Ich lebe im hier und jetzt, was vor 10 Jahren aktuell war, interessiert mich heute nicht mehr.

danyundsahne schrieb:
Siehe oben, mag sein dass NV teils bessere Features hat. Bestreite ich auch nicht.
Mir ging es nicht um besser, sondern darum, dass AMD nichts mehr selbst "erfindet", sondern nur noch nachzieht, um zur Konkurrenz aufzuschließen. Chiplets und HBM sind hier völlig irrelevant für uns. Es ist dir und mir doch egal, wie der Chip aufgebaut ist, uns interessiert die Leistung, der Verbrauch und Preis.
Btw. sitzen auf den RDNA3 Karten auch keine HBM-Chips. Ist also eher kein Argument.
 
Zuletzt bearbeitet:
Zurück
Oben