News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

pacifico schrieb:
Ihr ignoriert mittlerweile seit einigen Jahren geflissentlich das Wafer pro neuem Mode 50 Prozent teurer geworden sind.

Das ist eine exponentielles Entwicklung.

Dein Preisgefüge von 2016 funktioniert aufgrund dieses Fakt nicht mehr.

Is halt so...
Und Du ignorierst oder weißt es schlichtweg nicht, dass bei jedem Shrink mehr Chips aus einem Wafer bekommst ?!? Erst letztens hat es jemand hier gepostet (mit Grafik und Tabelle),
finde es grad allerdings nicht auf die schnelle.

p.s. den Link mit der Grafik/Tabelle hab ich noch nicht gefunden, allerdings einen ausführlichen Post (#259) :

https://www.computerbase.de/forum/t...x-7900-xt-zum-aktionspreis-an.2179823/page-13

"Jetzt kommt das Milchmädchen ins Spiel, aber für eine grobe Orientierung sollte das passen:

In 2022 kostete ein aktueller 5nm Wafer rund 14.000 USD. Ein 7/8nm rund 10.700 USD.
Da die 3070 deutlich größer war (Chipfläche), braucht man rund 4 7nm Wafer um die gleiche Menge an Chips zu bekommen, wie bei 3 Wafern in 5nm bei der 4070.
4 x 10.700 = 42.800 USD. 3 x 14.000 = 42.000 USD

Ups, der Wafer ist zwar teurer geworden, aber der Preis pro Chip dann doch nicht so wirklich.

Natürlich gehören noch viele andere Dinge auf eine Karte und R&D muss auch bezahlt werden, jedoch ist es schon ein wenig strange, warum das nur für die Grafikkarten gelten soll. Schaut man sich um, z.B. bei den CPUs, dann gibt es dort keine vergleichbare Preissteigerung.
Bei Speicher (RAM, SSD, ..) hatten wir 2023 einen All-Time Low.

Nehmen wir noch ein Beispiel: 4060 vs 3060
3060: 276 mm2
4060: 119 mm2

Bei der 4060 reichen 3 Wafer umd die gleiche Menge an Chips zu haben wie bei 7(!) Wafern der 3060.
Milchmädchen: 3 x 14.000 = 42.000 USD
7 x 10.700 = 74.900 USD

Sprich, aus Wafersicht ist die 4060 deutlich günstiger, trotz 5nm, als die 3060. Bzw. die 3060 kostet fast DOPPELT(!) so viel wie die 4060. Bei nahezu gleichem UVP Preis (USD, um Währungsschwankungen nicht drin zu haben)."
 
Zuletzt bearbeitet:
Die Grafik würde mich auch nochmal interessieren :freaky:
 
  • Gefällt mir
Reaktionen: SweetOhm
danyundsahne schrieb:
Darum geht's nicht, sondern um die Aussage AMD zieht nur nach. Was einfach nicht stimmt.
Mantle hat den Weg zu Vulkan und Dx12 maßgeblich geebnet...

Siehe oben, mag sein dass NV teils bessere Features hat. Bestreite ich auch nicht.
Mir geht's um die genannte Aussage.
Fertig.
Gib es auf !
Er wird Dir immer das Wort im Maul umdrehen und behaupten dass Du das genau so (schon Öfters) gesagt hast.
Dann interpretiert er ein jedes mal Deine Aussage falsch und bezichtigt Dich dann der Lüge ... :skull_alt::kotz:
 
MrHeisenberg schrieb:
@MoinWoll ja stimmt, macht den Kohl aber nicht fett. Selbst RT niedrig ohne FG ist auf AMD nicht spielbar:
Anhang anzeigen 1447618

Wobei nicht spielbar nicht stimmt. Die einzige Karte, die 30 FPS erreicht, ist die XTX, aber so spielt kein Mensch mehr.

Was für ein Schmarrn Argument ist denn dieser Benchmark zusammen mit deiner Aussage? Die einzige Karte bei der RT Niedrig ohne FG spielbar ist, ist die 4090 für 1800 Tacken und mit allen anderen Karten spielt mein Mensch mehr? Da alle anderen nur um die 30FPS haben?

Was ist denn das für eine Aussage? Wie biased kann man eigentlich sein um so einen Text zu verfassen?

Und eben wurde das Problem bei AW2 doch schon lange behoben und AMD liefert mittlerweile ordentliche Performance. Dauert halt etwas bei einem "Meant to be played" Titel. Aber hey, das ist ja Nvidia die hier behindern, aber wehe ein AMD Titel läuft nicht gleich so wie er soll auf Nvidia Karten, dann ist der Shitstorm gegenüber AMD wieder groß nicht war? Starfield DLSS *hüstel

https://www.pcgameshardware.de/Alan...cials/Nachtest-Raytracing-Benchmarks-1437974/

Die folgenden Benchmarks sind brandneu und zeigen den aktuellen Entwicklungsstand. Unser Fokus liegt auf der Raytracing-Leistung, denn hier beobachteten wir einen massiven Leistungssprung aller Radeon-Grafikkarten. Interessanterweise legen die großen RDNA-3-GPUs stärker zu als kleinere Modelle, was für eine bessere Arbeitsverteilung spricht.

....


Als Radeon-Treiber nutzen wir übrigens den neuen Preview Driver for AMD Fluid Motion Frames 23.40.01.10. Die Radeon RX 7900 XTX kann damit neuerdings an die Geforce RTX 4070 Ti heran robben - das war zum Release noch völlig undenkbar. Mit der neuen Leistung ist Raytracing auf AMD-GPUs erstmals ohne hohe Upscaling-Modi nutzbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Nihil Baxxter, ShowOff und eine weitere Person
Shinigami1 schrieb:
Was ist denn jetzt mit Mantle und HBM? Mir ist klar das Vulkan noch existiert aber auch das findet man nicht gerade in vielen Spielen. HBM ist viel zu teuer und wurde weitestgehend eingestampft.
Warst Du evtl. die letzten Jahre auf einer Insel / im Gulag / im Koma ?
HBM geht grad sowas von durch die Decke (halt nur nicht in der Gaming Sparte) bei KI/AI ... :stacheln:
Ergänzung ()

daknoll schrieb:
Heisi, warum bist du eigentlich nicht Pfarrer geworden?
Da könntest du den ganzen Tag Missionieren und alle wären begeistert. Aber hier nervst du extrem.
Genau, und zwar im NV Thread !! :heilig:
 
Zuletzt bearbeitet:
Apocalypse schrieb:
Hatte den Vorgänger, der im Grunde die gleiche Karte war, r9 390, Freund ebenfalls, ich die Nitro mit gutem Kühlkonzept

Ich hatte auch die nitro, habe vorher recherchiert und dachte, dass die funzt. vielleicht hatte ich auch ein montagsmodell erwischt, keine ahnung. aber selbst in WoW hatte die nach kurzer Zeit artefakte bekommen, erst bisschen, dann immer mehr, dann absturz. hab dann irgendwann den pc aufgemacht und mein zimmerventilator reinblasen lassen, half auch nicht. seitdem (und der abwärme) will ich von 300+ Watt Karten nichts mehr wissen
 
  • Gefällt mir
Reaktionen: Apocalypse
Creeping.Death schrieb:
Ich habe damals meine Inno3D für 606,90 EUR gekauft und zwar am 27.09.2016.
Hmm, ok. Ich hatte damals eine 1080 kaufen wollen, bin aber wegen der 799€, die ich als billigstes Angebot vorliegen hatte, auf meiner GTX780ti geblieben. Ich hatte dann ein Jahr später die 1080 für knapp über 600€ gekauft.
Ich muss wohl an meiner Käufer-Kompetenz arbeiten :-)
 
Ich verwalte vier Computer, Grafik ist 2x NV und 2x AMD. Beides gut. Wer sich hierum streitet, hat andere Probleme.
 
  • Gefällt mir
Reaktionen: CadillacFan77, F4711, schnufflon84 und 2 andere
CiX schrieb:
Ich hatte auch die nitro, habe vorher recherchiert und dachte, dass die funzt. vielleicht hatte ich auch ein montagsmodell erwischt, keine ahnung. aber selbst in WoW hatte die nach kurzer Zeit artefakte bekommen, erst bisschen, dann immer mehr, dann absturz. hab dann irgendwann den pc aufgemacht und mein zimmerventilator reinblasen lassen, half auch nicht. seitdem (und der abwärme) will ich von 300+ Watt Karten nichts mehr wissen
Klingt sehr nach Montagsmodell.

Ist ja auch egal warum, sowas kann dir mit einer 200W Karte auch passieren. Hätte da was ähnliches aus meiner WOW Zeit, als fast 70 Stunden Wow-Woche auf ein 70 Stunden Arbeitswoche trafen und mein PC dann halts Build to Order von einem Lokalen Laden kam. Der Q6600 lief sogar 3 Jahre ohne Wärmleitpad/Paste bevor nix mehr ging. Blöde Geschichte, aber damals hat nur das ganze System mehr als 300W verbraucht und nicht nur GPU. Nicht mal 100W für die CPU übrigens, und ohne Wärmeleitpaste wahrscheinlich nicht mal 50W verbraucht, weil er sich ja sehr oft und viel selbst runtergetaktet haben muss. Trotzdem am Ende crashes. :D


Aber, die Abwärme von solchen kleinen Stromfressern ist natürlich nicht wegzudiskutieren. Das kleine Arbeitszimmer in dem der da früher Gestanden hat hab ich selbst im Winter ohne Heizung auf angenehme 28°C bekommen, ist halt Effektiv wie ein Heizlüfter der Unfreiwillig mitläuft, das mag im Winter kein Problem sein, im Sommer kann es aber wirklich sehr lästig sein, besonders wenn man viel spielt und nicht erst nach Einbruch der Dunkelheit die Kiste zum daddeln mal Kurz anmacht.

Aber wie gesagt, die Kühlung bei solchen Karten ist eigentlich durchaus mit den Modernen Kühlkonzepten und Zwei- oder gar Drei-Slot Grafikkarten ein sehr gut gelöstes Problem. Fehler in der Herstellung kommen aber immer mal wieder vor.
 
  • Gefällt mir
Reaktionen: CiX
SweetOhm schrieb:
Und Du ignorierst oder weißt es schlichtweg nicht, dass bei jedem Shrink mehr Chips aus einem Wafer bekommst ?!?
Das funktioniert halt nur, wenn der Chip auch deutlich kleiner wird. Die Wafer größe bleibt gleich.
 
  • Gefällt mir
Reaktionen: Apocalypse, SweetOhm und MrHeisenberg
Belerad schrieb:
Was für ein Schmarrn Argument ist denn dieser Benchmark zusammen mit deiner Aussage? Die einzige Karte bei der RT Niedrig ohne FG spielbar ist, ist die 4090 für 1800 Tacken und mit allen anderen Karten spielt mein Mensch mehr? Da alle anderen nur um die 30FPS haben?
Ich würde es eher als Schmarn bezeichnen, dass hier einige User Aussagen gern aus dem Kontext reißen. Meinste nicht, dass mir das nicht selbst bewusst ist?

Es ging um die Aussage, dass die RT Leistung gut wäre und wie du an diesem Beispiel siehst, ist sie es nicht! Man kann nicht mal die 3090 TI knacken.
Dass nur die 4080/4090 hier spielbar ist, weiß ich selbst, aber dafür gibts ja noch FG und bevor du mir jetzt damit kommst, dass AMD das ja auch bietet: ja, aber dadurch wird die RT Leistung von AMD trotzdem nicht gut und genau darum ging es mir.
 
Zuletzt bearbeitet:
@SweetOhm
"In 2022 kostete ein aktueller 5nm Wafer rund 14.000 USD. Ein 7/8nm rund 10.700 USD."

Das ist halt einfach falsch.
2022 waren TSMCs 5nm class nodes bei um die 16.000 USD.

7nm und 8nm (10nm++) sind ganz andere Prozesse.

Samsung 10nm ging schon zur Markteinführung für 5.500 USD.
Das war 2016. 2022 war der Prozess schon second grade, hatte die Investitionen wieder drin und NVIDIA war Samsung letzter Großkunde für den Node. Da werden die deutlich weniger gezahlt haben.
 
  • Gefällt mir
Reaktionen: Taxxor und MrHeisenberg
Trelor schrieb:
Das funktioniert halt nur, wenn der Chip auch deutlich kleiner wird. Die Wafer größe bleibt gleich.
I know.
Von anno Dazumal 65nm auf in Bälde erscheinende 3nm/18A hat sich schon auch so was getan ...
Nichts desto trotz ist die Begründung halt auch falsch, die Preiserhöhung der 4000´er Gen allein am Waferpreis aus zu machen, wenn ein 4060´er Chip weniger als die Hälfte groß ist als ein 3060´er und dann auch noch mehr kostet.
 
Zuletzt bearbeitet:
Kenzo2019 schrieb:
Was heißt für dich "richtig RT"? Ich überlege gerade die 7900 XTX oder die 4070 ti super zu holen. Ich zocke nicht am PC, dafür habe ich die PS4 Pro. Was ich nicht weiß ist, ob RT nur für Games relevant ist. Für KI interessiere ich mich auch, aber ob der Unterschied zwischen den beiden Karten wirklich so groß ist, glaube ich nicht.
AMD karten sind für ki leider absolut nicht zu gebrauchen. Falls du das willst musst du Nvidia Nehmen.
 
Pummeluff schrieb:
Du lebst irgendwie in Deiner eigenen Blase, oder?

Mantle ist maßgeblich in die Entwicklung von Vulkan eingeflossen. Das war eigentlich die größte Revolution der letzten Jahre vor der Raytracing-Entwicklung. Und Vulkan war zudem so enorm wichtig. Einerseits wurde damit eine gleichwertige Konkurrenz zu DirectX12 geschaffen und damit ein Monopol gebrochen. Vulkan ist dazu noch überaus erfolgreich. Das Steam Deck würde es ohne Vulkan nicht geben. Die DirectX-Aufrufe für Windows-Spiele werden direkt in Vulkan-Aufrufe umgewandelt. Und nicht jede Spielkonsole hat einen Windows-Unterbau.

Und Nvidia setzt nur auf Closed Source, weil sie im PC-Markt ein Quasi-Monopol haben und es sich da leisten können. Auf Plattformen, auf denen Nvidia keine nennenswerte Marktanteile hat, sieht sich auch Nvidia gezwungen, Open-Source-Treiber zu veröffentlichen.
Man kann sich auch vieles schönreden. Mit dem Steam Deck hab ich mich noch nie befasst, mag sein das du da recht hast. Ändert trotzdem nichts an der Tatsache das im Dektop-Gaming Sektor Vulkan kaum gesehen wird. Oder es wird mir manchmal nicht angezeigt als NV Nutzer. Würde da eh immer zu DX12 greifen wenn ich die Wahl hätte. Bei Baldurs Gate 3 war zu Release Vulkan als Voreinstellung ausgewählt und ich hatte nach 10min erstmal nen Crash :D.

Zu deinem Android Open-Sorce Treiber kann ich nur das selbe sagen wie dem anderen Kollegen hier der CPUs angesprochen hat. Das ist nicht das Thema. Ich merke schon das euch im Dektop-GPU Bereich die Argumente ausgehen. Habe mich jetzt schon ein paar mal wiederholt.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
MrHeisenberg schrieb:
Ich würde es eher als Schmarn bezeichnen, dass hier einige User Aussagen gern aus dem Kontext reißen. Meinste nicht, dass mir das nicht selbst bewusst ist?

Es ging um die Aussage, dass die RT Leistung gut wäre und wie du an diesem Beispiel siehst, ist sie es nicht! Man kann nicht mal die 3090 TI knacken.
Dass nur die 4080/4090 hier spielbar ist, weiß ich selbst, aber dafür gibts ja noch FG und bevor du mir jetzt damit kommst, dass AMD das ja auch bietet: ja, aber dadurch wird die RT Leistung von AMD trotzdem nicht gut und genau darum ging es mir.
Umgekehrte Psychologie funktioniert hier leider nicht. Du bist derjenige der die Sachen aus dem Kontext reißt und nur ein Spiel als Referenz heranzieht. Alan Wake 2 ist ein Grafikkracher der zZt. nur auf der 4090 mit RT einigermaßen läuft. Was hat das jetzt mit der 7900XTX zu tun, frag ich dich?
 
  • Gefällt mir
Reaktionen: SweetOhm
coxon schrieb:
...und nur ein Spiel als Referenz heranzieht.
Weils bei allen anderen Spielen, die viele RT Effekte oder PT nutzen, genau so aussieht.
In CyberPunk oder Desordre haste das gleich Bild. Je stärker der RT Anteil ist, desto weiter fällt AMD zurück und wird von der 3090 TI geschlagen. Das wurde doch selbst von DevPandi bestätigt. Trollt die auch und istn Fanboy?

Bei CP ist sogar ne 2080 TI schneller, also alles andere als gut ;)
 
Zuletzt bearbeitet:
und deswegen ist amd kacke oder was? und was hat es mit der 7900XTX zu tun?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
coxon schrieb:
und deswegen ist amd kacke oder was?
Das hat nie jemand behauptet oder?
Nur ist die RT Leistung nicht gut und zwischen gut und kacke liegen auch noch ne Menge Abstufungen oder kennst du nur extreme?
 
Zurück
Oben