Notiz AMD: Radeon RX 7900 XT mit 20 GB fällt erstmals auf 829 Euro

CadillacFan77 schrieb:
Naja, Kirche mal im Dorf lassen. "Spürbar lansamer in RT" ist die 7900 XT ggü. der 4070 Ti definitiv nicht. Lass es von mir aus 15% sein, das bedeutet bei 60fps auf der 4070 Ti hast Du 51fps bei der 7900 XT, die 9 fps merkst Du nicht wirklich.

Ausserdem sind es eher weniger als 15% - siehe Hogwarts Legacy Test. Da ist der Unterschied zwischen den Karten bei 2-3fps maximal (mit RT).
Ich denke hier kommt es darauf an, wieviele und wie stark RT Effekte eingesetzt werden. In CP77 bspw. liegen die Grünen weit vorne. Wenn man dazu dann auch noch DLSS3 mit FG nimmt, dann habe ich in UWQHD in CP77 RT MAX zwischen 90-120 FPS. Butterweich.
Sowas habe ich noch von keiner AMD GPU gesehen. Aber mal abwarten was FSR3 bringt, unabhängig davon ist die RT Roleistung deutlich geringer und die AMD GPUs werden nicht rankommen. Für mich bedeutet das, dass die 4070ti von Tag eins an (DLSS3 war direkt verfügbar) genau dort mehr Leistung bringt, wo es i.d.R. fehlt. Bei AAA Titeln mit viel RT.

Ob es generell mehr RT Effekte in Zukunft geben wird in den Games? ich denke es werden höchstens für PC (Nvidia gesponsered) angepasste Versionen / Settings sein. Am Ende wird kein Publisher AAA Spiele rausbringen, die auf eine PS5 oder XBox garnicht laufen wegen zu vieler RT Effekt. Dort werkelt bekannterweise sogar noch RDNA2.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
HaRdWar§FreSseR schrieb:
Und was macht die 7900XT mit dem 20GB VRAM und der höheren speicherbandbreite. ?

Kritisierst du nur die 4070TI oder auch die 7900XT.

So viel mehr schafft die auch nicht.
Mit RT ist die schlechter wie die geforce,egal welche Auflösung. 😉

Mit DLSS macht die mehr als 60 Bilder die Sekunde.

Ich kann dir sagen: in 3 Jahren werde ich immer noch mein Spaß mit meiner RTX haben.
Ich kritisiere beide. Bei AMD bin ich von der Effizienz enttäuscht und das die Karten nicht noch stärker bei RT zugelegt haben.
Bei der 4070ti den Speicher.
Ich weiß nicht ob man mit der aktuellen Gen in drei Jahren noch viel Spaß haben will. Wenn man den Anspruch hat in UWQHD oder 4K zu zocken. Wenn das so weiter geht mit den Anforderungen der Games. Das Problem bei DLSS und FSR ist das es von Spiel zu Spiel Mal mehr Mal weniger Probleme macht. War mir bisher egal weil ich es nicht benutzt habe.
Aber wenn ich mir das Trauerspiel mit den aktuellen Titeln ansehe und das selbst schon die Oberklasse Karten auf FSR/DLSS bei erscheinen setzen müssen denke ich mir nur ganz toll, wie soll das in 12 oder 18 Monaten dann aussehen???
Und dann will man noch diese Traumpreise für die Karten.
 
  • Gefällt mir
Reaktionen: Klever und HaRdWar§FreSseR
ruthi91 schrieb:
RX470, 480, 570, 580, 590 und GTX1060
Sogar die Vega56 ist weit unter 300€ gerutscht.
Naja. Das ist aber halt keine 3060 ;-)
Wobei... was kostet eine 6600(xt) gerade?
Ergänzung ()

basic123 schrieb:
Angesichts eines Startpreises von 999€ sind 829€ durchaus attraktiv. Insbesondere wenn man eine 4070Ti mit 12GB zum Vergleich heranzieht. 500€-600€ für High-End werden wir aber nie wieder sehen. Selbst wenn der PC-Markt noch weiter einbricht.
Aber zumindest Oberklasse darf es gerne wieder werden. 5070/8750xt und vielleicht auch noch ne 8800 oder 5070ti.

Da kauft man dann auch wieder gerne, selbst wenn dann riesige High-End Chips in anderen Welten angesiedelt wären. Die dürfen gerne SLI Karten ersetzen, jetzt halt nur mit zuverlässig mehr Performance ☺️
 
Zuletzt bearbeitet:
Tuetensuppe schrieb:
Hat man das wirklich?
Die Vega 56 hatte eine UVP von 400 Euro, leistungsmäßig war sie im Bereich einer GTX 1070.
Die schnellste GPU, die 1080 Ti, war bei WQHD 60% schneller.
Eine 3090 Ti (bis vor kurzem die Nr. 1) ist bei WQHD 60% schneller als eine 6700 XT für 400 Euro.
Und 2019 war eine 2080 Ti 60% schneller als eine 2060 Super für 400 Euro ...
Du vergleichst also den Preis der jetzigen 6700XT, die mittlerweile für ne Graka uralt ist und auch "vor kurzem" schon alt war (die Generation hat vglw. lang gelebt) mit dem Preisen einer 2060Super !vor dem Mining Boom! und mit der Vega 56.

Und was genau bringt das? Ne Vega 56 war damals die Zweitschnellste im Portfolio von AMD und das ist jetzt die 7900 XT für den doppelten Preis. Aber 100% Inflation hatten wir seitdem ja nun auch nicht...
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
CadillacFan77 schrieb:
Lass es von mir aus 15% sein, das bedeutet bei 60fps auf der 4070 Ti hast Du 51fps bei der 7900 XT, die 9 fps merkst Du nicht wirklich.
Laut CB sind es im Schnitt 18%. Ich greife dein Beispiel mal auf dann sind es 60 vs. 49,2 FPs. Punkt 1 doch die merke ich sehr wohl. So gar nicht spürbar ist für mich alles <10%. Wenn es mehr als 15% werden, kann das je nach Szenario schon sehr spürbar sein. 18% sind nebenbei auch der Unterschied vieler Modelle untereinander. 3060ti vs. 3070 oder 6800 vs. 6800XT. So wichtiger ist aber Punkt 2: Es kommt sehr drauf an, wie stark auf RT gesetzt wird. In den Rankings fließen auch Spiele ein, wo RT nur für wenige Effekte genutzt wird. Wir haben da insgesamt eine Streuung von paar Prozentpunkten bis zu 49% in Cyberpunk. Also eigentlich alles wie immer, es kommt eben darauf an was man zockt. Mir fallen jedenfalls mehr Beispiele ein, wo die 7900XT in RT richtig auf die Mütze bekommt, als das die 4070ti im Rasterizer total abgehängt wird. Könnte in Zumindest in 4k aber durchaus genauso passieren.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
In Wahrheit schneidet die RX 7900 XT im Vergleich zur Konkurrenz noch etwas besser ab als beispielsweise im Test von CB. Mittlerweile sind AMD-Prozessoren wieder weit verbreitet unter Gamern. Irgendwie erwähnt man in diesem Zusammenhang viel zu wenig den Vorteil von SAM. Damit kann es einen spürbaren Performancezuwachs in Spielen geben.

Ansonsten kann man die Preisentwicklung der Karte nur begrüßen. AMD hätte sie von Anfang an anders bepreisen sollen. Ausgehend von 999$ für die XTX wären maximal 849$ für die XT vertretbar gewesen. Man fragt sich, was sie sich nur dabei gedacht haben. Bei RX 6000 war das noch ganz anders, da wurde die 10% Mehrleistung der RX 6900 XT gegenüber der 6800 XT noch teuer erkauft. Jetzt hat plötzlicher Weise das Flaggschiff das klar bessere P/L-Verhältnis, was auch absolut untypisch ist. Aber wie dem auch sei: die RX 7900 XT fängt langsam an eine interessante Karte zu werden.
 
Zuletzt bearbeitet:
CadillacFan77 schrieb:
Die Preise im DC sind deutlich höher, obwohl es ähnliche oder gar kleinere/ältere Chips sind. Ergo ist die Marge dort höher, wenn der Schnitt bei 30% liegt und davon fast 50% aus Datacenter kommt, muss die Marge aus dem Gaming Bereich tiefer sein als 30%.

Wafer sind seit damals auch gut 3-4x so teuer. Und die Chips grösser...
Zum einen ist die Marge nicht fix, also wir reden hier nicht von den nackten Herstellungskosten sondern auch die Entwicklungskosten die gleich hoch sind bei 1000 oder 1mio verkauften Karten.

Aber auch mit diesen Zahlen wenn ich mal als Beispiel 20% für gaming an nehme an Marge, und mir mal ne RX 6600 anschaue, 8gb ram und Chipgroesse 237mm2 und wenn ich hier mal von 15% Marge aus gehe wären die Produktionskosten bei 250 Euro - 15% = 217.50 Euro.

Eine 7900 XT hat 498mm2 (2x 237 ergibt 477mm2) das ist bisschen mehr wie 2x so viel, 20gb ram ist auch bisschen mehr als 2x so viel, also rein von den Zahlen dürfte sie bei gleicher Marge nur leicht teurer als 2x so teuer sein, also runden wir bisschen auf ca. 440 wären doppelter Einsatz aber ich runde auf 500 Euro auf für das mehr an Ram und die ca. 20mm2 mehr an Chipfläche (von der Verdopplung ausgerechnet), die kostet aber 830 Euro würde heißen:

40% Marge

und das bei den niedrigen Stückzahlen, würde man bei TSMC 500% bestellen würden die wohl auch Rabatte anbieten sofern sie noch Kapazitäten hätten, aber selbst wenn nicht, zahlt ja AMD in dem Beispiel nicht 500 Euro (-Steuern) an TSMC, in den 500 Euro in dem Beispiel stecken ja alle Personalkosten alle Entwicklungskosten von AMD mit drin, klar wenn man mehr verkauft würde hier und dort auch 1-2 Leute mehr gebraucht werden, aber nicht 1:1. Also die Kosten außerhalb von TSMC sind fast fix.
 
Zuletzt bearbeitet:
R O G E R schrieb:
Mir fehlt mittlerweile einfach eine gescheite Mittelklasse die von 150€-250€ geht.
Ähhm dieser Preisbereich war auch vor COVID und Mining nicht Mittelklasse.

Die 1060 hatte vor sieben Jahren bereits eine UVP von 330 Euro

Unter 200 Euro gab es immer nur abgespeckten Kram ala 950/1050 oder ältere Karten aus der Vorgängergeneration.

Ab 250 Euro konnte man aktuelle Einsteiger
Karten kaufen wenn diese bereits sehr viele Monate im Handel waren.


-> Selektive Verklärung einer nicht existierenden Vergangenheit
 
  • Gefällt mir
Reaktionen: LBB
je87 schrieb:
Und wie lange sind die 6xxx-er Karten jetzt auf dem Markt?
Es ging um Mittelklasse-GPUs um 250 Euro. Davon gab es in der RX 6000er Serie keine. (auch wenn man im Abverkauf RX 6600er ab und an unter 250 Euro finden kann / konnte)
 
pacifico schrieb:
Ab 250 Euro konnte man aktuelle Einsteiger
Karten kaufen wenn diese bereits sehr viele Monate im Handel waren.
???
Also war die RX480 für dich ne einsteigerkarte?
 
Poati schrieb:
Laut CB sind es im Schnitt 18%. Ich greife dein Beispiel mal auf dann sind es 60 vs. 49,2 FPs. Punkt 1 doch die merke ich sehr wohl. So gar nicht spürbar ist für mich alles <10%. Wenn es mehr als 15% werden, kann das je nach Szenario schon sehr spürbar sein.
Kaum, denn wie gesagt, entweder hast Du gerade noch so gute FPS (wie mein Beispiel 51 vs 60), sehr gute (z.bsp 140 vs 161) oder sehr schlechte (30 vs 34). In keinen Fällen, spielt das wirklich eine Rolle oder ist spürbar.

Entweder läufts flüssig oder dann ruckelt es wie Sau, auf gleichen Karten. Oder Du bist im Mittelfeld, aber 51 vs 60fps merkst Du nicht im Spielbetrieb.

Poati schrieb:
Es kommt sehr drauf an, wie stark auf RT gesetzt wird. In den Rankings fließen auch Spiele ein, wo RT nur für wenige Effekte genutzt wird. Wir haben da insgesamt eine Streuung von paar Prozentpunkten bis zu 49% in Cyberpunk.
Ja, 35 gegen 21 fps bei den Percentile, ergo beides unspielbar. Ist ja schön die 49% nur bringen die nix. Und das ist noch nicht mal in 4k sondern nur 1440p. In 4k sinds 13 vs 18, also komplett sinnlose Metrik.

Kommt FSR und DLSS zum Zuge, was dann spielbare FPS ermöglicht schrumpft der Unterschied auf 8% zusammen (siehe CB Test) über 5 RT Spiele. CP ist da eine Absolute Ausnahme und einzig mit RT auf 2160p und DLSS / FSR ist der Unterschied spürbar, nämlich 40fps vs. 60fps (siehe Igors Lab).
Ergänzung ()

blackiwid schrieb:
Zum einen ist die Marge nicht fix, also wir reden hier nicht von den nackten Herstellungskosten sondern auch die Entwicklungskosten die gleich hoch sind bei 1000 oder 1mio verkauften Karten.

Aber auch mit diesen Zahlen wenn ich mal als Beispiel 20% für gaming an nehme an Marge, und mir mal ne RX 6600 anschaue, 8gb ram und Chipgroesse 237mm2 und wenn ich hier mal von 15% Marge aus gehe wären die Produktionskosten bei 250 Euro - 15% = 217.50 Euro.

Eine 7900 XT hat 498mm2 (2x 237 ergibt 477mm2) das ist bisschen mehr wie 2x so viel, 20gb ram ist auch bisschen mehr als 2x so viel, also rein von den Zahlen dürfte sie bei gleicher Marge nur leicht teurer als 2x so teuer sein, also runden wir bisschen auf ca. 440 wären doppelter Einsatz aber ich runde auf 500 Euro auf für das mehr an Ram und die ca. 20mm2 mehr an Chipfläche (von der Verdopplung ausgerechnet), die kostet aber 830 Euro würde heißen:

40% Marge
Nur vergisst Du, dass die 6600XT in 7nm ist und die 7900XT in 5nm.

When the foundry moved from 7nm to 5nm, wafer pricing rose 60% from $10,000/wafer to $16,000/wafer.
https://www.phonearena.com/news/tsmc-hikes-wafer-prices-for-3nm_id143854

Dann ist Deine Rechnung ausgehend von der 6600XT:

217.50€ * 2 auf Grund der Chipfläche = 435€
435 * 1.6 auf Grund der teureren Wafer = 696€
= ergo etwa 15% Marge wie bei Deinem Beispiel mit der 6600 XT.
 
Zuletzt bearbeitet:
Kuestennebel79 schrieb:
Ich denke hier kommt es darauf an, wieviele und wie stark RT Effekte eingesetzt werden. In CP77 bspw. liegen die Grünen weit vorne.
Ich würde bei keinem fairen Performancevergleich CP2077 heranziehen. Ich habe die Testergebnisse genaustens studiert. Es ist ziemlich auffällig, wie überdurchschnittlich schlecht hier AMD-Grafikkarten mit Raytracing abschneiden. Dieses Spiel ist tatsächlich ein reines Nvidia-Showcase und wurde von CD Project Red maximal auf RTX-Grafikkarten hin optimiert. Im gesamten CB-Testparkur ist CP2077 das einzige RT-Spiel, bei dem sich eine RTX 3080Ti (sogar klar!) vor den beiden RX-7000-Karten setzen kann. In allen anderen Titeln ist die Nvidia-Karte unterlegen, zum Teil sogar deutlich.
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Ich würde bei keinem fairen Performancevergleich CP2077 heranziehen. Ich habe die Testergebnisse genaustens studiert. Es ist ziemlich auffällig, wie überdurchschnittlich schlecht hier AMD-Grafikkarten mit Raytracing abschneiden. Dieses Spiel ist tatsächlich ein reines Nvidia-Showcase und wurde bis zum Optimum von CD Project Red auf RTX-Grafikkarten hin optimiert.
Teilweise. Sicher hat NVidia hier mit "motiviert". Aber es liegt hier auch daran, dass viele RT Effekte umfangreich genutzt werden. Also Beleuchtung, lokale und globale Schatten, Reflexionen.
Bei spielen wo nur einzelne Effekte genutzt werden, ist der Abstand nicht so groß.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
CadillacFan77 schrieb:
Nur vergisst Du, dass die 6600XT in 7nm ist und die 7900XT in 5nm.
Hast du irgendwelche Hinweise das dauerhaft dort die Kosten höher sind, klar die Erstinvestitionen sind höher oder liegen weniger weit zurück, aber letztlich ist es doch nur ne Frage wann die Maschinen abgeschrieben sind, danach der Stromverbrauch sollte der Gleiche sein, die Anzahl der Arbeiter an den Maschinen auch der Gleiche.

Die staubfreien Räume mit Absaugungen oder was da benutzt wird, wird auch beidesmal das selbe sein. Das einzige wäre die Yieldrate aber auch die steigt mit der Zeit, und die 6600XT wird ja jetzt auch nimmer gebaut, die liegt nur seit 1-2 Jahren im Lager.

Auch da ists ne Frage von Fixkosten und laufende Kosten, die Fixkosten waren beim Fabrikbau sicher groesser, nur werden ja auch dann mehr Produkte verkauft dort, bzw die Yieldrate damals war auch nicht die von Heute.

Ich behaupte ja nicht das meine Überschlagungen auf den Cent richtig sind, es kann sowohl leicht geringer oder höher sein, aber du scheinst einfach das Grundprinzip ab zu lehnen, obwohl das eigentlich common Sense ist, die Rechnung ist nur ne Beispielrechnung, du vermischt zeug du sagt die Marge im Durchschnitt ist X bringst dann aber den Umsatz von Datacenter, obwohl der Umsatz fuer den Durchschnitt irrelevant ist, was da zählt ist die ANZAHL.

Es könnte also auch sein das die übertreibe gesagt 5 GPUs an Datacenter verkaufen mit 1000% Marge, das hätte auf die Durchschnittsmarge wenn 10mio GPUs für Gaming verkauft werden würden, 0 Einfluss. Fuer den Durchschnitt ist nur relevant wie viel Karten für Datacenter verkauft werden außer beide hätten die selben Herstellungskosten, dann wäre es wieder proportional. Aber wenn die Karten im Schnitt sowohl in der Herstellung als auch Verkauf deutlich teurer sind spielt das für den Durchschnitt bei GPUs eine deutlich geringere Rolle.

Aber das Grundprinzip scheinst du ab zu lehnen du glaubst das eine Einstiegskarte oder auch eine Mittelklassekarte gleich hohe oder ähnliche Marge hat wie eine 800-2000 Euro Luxusklasse. Das ist doch offensichtlich falsch. Das weiß man doch das in der Regel die Marge bei den teureren Karten groesser ist dafür die Stückzahlen kleiner als bei den kleineren Karten ich weiß nicht wieso du das anzweifelst du bringst eine Zahl von angeblichen 30% Marge die auch eher wenig darüber aussagt wie hoch die Marge bei 7900 XT(X) und co ist, du lehnst dann aber jegliche auch nicht perfekte Beweise ab die gegen deine These sprechen.

Wenn du selbst schwache Indizien bringst, ist es da nicht heuchlerisch andere nicht perfekte Indizien / logische Herleitungen ab zu lehnen besonders wenn das eigene gegen den Common sense ist, das nicht alle Leistungsklassen bei Grafikkarten die gleichen Margen haben werden.

Ich mein das ist BWL 101, das man ein Portfolio macht und bei den Entusiastenprodukten höhere Margen nimmt.

Und auch schon 2020 hatte 5nm ne bessere Yieldrate als 7nm:
https://www.anandtech.com/show/16028/better-yield-on-5nm-than-7nm-tsmc-update-on-defect-rates-for-n5

Es gibt zu viele Variablen, um das zu vergleichen, aber die basale Logik das Entusiastenprodukte hoehere Marge haben, sollte reichen um zu sagen das die Margen bei 7900XT vermutlich höher als 30% sind.
 
@CadillacFan77
Naja das ist ja schon und gut, dass du weißt was für mich spürbar ist und was nicht. Mir war nicht klar, dass man da noch drüber diskutieren muss, dass die 4070ti in RT besser da steht. Aber das hat dann auch kein Zweck, wenn wir schon beim Cherry Picking und subjektiven Meinungen sind, wo du schon besser weißt, was ich mit meinen Augen auf dem Bildschirm wahrnehme.

Alles was ich sagte ist im Rasterizer ist die 7900XT im Mittel sagenhafte 3% schneller und die Karten sind im Ranking direkt beieinander. In RT liegt aufeinmal auch die XTX unterhalb der 4070ti und der Abstand ist auf 18% im Schnitt gewachsen. Was davon ist der nennenswertere (ich vermeide jetzt spürbar) Unterschied?
 
Kuestennebel79 schrieb:
Teilweise. Sicher hat NVidia hier mit "motiviert". Aber es liegt hier auch daran, dass viele RT Effekte umfangreich genutzt werden. Also Beleuchtung, lokale und globale Schatten, Reflexionen.
Bei spielen wo nur einzelne Effekte genutzt werden, ist der Abstand nicht so groß.
Dann schau dir mal bitte die Performance der RX-7000-Karten im CB-Test bei Metro Exodus EE an. Für den Benchmark wurde bewusst die maximale Qualität "Extrem" gewählt. Die AMD-Karten sind hier ziemlich stark, obwohl das Spiel ebenfalls im vollen Umfang auf Raytracing setzt...
 

Anhänge

  • Screenshot_20230313_181548_Chrome.jpg
    Screenshot_20230313_181548_Chrome.jpg
    1 MB · Aufrufe: 105
  • Screenshot_20230313_181415_Chrome.jpg
    Screenshot_20230313_181415_Chrome.jpg
    1 MB · Aufrufe: 114
  • Screenshot_20230313_174805_Chrome.jpg
    Screenshot_20230313_174805_Chrome.jpg
    873,2 KB · Aufrufe: 104
Zuletzt bearbeitet:
Also bei Metro sind mir keine umfangreichen Reflexionen aufgefallen. Bei CP77 spiegelt ja alles, die Autoscheiben etc.
Bei Metro wurde etwas getrickst, teilweise SSR mit verwendet.

https://www.hardwareluxx.de/index.p...tion-ein-blick-in-die-raytracing-zukunft.html

Aber ja, CP77 wurde sicher eher für NVidia optimiert. Hatte ich auch nicht bestritten. Allerdings gibt es eben auch den Zusammengang zwischen vielen RT Effekten und AMD Schwäche.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
blackiwid schrieb:
Hast du irgendwelche Hinweise das dauerhaft dort die Kosten höher sind, klar die Erstinvestitionen sind höher oder liegen weniger weit zurück, aber letztlich ist es doch nur ne Frage wann die Maschinen abgeschrieben sind, danach der Stromverbrauch sollte der Gleiche sein, die Anzahl der Arbeiter an den Maschinen auch der Gleiche.
Link angeklickt, Text gelesen? Alleine die 5nm Wafer sind 60% teurer als die 7nm Wafer. Das sind die Rohstoffe, die zur Produktion gebraucht werden. Ich rede gar nicht von Maschinen oder Arbeiter, diese dürften in der Tat gleich sein.
blackiwid schrieb:
Ich behaupte ja nicht das meine Überschlagungen auf den Cent richtig sind, es kann sowohl leicht geringer oder höher sein, aber du scheinst einfach das Grundprinzip ab zu lehnen, obwohl das eigentlich common Sense ist, die Rechnung ist nur ne Beispielrechnung, du vermischt zeug du sagt die Marge im Durchschnitt ist X bringst dann aber den Umsatz von Datacenter, obwohl der Umsatz fuer den Durchschnitt irrelevant ist, was da zählt ist die ANZAHL.
Ich hab Deine Rechnung ja nur weitergeführt mit den 60% Aufschlag der Wafer. Alles andere hast Du berechnet und da sehe ich auch keine Differenzen - sprich ich stimme Deiner Rechnung zu, das Einzige was ich ergänzt habe sind die teureren Wafer (Quelle gemäss dem Link in dem Post)?

blackiwid schrieb:
Es könnte also auch sein das die übertreibe gesagt 5 GPUs an Datacenter verkaufen mit 1000% Marge, das hätte auf die Durchschnittsmarge wenn 10mio GPUs für Gaming verkauft werden würden, 0 Einfluss. Fuer den Durchschnitt ist nur relevant wie viel Karten für Datacenter verkauft werden außer beide hätten die selben Herstellungskosten, dann wäre es wieder proportional. Aber wenn die Karten im Schnitt sowohl in der Herstellung als auch Verkauf deutlich teurer sind spielt das für den Durchschnitt bei GPUs eine deutlich geringere Rolle.
Hier reden wir aber von nVidia und nicht AMD mit der RX6600. Da vermischt Du was.
Aber auch bei nVidia wirds ähnlich aussehen, ADA ist ja sogar in 4nm, entsprechend sind die Wafer noch teurer, jedoch ist z.Bsp die vergleichbare 4070 Ti relativ klein in Fläche (295mm²) und sollte eigentlich günstiger zu produzieren sein.

blackiwid schrieb:
Aber das Grundprinzip scheinst du ab zu lehnen du glaubst das eine Einstiegskarte oder auch eine Mittelklassekarte gleich hohe oder ähnliche Marge hat wie eine 800-2000 Euro Luxusklasse.
Das habe ich nie behauptet. Ich sprach nur vom Schnitt bei nVidia und das Forderungen nach 50% Preissenkung einfach unrealistisch sind.
blackiwid schrieb:
Es gibt zu viele Variablen, um das zu vergleichen, aber die basale Logik das Entusiastenprodukte hoehere Marge haben, sollte reichen um zu sagen das die Margen bei 7900XT vermutlich höher als 30% sind.
Wie Deine eigene Rechnung beweist (anhand 15% Marge bei der 6600XT) stimmt das eben zumindest bei der 7900XT nicht, da diese - rechnet man die teureren Wafer und die grössere Dies ein - eben auch bei ca. 15% Marge liegt anhand des aktuellen Marktpreises. Oder aber die Marge ist auch bei der 6600XT höher/tiefer, das Verhältnis bei den Karten ist aber relativ 1:1 mit nur wenig Abweichung.
Ergänzung ()

Poati schrieb:
@CadillacFan77
Alles was ich sagte ist im Rasterizer ist die 7900XT im Mittel sagenhafte 3% schneller und die Karten sind im Ranking direkt beieinander. In RT liegt aufeinmal auch die XTX unterhalb der 4070ti und der Abstand ist auf 18% im Schnitt gewachsen. Was davon ist der nennenswertere (ich vermeide jetzt spürbar) Unterschied?
Ich habe immer gesagt, die Karten sind gleichwertig von der Performance her, weil man 10% oder weniger nicht merkt. Daher ist RT Leistung bei der 4070 Ti im Vergleich zur 7900 XT nicht "signifikant beser", weil im Schnitt bei RT Games (siehe Igors Lab, CB, PGHW etc) eben nur etwa 10% drin liegen. Und bei Rasterizer ist es andersrum.

Ergo: Die Karten geben sich nix, weder in Raster noch in RT, wobei der Vorteil der 4070 Ti in RT bissl höher ist, aber immer noch so klein, dass der Unterschied nicht zu merken ist.

Zwischen 4080 und 7900XTX liegen hingengen 25-30% bei RT und das merkt man in jeder Lebenslage. Und darum ist die 4080 im Vergleich zur 7900XTX auch die deutlich bessere Karte wenn man 1200€+ ausgeben will.


@Kuestennebel79

Man könnte auch Hogwarts Legacy anschauen, dort werden auch alle RT Effekte genutzt und der Unterschied ist minimal zwischen den Karten.
 
Zuletzt bearbeitet:
CadillacFan77 schrieb:
Man könnte auch Hogwarts Legacy anschauen, dort werden auch alle RT Effekte genutzt und der Unterschied ist minimal zwischen den Karten.
"RT All" auf 4k gibt es 45% Vorsprung der 4080 gegenüber der 7900xtx sind jetzt mal nicht "minimal" :-)

edit: https://www.computerbase.de/2023-02...st/#abschnitt_raytracing_kostet_viel_leistung
Ergänzung ()

Dazu ein meiner Meinung nach sehr gut funktionierendes Frame Generation (ich habe keine Grafikfehler bemerkt .. die muss man schon explizit suchen) dann hast Du mit der 4080 mal eben fasst doppelt so viele FPS.

Ja FSR3 kommt bald .. bin auch gespannt, wie AMD das ohne AI machen will.
Ergänzung ()

Fakt ist. FG ist seit Release verfügbar, in einigen Grafikkrachern, bspw. CP77, WitcherNG, Hogwarts
Ergänzung ()

Will keinem die AMD GPU schlecht reden, nur man muss das schon anerkennen, wenn grün bestimmte Dinge einfach besser kann. Hatte selber lange eine Vega56 und die wurde mit der Zeit immer besser, vielleicht wird das mit der 7900xt (xtx) auch noch. Ich finde, man kann die AMD Karten schon empfehlen, sollte aber bei den Details korrekt bleiben.
 
Kuestennebel79 schrieb:
"RT All" auf 4k gibt es 45% Vorsprung der 4080 gegenüber der 7900xtx sind jetzt mal nicht "minimal" :-)

edit: https://www.computerbase.de/2023-02...st/#abschnitt_raytracing_kostet_viel_leistung
Ergänzung ()

Dazu ein meiner Meinung nach sehr gut funktionierendes Frame Generation (ich habe keine Grafikfehler bemerkt .. die muss man schon explizit suchen) dann hast Du mit der 4080 mal eben fasst doppelt so viele FPS.
Sorry, ich sprach von 7900XT vs 4070 Ti. Da verhält es sich anders.

Was de RT Leistung 7900XTX vs 4080 betrifft habe ich ja schon erwähnt, dass diese in der Tat signifikant ist und daher die 4080 die bessere Karte ist.
 
Zurück
Oben