News AMD Radeon RX 7900 XT(X): Custom-Designs sollen später und teurer folgen

frank00000 schrieb:
Welcher niedrige Preis?

Die UVP ist schon völlig überteuert genau wie die von Nvidia.

Das sind Karten die maximal in die 500€ - 800€ Kategorie gehören.
Willkommen in 2022/23 einfach damit zurecht (oder auch nicht, dann halt nicht kaufen) kommen, das wir speziell in Europa keine Preise von vor 2019 mehr sehen werden bei neuen Produkten.
 
4to cka3al schrieb:
Da interessieren mich die GPU Preise nicht. Der Rechner bleibt aus. Und Home Office ist auch vorbei.
Bitte versteh das nicht falsch. Aber so knapp auf Kante kann man doch bis jetzt gar nicht gelebt haben das einem die neuen Strompreise fast in den Ruin treiben?? Denn anders verstehe ich deine Aussage irgendwie nicht.



Das man eine 7900XTX sowieso nicht für 999€ bekommt sollte jedem klar sein, auch als "FE" nicht.
 
  • Gefällt mir
Reaktionen: shaboo, Öcher Tivoli und MrWaYne
Pisaro schrieb:
Bitte versteh das nicht falsch. Aber so knapp auf Kante kann man doch bis jetzt gar nicht gelebt haben das einem die neuen Strompreise fast in den Ruin treiben?? Denn anders verstehe ich deine Aussage irgendwie nicht


Natürlich nicht ich neige zum dramatisieren.
 
  • Gefällt mir
Reaktionen: shaboo, scheru, rumpeLson und eine weitere Person
_Aqua_ schrieb:
Im VR-Bereich kann man nicht genug Leistung haben. Schwanken die FPS etwas zu viel, wird dem Spieler schlecht. Im wahrsten Sinn des Wortes.
Man hat zwar eine schon eine Menge Tricks erfunden, um hier zu wenig Leistung zu kompensieren, aber nichts schlägt es, die VR-Brille bei der max. darstellbaren FPS-Zahl "festzunageln".
Welche VR Brille / VR Game braucht eine 4090 oder 4080?
 
blackiwid schrieb:
Welche VR Brille / VR Game braucht eine 4090 oder 4080?
Keine Ahnung ob es nicht auch mit einer 30er Serie funktioniert, da ich die übersprungen habe, aber meine Reverb G2 mit 90hz und 4k Gesamtauflösung knabbert auch an der 4090 ganz gut.
Und als Paradegame: Microsoft Flight Simulator.
 
Ich freue mich auf die Custom-Karten und würde unter 1.000€ für eine 7900 XTX zuschlagen. Ich weiss dass dieser Preis so schnell nicht erreicht wird, aber ich muss auch nicht vorher kaufen.

Ich habe mir einen Acer 32 Zoll 4K 144hz IPS zugelegt und die 6900XT kommt da richtig ins Schwitzen, aber Regler leicht nach links und es passt.

Es sind gute Nachrichten, dass sich die 4080 nicht verkauft, das wird den Preis drücken, auch bei den AMD Karten.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
rumpeLson schrieb:
Moment aber das ist doch faktisch falsch? Die 4080 ist schneller als die 3090 TI und verbraucht weniger Strom und die 4090 ist viel schneller bei ähnlichen Verbrauch. Oder definieren wir Effizienz anders?
Isses halt nicht.. Schau dir dazu bitte die Flops pro Fläche mal bei 3DC an.. IPC sinkt und das wird durch Takt kompensiert.

@MortyMcFly
Schau dir mal an, wie viele Recheneinheiten und welche zugrunde Legende TFLOPS Rohleistung vorhanden ist... Es ist logisch, dass ein breites Design weniger Energie verbraucht, aber Effizienter ist es eben nicht wirklich. Das ist ja das traurige an der Sache..

Nimm die 4080 meinetwegen und die 3090Ti...
Die 3090Ti hat 40Tflops
Die 4080 hat derer ~50, aber sie hat auch 700 MHz mehr Takt

Angesichts der Rechenwerke sind beide mehr oder minder Vergleichbar..
~10000, wobei die 4080 derer 9700 hat, aber auch fast 46Mrd Transistoren.
Also eigentlich müsste die 4080 besser skalieren, das tut sie aber nicht.
Also muss das Fazit sein, dass die IPC Rückläufig ist, gleiches beobachte man schon bei Turing zu Ampere.
Nvidia geht in die Breite und stagniert in der IPC.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Flops pro Fläche
... ist keine Masseinheit für Effizienz. :)

Das ist immer noch Performance pro Watt.
 
  • Gefällt mir
Reaktionen: Taxxor, shaboo, Wichelmanni und eine weitere Person
@MortyMcFly
Du solltest IMMER die Breite des Designs berücksichtigen.. Ein Takt zu Takt Vergleich wäre sicher spannend..
Turing hat halt eine sehr hohe IPC damals gehabt..
Der traurige Fakt ist leider, Nvidia braucht mehr Transistoren, um die gleiche Arbeitsleistung zu erfüllen.. Das kann vermutlich mit der Breite des Designs verbunden sein..

Die 100.000€ Frage ist: Sind es bei AMD wirklich 12000 SP oder aber rechnet AMD nun wie damals bei Ampere Launch die ALU doppelt. Denn dann würden da nur 6100 Logic Shader Processors bestehen.. Und damit wäre die 7900XTX am Ende stark in der IPC gestiegen.
 
@Rockstar85
Mögen alles interessante Details sein. Haben aber mit der Effizienz nichts zu tun. :)
Und ein Takt zu Takt Vergleich sagt bei verschiedenen Architekturen genau so viel aus, als würdest du die Anzahl Shader vergleichen wollen. Das passt nicht.
 
  • Gefällt mir
Reaktionen: shaboo, Wichelmanni, MrHeisenberg und eine weitere Person
Doch, weil Nvidia an der Grundstruktur der Architektur eben nichts verändert hat..
Es sind bis heute die Variablen Shaderprozessoren wie es sie im G80 gab...

Ich klau mal aus dem 3DC:

Originalwerte CB AVG Raster 5120 x 2880 fp32
4090 FE – 100 fps – 2,75Ghz – 16.384SPs ~ 90,11 Tflops fp32 – 0,9011 Tflop 32/frame – 432W – 4,32W/fps – 23,14fps pro 100W
3090 Ti – 61,6 fps – 1,95Ghz – 10.752SPs ~ 41,93 Tflops fp32 – 0,6806 Tflop 32/frame – 463W – 7,51W/fps – 13,30fps pro 100W
6900 XT – 50,5 fps – 2,25Ghz – 5120SPs ~ 23,04 Tflops fp32 – 0,4562 Tflop 32/frame – 296W – 5,86W/fps – 17,06fps pro 100W

Ich denke damit ist es ersichtlich. Für die massive Anzahl an Transistoren sind das eig zu wenig Frames.. Gerade weil Nvidia ja mit anderen Zahlen wirbt.
Das Thema wurde schon mehrfach im 3D Center angesprochen... Wir reden zum Teil von 70% mehr Transistoreinsatz für die gleiche Leistung.. Das ist mehr als nur Strange, gerade im Vergleich zu Turing.
 
@Rockstar85
Genau, mit deiner Liste ist ersichtlich:
Die 4090 ist knapp 95% effizienter als die 3090 und ca. 33% effizienter als die 6900XT. Genau das steht da bei dir.
Leistung pro Watt halt.

Egal, das führt zu nichts, nichts für ungut, ich klink mich da aus. :)
 
  • Gefällt mir
Reaktionen: shaboo, Wichelmanni und MrHeisenberg
@MortyMcFly
Ich sagte es mehrfach.. Turing und Ampere.
Dass ein um 60% größerer Chip am Ende mehr Leistung hat pro Watt, ist nichts neues.. Warten wir mal die 41 TFLOPS der 4070 ab, dann gibt es quasi Belastbare Zahlen.
Witzigerweise würde AMD selbst nur mit 50% mehr Leistung pro Watt dann wieder in Führung gehen.. Wobei man bei der Berechnung klar ausklammern muss, dass es die Worst Case Werte sind und wie du sagtest, die 4090FE bei 300W nicht viel Leistung einbüßt..
AMD ist jedoch mit einem Bruchteil der Leistung bei 73% der Rasterleistung einer 4090... Und das ist irgendwie schon erschreckend.. (wir reden hier von 25% der Rohleistung)


https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13136919&highlight=FLOPS#post13136919
Ach und die Effizienz kommt durch den Fullnode, also das ist kein Hexenwerk.
Ich denke, am Ende wird es so kommen, wie Igor schon sagte.. Und das witzige ist, dass AMD dafür nur einen Halfnode nutzt.
 
Zuletzt bearbeitet:
@Rockstar85
Du bist da bestimmt ner spannenden Sache auf der Spur. Mit dem üblichen Verständnis von Effizienz hat das aber nichts am Hut. Und so läuft man (wie hier geschehen) nur Gefahr aneinander vorbei zu reden.

Wenn wir Rasterleistung pro Transistorenzahl betrachten, macht Nvidia quasi alles falsch. Nvidia investiert immer mehr Fläche und Transistoren in Dinge, die fürs Rastern komplett egal sind. Unter der Betrachtung ist AMD besser unterwegs, auch weil man die DX 12 Ultimate Anforderungen u.a. wegen der Konsolen mit möglichst wenig Fläche erfüllen möchte.

Aber das zeigt halt eben, dass die Anforderungen an eine moderne Grafikkarte deutlich vielfältiger als nur Rastern sind. Ansonsten hätte man im Kern wohl einfach bei Pascal und RDNA 1 bleiben müssen.

Übrigens bei der Effizienzbetrachtung ebenfalls zu berücksichtigen: Die 3090 FE hat 2 Stromanschlüsse, die 4090 FE aber nur einen. Damit ist die 4090 doch doppelt so effizient.
 
  • Gefällt mir
Reaktionen: Enyo79 und MrHeisenberg
@rumpeLson
Nein eben nicht.. siehe Rechnung
Und wie gesagt wir reden hier immer noch von Samsungs N8 zu TSMCs Optimierten N5.. Also Fullnode, bzw 2 Processingsprünge..
Es ist halt Tatsache, die "IPC" Stagniert bei NV und es wird spannend, wie stark AMD durch den IF Cache hier Stagnation erlebt, denn wie du richtig sagtest, werden die GPU in Zukunft immer Universaler werden. Dennoch erklärt es halt nicht solche Einbrüche, was aber am SI bei NV liegen könnte und durch Takt kompensiert wird.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13136394&postcount=4033

Ach über die 28% über 4090 reden wir nicht (3.2Ghz erachte ich als nicht haltbar), die haben sich nicht bewahrheitet.. Also hat auch AMD eine Stagnation der "IPC".. Die Preisfrage ist hier, wie gut der Takt einer nennen wir sie mal 7900XTX TUF das kompensiert. Eine 3090 hat ~35 TFLOPS und dann kommt die 4090 nur auf ~72% Zuschlag?
Von der Transistorzahl sind beide x90er Modelle ja vergleichbar.


Und der Stecker der 3090 FE hat 3 Stecker a 150W... Die 4090 könnte 600W verbraten
Nur mal so.

https://www.semianalysis.com/p/ada-lovelace-gpus-shows-how-desperate

Ja das sind alles Theoretische Werte, aber AMD kommt am Ende auf ~61 Tflops und wenn man die 35 Tflops der 3090 mit den 20,6 TFlops der 6900XT in Vergleich setzt, kommst du auf ein Index von 1,69
Also würde AMD mit 61 TFlops bei 103Tflops von Nvidia rauskommen.. dass dem nicht so ist, wissen wir ja nun dank der Benches.. Also sind wir bei irgendwo um Faktor 1,3..Wir kämen damit dann auf ein Äquivalent von ~80Tflops bei NV und wären wieder bei 85-92% einer 4090 Fe... Klar?
Und ich rechne nun nicht das auf die 355W TBP aus, das kann denke ich jeder selbst.. Und hier sei wieder angemerkt, dass es nur ein Halfnode ist.

Das Rechenspiel kann man übrigends auch auf die 4080 anwenden und mit der 3080 vergleichen.. Es bleibt am Ende bei einem zum Teil massiven "IPC" Draw.
3080 10GB 68,9% 4K Index bei 29,8 TFLOPS
4080 100% 4K Index bei 48,7 TFlops

Wizigerweise beide bei gleicher TDP
Also ~30% mehr Leistung bei dem Leistungindex von 1,63
Also 60% mehr Transistoren (FP32 Performance), aber nur ~30% mehr 4K Leistung

Wenn ich nen Rechenfehler habe, gerne korrigieren, aber ich find halt keinen.. :/
 
Zuletzt bearbeitet:
Marcel55 schrieb:
mittelfristig wird man fürs gleiche Geld mehr Leistung bekommen als mit der alten Generation, alles andere wäre ja witzlos
Na gut, das stimmt im Prinzip noch, aber wenn die Einstiegspreishuerden immer hoeher angesetzt werden und fuer immer mehr Fragmentierung und Aussteiger im PC Gaming sorgen wird, ist das auch keine Loesung und darauf laufen wir leider aktuell schon eine Weile zu.

Ich habe mir auch lange ueberlegt, ob ich mir jetzt fuer diesen Abverkaufspreis (unter 650 Euro) eine RX 6800XT kaufen soll (da ich noch nie zuvor so viel Geld nur fuer eine Grafikkarte ausgegeben habe und das nicht einfach einzusehen ist), aber guenstiger wird man diese (und die RX 6800) 16GB Grafikkarten wohl erst einmal nicht mehr in Zukunft bekommen, wenn die Entwicklung so wie in den vergangenen Jahren weitergeht.
Zudem glaube ich nicht mit den naechsten GPU-Generationen (RDNA3, Lovelace, usw.) grossartig Mehrwert im Hinblick auf Spielspass zu bekommen bei den absehbaren Preisen und der langsamen RT-RT Entwicklung, zumal durch FSR werden die RDNA2 Karten voraussichtlich auch lange halten werden (wenn die Hardware mitmacht).

Es geht doch zunehmend nur noch um Prestige und das Austesten des optisch Machbaren egal zu welchen Kosten, den breiten Grafikkartenmarkt sehe ich schon lange vernachlaessigt und die Leute lassen sich auch nicht mehr zu diesen absurden Preisen zwingen und steigen um oder aus.

Eine Mehrheit der Publisher/Entwickler wird vermutlich auch bei maximal RDNA2 und Ampere GPU-Generation-Kompatibilitaet lange haengen bleiben und nicht grossartig Ressourcen in RDNA3 oder Lovelace Features (gibt es ja auch kaum) investieren, denn der Markt der Early Adopter und Hobby-Enthusiasten mit den neuesten High End Karten ist viel zu klein, um relevant zu sein und selbst mit ueppigem nVidia Sponsoring ist das noch fragwuerdig da kuenstlich forciert bzw. an der Realitaet mittlerweile vorbei.

Hinsichtlich den jetzt veroeffentlichten und kommenden Grafikkarten-Generationen bin ich arg skeptisch aus Kundensicht, denn den Mehrwert sehe ich nicht mehr, zumal das Marketing von nVidia und AMD/RTG sich jetzt schon viel aus den Fingern saugen muss, um noch Leute fuer einen Kauf zu diesen angesetzten Summen zu begeistern.

Irgendwann gibt es aber Stagnation/keinen lohnenden Mehrwert und weit davon sind wir nicht mehr entfernt, zumal man RTX 4090 Leistung fuer was genau als Gamer (welche neuen Features oder nur unausgereifte Upgrade-Features wie DLSS3.0?) braucht oder beworbene/vermarktete Aufloesungen fuer die es eigentlich noch keine Monitore zu halbwegs erschwinglichen Preisen gibt und das mit einem betagten Display-Port Standard.

Mir geht diese mit RTX eingefuehrte Vorausbezahlungs-/Aufpreis-Kundenpolitik fuer zukuenftige Features - oft noch in Entwicklung (Stichwort: der Kaeufer als Beta-Tester) - gehoerig auf den Keks und viele sind mit Sicherheit nicht bereit sich mit so einer miesen Tour durch den Kakao ziehen zu lassen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wichelmanni und Rockstar85
Ja das ist auch einer meiner Hauptkritikpunkte @Chismon .
Deswegen bin ich auch sehr gespannt, ob FSR 3.0 daran endlich was ändert... Vom Prinzip her dürfte die GPU am Ende die 4080 klar schlagen und Dabei wohl auch billiger sein.

Man sieht es derzeit gut an dem 7600X der billiger ist als der 13600KF und im Schnitt auch nur 5% langsamer ist. AMD muss halt derzeit am Preis was machen, aber das müsste Nvidia eig bewegen, die Preise zu senken.. Ich hoffe mal zum Januar, dann sollten auch 7900er gut verfügbar sein.
 
  • Gefällt mir
Reaktionen: Chismon
Pisaro schrieb:
Bitte versteh das nicht falsch. Aber so knapp auf Kante kann man doch bis jetzt gar nicht gelebt haben das einem die neuen Strompreise fast in den Ruin treiben?? Denn anders verstehe ich deine Aussage irgendwie nicht.



Das man eine 7900XTX sowieso nicht für 999€ bekommt sollte jedem klar sein, auch als "FE" nicht.
Na dann du kaufst dir um 2 000€ eine GTX 4090 viel spass damit, wie du auch schon die Titan, Titan X etc. gekauft hast, ich hab lieber 26 000€ auf Kante für eine Mietkauf Wohnung.

Also wenn ich mich entscheiden muss zwischen Sozial Ghetto mit Hammer PC und ruhiger Wohngeged
22.500 € Anzahlung für eine Mietkauf, brauch ich nicht lang überlegen. Wohin mein Geld hin wandert:D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Chismon schrieb:
Na gut, das stimmt im Prinzip noch, aber wenn die Einstiegspreishuerden immer hoeher angesetzt werden und fuer immer mehr Fragmentierung und Aussteiger im PC Gaming sorgen wird, ist das auch keine Loesung und darauf laufen wir leider aktuell schon eine Weile zu.
Die Zukunft des "PC Gaming" sind Geräte wie Steam Deck und vergleichbare Notebooks.

Dedizierte Grafikkarten sind schon lange etwas für Miner und Enthusiasten in einer winzigen Nische mit Stückzahlen im Hunderterbereich.
 
Wechsler schrieb:
Dedizierte Grafikkarten sind schon lange etwas für Miner und Enthusiasten in einer winzigen Nische mit Stückzahlen im Hunderterbereich.
Quatsch, alleine die Verkaufszahlen der 4090 sind sechsstellig, und das beim Teuersten und Exklusivsten, das du derzeit Gaming-mäßig für Geld kaufen kannst. Kann man nicht mal wenigstens fünf Minuten nachdenken, bevor man völligen Unsinn schreibt? :rolleyes:
 
  • Gefällt mir
Reaktionen: MortyMcFly und Chismon
Zurück
Oben