News AMD Radeon RX 7900 XT(X): Custom-Designs sollen später und teurer folgen

shaboo schrieb:
Kann man nicht mal wenigstens fünf Minuten nachdenken, bevor man völligen Unsinn schreibt? :rolleyes:

DAS frage ich mich nicht nur im CB Forum...
 
Haldi schrieb:
Zu viel der alten Generation am Lager... die Preise brechen gerade ein, die bekommen alle Panik.
Find ich gut :schluck:
Klingt Asi, aber als Konsument war man in den letzten 2 Jahren dermaßen Gelackmeiert, da hab ich jetzt einfach kein Mitleid mehr:lol:

Mal in nächster Zeit die Preise für die alten im Auge behalten, dann gibts vielleicht doch wieder eine 6000er
 
  • Gefällt mir
Reaktionen: Haldi
Sehr interessant - habe nun ca. zwei Drittel des Threads durch und nicht einen konkreten Hinweis gefunden, dass man irgendwie Ankündigungen über die Mittelklasse vermißt.
Da werden ganze Marktanalysen ausschließlich auf Grund der teuren High-End-Modelle abgegeben ... und man hat das Gefühl die Interessenten denken, das ist der Kern, worum es geht.

Sorry, wenn ich Euch mit der Realität nerven muss, aber weit mehr die Hälfte, ziemlich sicher weit mehr als zwei Drittel aller PC Gamer werden kaum mehr als 500 Euro für ne Grafikkarte ausgeben. Ihr seit eine kleine Minderheit. Und zwar die Minderheit, die am ehesten mit sehr hohen Preisen konfrontiert wird.

Sehr spooky ist dann hier auch die teilweise Behauptung, dass die Inflation vor allem an der Lieferkette und somit Covid, etc liegt. Dabei gibt es seit über einem Jahr Belege, dass viele globale Konzerne die Preise auch aus Shareholder-Interesse erhöht haben, was man schlicht an vielen Gewinnmeldungen sehen kann.

Mir selber ist wirklich wurscht wie teuer diese absurden Karten sind. Wer sich sowas kauft, sollte wissen, dass er zur "ersten Klasse" der Kunden zählt, die geschröpft werden. Sieht man ja auch z.B. an unserem Gesundheitssystem. Privatpatienten kommen zwar sofort dran, müssen aber höllisch aufpassen, dass sie keine Behandlung kriegen, die völlig sinnlos ist (als ich kurze Zeit privat versichert war wollte mir ein Urologe gar nen Leistenbruch "verkaufen" - hatte gar keinen, sondern nur Stress-Symptome).

Und ja - das ist unsere "Marktwirtschaft". Preisfindung geht vom Hersteller aus. Die gucken halt, was geht. Und wir müssen entscheiden, was nicht geht.

Die 4080 wird ja offenbar schlecht gekauft. Bin Mal gespannt wie das mit den garantiert nicht viel günstigeren 7900er Karten sein wird.
 
  • Gefällt mir
Reaktionen: 8BitsGotBite, simosh und Chismon
@Booth
Gerade im Bereich unter 500€ lohnt es sich doch aktuell auf die aktuelle Generation zu schauen. Die 6700 XT und die 6800 sind da doch ziemlich stark unterwegs. Architekturell hat sich mit RDNA 3 ja nicht so viel getan, auf das man nun unbedingt warten müsste.
 
  • Gefällt mir
Reaktionen: Chismon
shaboo schrieb:
Quatsch, alleine die Verkaufszahlen der 4090 sind sechsstellig
Für ein Triple-AAA-Spiel wären solche Verkaufszahlen ein absoluter Mega-Flop, der die Einstellung des gesamten Franchise rechtfertigt.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Apocalypse
@Wechsler
Für Kugelschreiber wären die Zahlen ebenfalls furchtbar. Für Einfamilienhäuser und Sportwagen jedoch ein Traum.
 
  • Gefällt mir
Reaktionen: Hutzeliger und Wechsler
Wechsler schrieb:
Für ein Triple-AAA-Spiel wären solche Verkaufszahlen ein absoluter Mega-Flop, der die Einstellung des gesamten Franchise rechtfertigt.
Und was haben nun wieder AAA-Spiele mit der sinnfreien Aussage zu tun, Grafikkarten würden sich im Hunderterbereich verkaufen? :confused_alt:
 
  • Gefällt mir
Reaktionen: Hutzeliger
Die deutschen Verkaufszahlen der 4090er-GPUs sind ganz sicher nicht sechsstellig. Bei Mindfactory hat man 260 Stück einer Custom-Variante für 2.300 € verkauft und die 4080 liegen wie Blei in den Regalen, mit ein paar Dutzend Verkäufen.

Ein AAA-Spiel auf eine installierte Basis von ein paar hunderttausend GPUs weltweit zu portieren, ist eigentlich komplette Zeitverschwendung, wenn Konsolen eine installierte Basis von 100 Millionen erreichen.
 
II n II d II schrieb:
Okay, fassen wir mal selektiv die "News" der letzten Tage zusammen:

  • Die 4080 ist in vielen Varianten überall verfügbar.
  • Die Preise für die Custom Designs haben sich der UVP der Founders Edition genähert
  • Die Preise sollen aber bis Weihnachten wieder steigen
  • AMD Karten werden vor Weihnachten kaum verfügbar sein
  • Es wird nur eine kleine Auswahl an AMD Modellen geben
  • Die AMD Karten werden teurer als erwartet.

Wäre ich AMD Fanboy, ich schrie Komplott!
Der "AMD Fanboy" / NVIDIA Fanboy" weiß, komplott schreit man erst wenn test da sind und preise sich entwickelt haben.
4 Wochen vor weihnachten will keiner hardware kaufen, das war noch nie eine gute zeit...auch wenn aktuell die cpus im preis fallen und die 4080 günstiger als gedacht wird. Warten wir mal ab was AMD nach tests liefert und warten wir den Januar ab, bis der weihnachtshype vorbei ist und dann behaupte ich mal, das die preise erfreulicher sein werden als vor zwei jahren.
Bis dahin legen wir mal die mistgabeln unter den weihnachtsbaum, schieben die komplottgedanken zur seite und rufen lieber kompott und essen dieses auch ^^
 
  • Gefällt mir
Reaktionen: II n II d II
MrHeisenberg schrieb:
Habe ich bereits: 4090 371W avg. Verbrauch in 4K.
Die 7900XTX kann sich wie viel genehmigen? 366W?
Sie dürfte also, wenn sie 10-15% langsamer ist, max. 315-333W verbrauchen.
Du vergleichst einen Realverbrauch im Gaming (4090) mit einer bisher theoretischen max TDP (7900XTX). Das ist offensichtlich Quatsch.
TDP vs TDP wären es 450W vs. 355W.
Realverbrauch kennen wir nach den Reviews der 7900XTX.
 
  • Gefällt mir
Reaktionen: Rockstar85
baizer schrieb:
Du vergleichst einen Realverbrauch im Gaming (4090) mit einer bisher theoretischen max TDP (7900XTX). Das ist offensichtlich Quatsch.
Nein, aber ich gehe davon aus, dass der Verbrauch über 320W liegen wird und selbst wenn es nur 300W seien sollten, die 4090 verliert keine 10% Leistung, wenn sie auf 300W begrenzt wird. Sie ist also immer noch schneller und somit effizienter.

Die 6900XT hat eine TDP von 300W und reizt diese voll aus: https://www.igorslab.de/greift-amd-...t-mit-benchmarks-und-einer-technikanalyse/13/
Es ist also anzunehmen, dass sich die 7900XTX ähnlich verhalten wird.
Mit 355W bei 10-15% weniger Leistung ist sie also ineffizienter als die 4090 mit 371W.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
Ada basiert auf einem N4 Prozess, RDNA3 auf N5 (bzw. N6 für die MCDs). Dass AMD somit einen kleinen Effizienznachteil haben wird ist eigentlich logisch.

Die Ada-Karten sind auch sehr effizient wenn man sie nicht mit der Brechstange betreibt (was bei der 4090 quasi stock ist). Wie sehr AMD die Brechstange rausholt muss sich zeigen.

AMD kann evtl. durch das Chiplet-Design etwas wettmachen, allerdings kann es durch die benötigten Leitungen zu Verlusten kommen.

Ich gehe davon aus dass RDNA3 nicht ganz so effizient wie Ada arbeiten können wird. Spätestens mit UV wird die Leistungsaufnahme aber absolut in Ordnung sein.
 
Wechsler schrieb:
Die Zukunft des "PC Gaming" sind Geräte wie Steam Deck und vergleichbare Notebooks.
Ob aufgrund limitierter Kühllösungen oft throttelnde Handheldcomputerkonsolen wie das Steam Deck oder Gaming-Laptops da wirklich die Zukunft sind, ist ziemlich fraglich.

Zumindest bei mir hält sich die Spielfreude auf einem Laptop und Handheld etwas in Grenzen wegen des vergleichsweise kleinen Displays, der Gerätelautstärke und -wärme beim Gaming, der eng angeordneten für Gaming nicht optimalen Tastatur, der relativ begrenzten Grafikkartenleistung (ob der dGPU-Leistung oder mangels ausreichender Kühlung wegen), der durch Gaming insgesamt stärker verringernden Akkuleistung und -lebenszeit, der mittelprächtigen Soundlösung, etc.

Ja, dafür gibt es Mobiltät dazu, aber es bleibt ein halbgarer Kompromiss (ähnlich auch der Nintendo Switch), denn für viele (echte) Gamer bleibt das höchstens eine Ersatzlösung (auf Reisen, wenn beim Desktop PC etwas defekt ist und dieser ausfällt, usw.).

Von den immer noch sehr nischigen Verkaufszahlen eines Steam Decks (selbst im Vergleich zu nischigen Enthusiasten-dGPUs wie einer RTX 4090) möchte ich gar nicht erst anfangen ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
MrHeisenberg schrieb:
Nein, aber ich gehe davon aus, dass der Verbrauch über 320W liegen wird und selbst wenn es nur 300W seien sollten, die 4090 verliert keine 10% Leistung, wenn sie auf 300W begrenzt wird. Sie ist also immer noch schneller und somit effizienter.

Die 6900XT hat eine TDP von 300W und reizt diese voll aus: https://www.igorslab.de/greift-amd-...t-mit-benchmarks-und-einer-technikanalyse/13/
Es ist also anzunehmen, dass sich die 7900XTX ähnlich verhalten wird.
Mit 355W bei 10-15% weniger Leistung ist sie also ineffizienter als die 4090 mit 371W.
Die 4090 verhält sich anders als eine 3090, warum sollte sich dann eine 7900XTX genau wie eine 6900XT verhalten?
Wie gesagt, wilde Spekulationen zugunsten der 4090 von deiner Seite, sonst nichts. Einfach auf die Reviews der 7900XTX warten.
 
  • Gefällt mir
Reaktionen: Rockstar85
Eine 6900XT kann man problemlos mit 200 Watt (0,95V) bei ca. 5-10% Leistungsverlust betreiben. Da ist die Effizienz deutlich näher an den 40er Modellen dran. Was bei der 7900 XT(X) möglich sein wird, werden wir am 12.12. ab 15:00 Uhr erfahren. Die letzten 5-10% kosten 30%-40% extra (Verlust-)Leistung. Ist bei der aktuellen Hardware leider so.
 
  • Gefällt mir
Reaktionen: Guphoff, Haldi und baizer
GM206 schrieb:
Also wenn ich mich entscheiden muss zwischen Sozial Ghetto mit Hammer PC und ruhiger Wohngeged
22.500 € Anzahlung für eine Mietkauf, brauch ich nicht lang überlegen. Wohin mein Geld hin wandert
Ich auch nicht, denn man kann auch beides haben :)

Wobei ich persönlich nichts von einer Wohnung halte. Ich brauche keine Nacharn über und/oder unter mir. Das sieht aber jeder anders.
 
MrHeisenberg schrieb:
3D Centers Analyse ergibt 420W avg über viele Tests on 4K
https://m.3dcenter.org/artikel/laun...aunch-analyse-nvidia-geforce-rtx-4090-seite-3

Sorry bin nur am Handy
Marcel55 schrieb:
Ada basiert auf einem N4 Prozess, RDNA3 auf N5 (bzw. N6 für die MCDs).
Beides sind N5 Prozesse, da gibt es keine Vorteile
Ergänzung ()

JackDD schrieb:
Eine 6900XT kann man problemlos mit 200 Watt
Das ist ASIC = GPU + RAM, ohne VRM, Lüfter und andere Boardverluste
 

Anhänge

  • Screenshot_2022-11-25-12-39-42-66_984e1414ae90666a90f12ff17ec14a7f.jpg
    Screenshot_2022-11-25-12-39-42-66_984e1414ae90666a90f12ff17ec14a7f.jpg
    424,8 KB · Aufrufe: 118
Der grosse Abverkauf von RDNA2 ist in vollem Gange (ja, nicht fuer mittlerweile wohl ausgeduennte Topmodelle, aber immer hin Modele von XFX, MSI und ASRock) zu noch niedrigen Preisen/kleineren Margen (wie viel da am Ende an Marge fuer Haendler/Boardspartner noch bleiben wird, ist fraglich bei den teureren Leistungsklassen mit Navi31 Chips (ab RX 6800)).

1669376517772.png


Ob da Mitte kommender Woche gleich im Mindfactory auch RX 6800XT (ASRock) Karten um die 630 Euro herum im Angebot sein werden, wird man abwarten muessen, aber Phantom und Taichi Modelle sind dort jedenfalls vorhanden (aktuell noch zu hohen Preisen, da faehrt man mit den XFX oder auch den Powercolor Karten (sogar Red Devil Topmodelle haben die noch, aber wer weiss, wann die noch einmal guenstiger im Angebot sein werden) deutlich besser, wartet aber besser oder kauft in anderer Leistungsklasse ein).

Die XFX RX 6700XT (12GB) Karte fuer unter 400 Euro ist da schon aktuell das deutlich reizvollere/bessere Angebot:

Untitled.jpg
 
  • Gefällt mir
Reaktionen: baizer und Rockstar85
shaboo schrieb:
Quatsch, alleine die Verkaufszahlen der 4090 sind sechsstellig, und das beim Teuersten und Exklusivsten, das du derzeit Gaming-mäßig für Geld kaufen kannst. Kann man nicht mal wenigstens fünf Minuten nachdenken, bevor man völligen Unsinn schreibt? :rolleyes:
Stimmt..100.000 GPU mit im Schnitt 1500 USD machen sicher etliche Millionen R&D wett. Nicida macht das Geld im hpc Bereich und nicht mit 100.000 GPU

Schau dir die Preise einer a100 an, dann weißt du was los ist.
Ich kann da von dir gesagte, nur zurückgeben
 
Bei den schwindelerregend hohen Preisen der letzten und derzeitigen Grakas wird halt weiterhin meine GTX 1080 ihren Dienst in meinem Rechenknecht verrichten müssen. Noch reicht sie mir für die Games, die ich so Spiele (Hunt Showdown, Warframe, COD Warzone 2.0 usw.) vollkommen aus.
 
Zurück
Oben