News AMD Radeon RX 7900 XTX & XT: PowerColor Red Devil erstmals offiziell abgelichtet

Chilisidian schrieb:
Und 1.200 EUR für die Referenz ist auch eher Wunschdenken. Die Summe kommt ja alleine schon inkl. MwSt zu Stande. Dazu der Wechselkurs, 1.300 EUR sind eher realistisch.
Der Wechselkurs liegt aktuell wieder ziemlich bei 1:1 mit leichtem Vorteil für den Euro, also 1199€ für die Referenz könnten theoretisch schon drin sein.
Eine Red Devil sehe ich aber auch dann nicht unter 1400€
 
  • Gefällt mir
Reaktionen: Ernie75, Chismon und rumpeLson
Nur wenn man nicht berücksichtigt, dass der Euro in einem Jahr 20% an Wert verloren hat, ergo alle Produkte in Euro 20% mehr kosten müssen, um real dieselbe Marge zu haben, wie vor einem Jahr ;) Ist ja nicht umsonst so, dass Apple usw ihre Europreise deutlich erhöht haben aber die USD-Preise nicht.
 
body-mg schrieb:
Ich glaube die spinnen. Fast 4-Slots. Das ist meiner Meinung nach eine Fehlkalkulation, da einige es gar nicht ins Gehäuse bekommen.
Aber warum ist das eigentlich ein Problem? Länge, verstehe ich. Habe ein Silent Base und muss Festplattenkäfig für die 4090 verkleinern. Aber dicker tut ja nun wirklich in der Regel nicht weh?

Das Problem ist ja auch, dass die schmalen Karten niemand kauft. Ich hatte z.B. gerne 3080 Blower (ASUS Turbo, gibt aber auch eine fast baugleiche Giga) verbaut. War eine geile Karte für kleine Gehäuse. Mit ein bisschen UV sehr tauglich und die SPeicherkühlung gar besser als bei der FE. Im Wiederverkauf will die dann aber niemand mehr haben und die Verkaufszahlen waren so schlecht, dass es keine Nachfolger gibt.

Oder anders, plakativ: Ist wie beim Handy, alle schreien "kleiner" aber kein Arsch kauft das am Ende und daher wird es eingestellt. Gekauft wird 3kilo, 5 Slot Bling-Edition mit Tarnfolie.
 
Nice. Habe hier eine Red Devil 480 am Laufen - und sie macht bis heute ihre Sache gut. Vielleicht wird das ja das Upgrade.
 
  • Gefällt mir
Reaktionen: simosh
Chilisidian schrieb:
Nur wenn man nicht berücksichtigt, dass der Euro in einem Jahr 20% an Wert verloren hat, ergo alle Produkte in Euro 20% mehr kosten müssen, um real dieselbe Marge zu haben, wie vor einem Jahr ;) Ist ja nicht umsonst so, dass Apple usw ihre Europreise deutlich erhöht haben aber die USD-Preise nicht.
Wenn wir die gleiche Preisentwicklung wie bei der 4080 annehmen (1200$ -> 1470€), müsste die 7900 XTX bei 1225€ landen. Daher denke ich ebenfalls, dass die günstigen Modelle bei 1200€ einsteigen werden.
 
  • Gefällt mir
Reaktionen: Ernie75
Schmarall schrieb:
Nice. Habe hier eine Red Devil 480 am Laufen - und sie macht bis heute ihre Sache gut. Vielleicht wird das ja das Upgrade.
Die Red Devil sind einfach qualitativ unschlagbar, absolut. Selbst wenn die jahrelang gequält werden - durchpusten, weiter geht´s. Kann man sogar aus Minerbestand kaufen.
Vergleichbar meiner Meinung nach nur MSI.

Da kann der ganze Schrott von Inno3d, Zotac und ASUS einpacken. Spielt aber leider keine Rolle bei der Kaufentscheidung, da es eben nur um Blingbling und Namen geht und nicht um Haltbarkeit. Die meisten kaufen die Karten ja für max. zwei Jahre
 
  • Gefällt mir
Reaktionen: Schmarall
@DerRico Du hast doch selbst ne Zotac in der Sig? :D

Ich hatte bisher zum Glück mit keiner GPU Probleme. Die liefen alle bis zum letzten Tag.

Wobei, doch, meine Powercolor HD6850 hatte ab und zu ärger gemacht und den Dienst quittiert. Musste man Aus- uns wieder Einbauen dann liefs wieder.

Aktuell meine erste XFX im System. Was ich frech finde ist dass die Garantiebestimmungen außerhalb der USA und Kanada im Prinzip fürn Arsch sind. Habe ich vor dem Kauf nicht so drauf geachtet. Aber ich gehe einfach mal davon aus dass sie trotzdem 5+ Jahre halten würde - aber sicher nicht so lange in meinen Händen bleibt.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
@DerRico Du hast doch selbst ne Zotac in der Sig? :D
Gut aufgepasst :daumen:

Die war spottbillig und muss nur zocken, dazu 5 Jahre Garantie. Ich kann auch das meiste selber reparieren.
Im produktiven Einsatz niemals Zotac und empfehle es keinem, den ich mag
 
Die Rechnung ist relativ einfach.
Wenn man nach der UVP der RX7900XTX (999$) in Relation zur RTX4080 (1199$ / 1469€) geht,
dürfte die RX7900XTX bei uns in etwa 1200€ kosten.
Dafür bekommt man deutlich mehr Speicher (24GB vs. 16GB) und ein gutes Stück mehr Raster-Performance (so 15-20% werden es wohl schon werden.) + Displayport 2.1.
Auf der Kontra-Seite stehen ein gutes Stück weniger RT-Performance (so in etwa 20% dürften es schon werden) und möglicherweise einige Watt weniger Verbrauch, wobei ich davon ausgehe, dass sich die beiden Karten was Performance pro Watt anbelangt, in etwa auf Augenhöhe befinden werden.
 
  • Gefällt mir
Reaktionen: rumpeLson
Chilisidian schrieb:
Nur wenn man nicht berücksichtigt, dass der Euro in einem Jahr 20% an Wert verloren hat, ergo alle Produkte in Euro 20% mehr kosten müssen, um real dieselbe Marge zu haben, wie vor einem Jahr ;)
haben sie doch. Vor einem Jahr hätte die Karte 999€ gekostet, nun müssen es 1199€ sein um den gleichen Gegenwert zu den $999 wie letztes Jahr zu haben
 
Gerne auch mal wieder Dualslot, 2x8 Pin würde ich mir zumindest bei den 7800XT Karten wünschen.
 
Jawat schrieb:
@LTCMike Ja, "promising" aber die Realität sieht für Team Red schlecht aus.
Man merkt, dass du nicht so in der Materie bist.. Im Bereich der HPC Anwendungen ist es der Normalfall, dass man die Software auf die Hardware schreibt, Linpack dient da nur als gemeinsame Rechenbasis um Vergleichbare Werte zu schaffen (da kannste mal gucken wo AMD liegt, kleiner Tipp, vor Intel).. Du findest nicht einen HPC mit Windows, die sind alle auf Linux und der Sheduler ist dem von Windows Haushoch überlegen, wie etliche Tests zeigten.
Du argumentierst also mit einer Einzelbetrachtung, ja es ist richtig, dass die RTX40 auch für den Workstation Bereich genutzt werden, nur hat das NICHTs mit dem von dir genannten Einsatzfeld zutun.
Und ja im Workstation Bereich nutzt man konfektionierte Software.. Und warum da Intel und Nvidia benutzt wird, liegt an der Verbreitung und an dem "Support" der Hersteller.. AMD kämpft gerade da einen nicht Gewinnbaren Kampf. Immerhin ist man wohl SAP zertifiziert. Und nein, das hat NICHTS mit der Garantie zutun, die in den USA bei 6 oder 12 months liegt!

Sorry aber kommt von dir auch was gehaltvolles, oder fangen wir nun an die Threads voll zu spammen?

Zum, Topic:
Ich bin sehr gespannt, wie AMD die Partner GPU gestalten werden, da wie ja auch Igor anmerkte, die 355 W Nicht das maximum werden können.. Des weiteren bin ich sehr gespannt, ob es wieder ein Silent Bios geben wird, was ich angesichts einer 3-4 Slot GPU schon wegfallen sehe. Die Hellhound gefällt mir und ich freue mich auf die XFX Modelle und die Toxic Modelle.
Nichts desto Trotz werden die Karten langsam immer größer.. Wie diese dann noch in einen NR200 passen sollen, oder ein Dan Case, keine Ahnung.. War aber auch klar, als Intel den neuen NUC zeigte, wohin die Reise geht.
 
  • Gefällt mir
Reaktionen: simosh, rumpeLson, McTheRipper und eine weitere Person
Also ich bin richtig gespannt auf die Highend Custom Modelle mit 3x 8PIN. Ob die tatsächlich die 3Ghz Marke knacken können? Darauf lassen die massiven Kühler schon irgendwie schließen.

Wenn die normalen AMD Karten mit 2x 8PIN bei 2,4Ghz aufhören und ein deutlich schlankeres Design haben, könnte eine 3Ghz 7900XTX dann doch noch ein paar Meter auf Nvidia gutmachen.

Die Frage ist natürlich, zu welchem Preis?
 
xNeo92x schrieb:
Ich meine, warum müssen so viele Karten zu Release direkt OC sein? Warum nicht erstmal alles auf Standard belassen und nur eine bessere Kühlung verbauen?
Ich hab so ein seltsames Deju-vu Gefühl, falls ich dir gerade zum zweiten mal Antworte Entschuldigung. ;-)
Anyway, wahrscheinlich gibt es wieder auch ein Silent-Bios, ein Kipp-Schalter umgelegt und schon hast du was du willst.
 
@t3chn0
Es gibt erste Benches, die auch eher von 60 als 50% ausgehen .. Sollte die Normale Version schon das schaffen, wird es richtig Eng..
https://www.club386.com/amd-reveals...rks-up-to-67-per-cent-faster-than-rx-6950-xt/
Also selbst wenn die 67% das Best Scenario sind, dann wird sind wir Raster eben schon sehr dicht an einer 4090 auf den Fersen und wäre dann unter 10% Abstand zur 4090... Spannender fand ich ja die Meldungen zum Thema RT. Mit 82% mehr Leistung zur 6950XT ist man ja ziemlich genau bei einer 3090Ti bzw 4070
 
  • Gefällt mir
Reaktionen: rumpeLson und t3chn0
Interessant, dass hier von einigen so sehr auf die RedDevil geschworen wird.

Hmm, muss ich dann wohl oder übel doch in die Auswahl aufnehmen, eigentlich wollte ich ja nicht auf dreimal 8-Pin gehen...

Ich sag mal trotzdem Danke! ;)
 
  • Gefällt mir
Reaktionen: simosh
DerRico schrieb:
Aber warum ist das eigentlich ein Problem? Länge, verstehe ich. Habe ein Silent Base und muss Festplattenkäfig für die 4090 verkleinern. Aber dicker tut ja nun wirklich in der Regel nicht weh?

Das Problem ist ja auch, dass die schmalen Karten niemand kauft. Ich hatte z.B. gerne 3080 Blower (ASUS Turbo, gibt aber auch eine fast baugleiche Giga) verbaut. War eine geile Karte für kleine Gehäuse. Mit ein bisschen UV sehr tauglich und die SPeicherkühlung gar besser als bei der FE. Im Wiederverkauf will die dann aber niemand mehr haben und die Verkaufszahlen waren so schlecht, dass es keine Nachfolger gibt.

Oder anders, plakativ: Ist wie beim Handy, alle schreien "kleiner" aber kein Arsch kauft das am Ende und daher wird es eingestellt. Gekauft wird 3kilo, 5 Slot Bling-Edition mit Tarnfolie.
Nun ja, ich habe ein NZXT H1. Gut, das ist kein Maßstab. Aber viele haben ITX-Gehäuse. Mir gehts einfach um das übertreiben. Wenn AMD es schafft so klein zu bekommen, wieso muss es direkt so Fett im wahrsten Sinne sein?!
 
body-mg schrieb:
Wenn AMD es schafft so klein zu bekommen, wieso muss es direkt so Fett im wahrsten Sinne sein?!
Ich glaube, das Problem wird eher nicht das "schaffen" sein, sonder vor allem, das bei immer weiter sinkenden Margen [und auch Preisspielräumen?!?] der Customfertiger es einfach unternehmerisch notwendig sein wird ein gutes Design für "erwartete(!) 400-500 Watt" für alle AMD/NVidia Karten in dem angenommenen Leistungsbereich zu verwenden.
Siehe halt auch, die Kühler für die 4080er, welche ja die selben wie für die 4090er zu sein scheinen.

Ergänzung: Auch weil, ja wohl am Anfang eher mit 500 als mit 350 Watt gerechnet worden zu sein scheint, was ja die sehr kühlen aktuellen Nvidia Karten designs annehmen lasssen.
 
Zuletzt bearbeitet: (Ergänzung)
Zurück
Oben