News AMD Radeon RX 7900 XTX & XT: PowerColor Red Devil erstmals offiziell abgelichtet

Irgendwie fühlt sich das gerade alles so schleppend an. Vorgestellt Anfang des Monats, Release dann erst am 13ten Dezember. Und wie lange dauert es dann erst bis zu einer potenziellen 7600(XT) oder 7700?
 
mr_clark schrieb:
Ich glaube, das Problem wird eher nicht das "schaffen" sein, sonder vor allem, das bei immer weiter sinkenden Margen [und auch Preisspielräumen?!?] der Customfertiger es einfach unternehmerisch notwendig sein wird ein gutes Design für "erwartete(!) 400-500 Watt" für alle AMD/NVidia Karten in dem angenommenen Leistungsbereich zu verwenden.
Siehe halt auch, die Kühler für die 4080er, welche ja die selben wie für die 4090er zu sein scheinen.

Ergänzung: Auch weil, ja wohl am Anfang eher mit 500 als mit 350 Watt gerechnet worden zu sein scheint, was ja die sehr kühlen aktuellen Nvidia Karten designs annehmen lasssen.
Aber wir reden hier doch über die Topmodelle der RX7900XT*. Egal, ich bin gespannt auf die Zukunft. Die sollten man an der Effizienz arbeiten. Dann muss man evtl. weniger Wärme abführen.
 
Tornavida schrieb:
Na dann mal viel Spass beim Schwitzen,Prognose mind. 60W mehr als 4080 beim Zocken.

Sollte die Leistung über einer 4080 liegen, dann darf die Karte auch mehr Verbrauchen, macht die 4090 ja auch ggü der 4080.

Aber warten wir doch mal den Launch und erste Tests ab, bevor die nächsten Packungen Spekulatius aufgemacht werden.
 
  • Gefällt mir
Reaktionen: LTCMike, Rockstar85 und Onkel Föhn
@body-mg

Ohne Dir persönlich vor den Bug zu schießen, aber ich kann diesen "Die sollten an der Effizienz arbeiten" Kram nicht mehr hören.

Wenn man sich den 4080 Test hier auf CB auf 1440p anguckt, dann leistet die Karte 27% 1st Perzenzil mehr FPS bei dutzenden Watt [10-70] weniger echte Leitstungsaufnahme als ne 6900XT [um 300 Watt}.

Ich gehe mal davon aus, dass beide 7900er nicht mehr elektrische Leistung als die 6900er aufnehmen werden.

Um was effizienteres als deine [Signatur] OC 3080er zu bekommen kannst du also bereits heute auf die 6900XT umsteigen.

Und was mit signifikant weniger Leistungsaufnahme [200-250 Watt] und selber FPS Leistung kommt im ersten Halbjahr von beiden Anbietern. Weiß echt nicht was das Problem ist.
 
  • Gefällt mir
Reaktionen: DaBo87, Terminator-800 und bad_sign
MrHeisenberg schrieb:
Klar gibt es die, aber ich möchte vielleicht ein bisschen mehr als nur Tetris spielen ohne dafür eine Niere verkaufen zu müssen?

Kleiner Hinweis: Da ich diese Karte meinen Sohn in den Rechner gepackt habe. Er spielt damit so ziemlich alles (auf FHD) außer Tetris. Und beide Nieren hat er auch noch. Und ich finde es echt ganz gut, das die Karte nur 130W zieht -weil seine Stromrechnung bezahle ich.

t3chn0 schrieb:
Wenn die normalen AMD Karten mit 2x 8PIN bei 2,4Ghz aufhören und ein deutlich schlankeres Design haben, könnte eine 3Ghz 7900XTX dann doch noch ein paar Meter auf Nvidia gutmachen.

Die Frage ist natürlich, zu welchem Preis?

Richtige Frage/ bzw. Kommentar. Warum 3x 8pin? Weil irgendwo hatte ich doch gelesen, das AMD glaubte 3Ghz erreichen zu können. Vielleicht ist der "leakage current" des Prozesses/Designs bei hoher Temepratur ganz und gar nicht so wie AMD sich das vorgestellt hatte und auf Grund dessen hat man die Karte mit weit niedriger Frequenz in Sweetspot halten müssen. Wenn du mit "zu welchem Preis" meintest wie ineffizient die Karte wird ,dann wäre das auch meine Frage...
 
  • Gefällt mir
Reaktionen: simosh und t3chn0
HotteX schrieb:
Bei mir sind es genau 30cm. Bei RDNA 2 war schon das Problem, dass abseits der Founders nichts von Sapphire oder Powercolor in mein Case passt.
Bei Gigabyte waren es noch relativ kompakte Kartendesigns bisher und landet man wohl noch deutlich unterhalb von 30cm bei RDNA2 (Gaming OC RX 6800XT bspw.).
Ergänzung ()

kitschi01 schrieb:
ich verstehs weiterhin nicht wieso man bei AMD Karten von den exklusiven Boardpartnern, mit Ausnahme von ASRock, keine ordentliche Garantie bekommt wie im grünen Lager...
Ja, das ist mir auch unverstaendlich, zumal Kauefer in den USA und Kanada da teilweise unschoener Weise auch deutlich bessere Garantiebedingungen erhalten, siehe XFX ... da koennte sich AMD/RTG eigentlich etwas mehr ins Zeug legen und Boardpartner alle auf Linie bringen, aber das ist wohl nicht gewollt.

Die EU hat m.W. auch nicht vor den Verbraucherschutz zu verschaerfen in dem Bereich (auch wenn man hoert, dass etwa bei Haushaltsgeraeten Hersteller mit mehr Garantie und aus Gruenden der Nachhaltigkeit belohnt werden sollen), aber wer weiss wie sich das entwickeln wird und ob dann dazu fuehrt, dass energiehungrige Geraete vom Verkauf im EU Markt evt. ausgeschlossen werden koennten.
Bei einigen 4K/UHD und 8K Monitoren koennte das auch drohen.
 
Zuletzt bearbeitet:
Meine RX480 kann maximal 150 Watt verbraten, reicht für mich für Spiele bei 1440p (inkl. Cyberpunk). Ich will ja eigentlich schon lange aufrüsten, aber bislang war das sinnlos. Nun könnte es gehen, aber wir haben eine Energiekrise.
Sind moderne Karten zumindest im mixedverbrauch sparsamer?
 
Edelgamer schrieb:
Unterschied zwischen Ner Hellhound und der normalen Red Devil sein???
Du meinst vermutlich die Red Dragon, nicht die Red Devil, richtig? Denn die Red Devil ist das Topmodell und geht mehr Richtung Gaming-Enthusiasten, Extreme-OCer, Moddern oder evt. Gaming-Langzeitusern wegen des hochwertigeren Komponenten-Layouts.

Von einem Red Dragon Custom-Modell gab es bisher noch keine Photos und ja, die ist in etwa auf dem soliden Niveau der Hellhound angesiedelt, darunter gibt es dann evt. noch das minimalistische, Bling-Bling-lose Fighter Modelle fuer Einsteigerpreise, aber vermutlich dann erst bei den RDNA3 Einsteiger- und Mittelklassekarten.
 
Chismon schrieb:
Bei Gigabyte waren es noch relativ kompakte Kartendesigns bisher und landet man wohl noch deutlich unterhalb von 30cm bei RDNA2 (Gaming OC RX 6800XT bspw.).
Ergänzung ()
Ja waren Sie, aber Gigabyte ist bei mir auf Grund von sehr schlechten Erfahrungen bei AMD Karten raus. Wenn dann kaufe ich nur noch Sapphire oder Powercolor. Aber ich schiele ja eher Richtung der 6800er Karten, daher
einfach mal abwarten. Zudem laufen die Spiele die ich zocke mit der 2070s noch ordentlich.
 
  • Gefällt mir
Reaktionen: simosh
body-mg schrieb:
Die sollten man an der Effizienz arbeiten.
Dann ist die 4090 eigentlich genau richtig für dich. Man kann auf NVIDIA draufhauen (mach ich selber ab und an), aber diese Generation scheint einen ordentlichen Schritt nach vorne gemacht zu haben, man darf sehr auf die kleinen Modelle gespannt sein was die so an FPS/W liefern.
Könnte natürlich bei AMD ebenso der Fall sein, die 6800@Stock führte ja auch lange das Effizienzrating an.
 
Axxid schrieb:
525W! Ich bin endgluetlig absolut losgeloest vom aktuellen Grafikkartenmarkt.
Das ist nur das theoretische Maximum... Bisher meinten ja alle OC geht nicht viel... Was aber klar ist da AMD an das theoretische Maximum der 2x8 Pin ja schon sehr nahe ran ist - da sind vielleicht noch 10-20 Watt übrig da kommen dann nur plus 3% raus...
Wenn nun aber die Exklusivpartner (-und nicht nur die) nun solche Prügel zusammenschrauben - muss ja OC doch was gehen... Sonst macht das ganze ja überhaupt keinen Sinn...
 
Apocalypse schrieb:
Ich hab so ein seltsames Deju-vu Gefühl, falls ich dir gerade zum zweiten mal Antworte Entschuldigung. ;-)
Anyway, wahrscheinlich gibt es wieder auch ein Silent-Bios, ein Kipp-Schalter umgelegt und schon hast du was du willst.
Nope, hat sie nicht. Kein Kippschalter vorhanden. Nur dämliches RGB-Bling-Bling, welches ich eh nicht sehe, da kein Sichtfenster und mein Rechner unter dem Tisch steht.
Aber die Karte ist eh Silent. Selbst wenn ich in Cyberpunk alles hochdrehe und sie mit biegen und brechen nur 30 FPS schafft. Klar, die Lautstärke ändert sich etwas, aber nicht wie bei meiner alten MSI RX 580, wo man denken könnte, man wäre am Flughafen.
 
Nuklon schrieb:
Die AMD waren "nur" 5nm statt den 4nm von Nvidia. Die wollten aber auch nur die 4090 und 480 in 4nm bauen.
NV nutzt den von TMSC genannten 4N Node... das hat nichts mit 4nm zu tun...
 
Rockstar85 schrieb:
Also selbst wenn die 67% das Best Scenario sind...
Kann man dann konsequenterweise auch mit Worst-Case rechnen? Dann wäre die XTX nur knapp schneller als eine RTX 4080 (Raster Performance).

Ich bin skeptisch, was die AMD Marketingzahlen betrifft. Vielleicht zeigen die Reviews am Ende eine hohe Varianz der Performance?! Einige gehen übrigens genau davon aus. Also ja, spannend bleibt es auf jeden Fall.
 
Taxxor schrieb:
haben sie doch. Vor einem Jahr hätte die Karte 999€ gekostet, nun müssen es 1199€ sein um den gleichen Gegenwert zu den $999 wie letztes Jahr zu haben
Diese Betrachtung lässt doch aber die Umsatzsteuer außer Acht, oder nicht? Die Preisempfehlung in Dollar ist ja stets ohne VAT angegeben, die deutsche hingegen mit USt. Ergo wären wir (bei angenommener identischer UVP) vor einem Jahr bei ca. 1200 € (oder etwas weniger) gewesen, heute müssten es mehr sein. Ich glaube, da könnte @Chilisidian schon recht behalten.
 
Nein, vor einem Jahr waren $999 auch noch ~820€ wert, sodass man inkl Steuer auf ~1000€ raus kam.

Jetzt muss man für die $999 eben ~1000€ verlangen, womit man inkl Steuer auf ~1200€ kommt.

Genau das was er gesagt hat, dadurch dass der Euro 20% weniger Wert ist, ist der Preis um 20% gestiegen, die Steuer ist in beiden Fällen schon mit drin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rumpeLson
Die Red Devils gefallen mir. Die war ja auch schon bei der 5700 Serie gut.

Fegr8 schrieb:
Naja wenn man die 3.3V Schiene mitbenutzt! Und die modernen nutzen immer weniger die 3.3V oder manchmal für die LED Beleuchtung!
Wenn nur 12V sind es über PCIe nur 66W!
Danke für die Erklärung. Ich wusste nicht, dass ohne die 3.3v der PCIe auf 66W beschränkt ist.
 
  • Gefällt mir
Reaktionen: Fegr8
BrollyLSSJ schrieb:
Danke für die Erklärung. Ich wusste nicht, dass ohne die 3.3v der PCIe auf 66W beschränkt ist.
Ist eine einfache Rechnung PCIe hat die 12V mit 5,5 Ampere ausgelegt (66W) und 3,3V mit 3 Ampere (9,9W). In der Theorie könnte also PCIe also sogar 75,9W. Aber es wird immer ein minimaler Verlust erwartet und deshalb sind es 75W. Wenn du willst kannst du mehr über den PCIe rausziehen aber das ist auf eigene Gefahr, die Spezifikation erlaubt ein kurzfristige höhere Leistung, aber dauerhaft hohe Leistung kommt auf dem Mainboardhersteller an. Da kannst so etwa 6W mehr ziehen über die 12V und etwa 2W über die 3,3V ohne Schäden aber wie gesagt, lass die Finger weg wenn man sich nicht auskennt.

Ein extremer Beispiel waren Chargen der RX480 die Schlicht 6,5Ampere auf die 12V Schiene über PCIe zogen (78W)!
 
  • Gefällt mir
Reaktionen: BrollyLSSJ
HotteX schrieb:
Ja waren Sie, aber Gigabyte ist bei mir auf Grund von sehr schlechten Erfahrungen bei AMD Karten raus.
Okay ja, dann ist das natuerlich verstaendlich, wenn Du da in der Verganegnheit schlechte Erfahrung mit Gigabyte Karten gemacht hast.

Ich habe bisher - allerdings mit einem nVidia Modell - sehr gute Erfahrung mit Gigabyte gemacht, aber beim Wechsel zu AMD wollte ich dann auch lieber eine Custom-Karte eines exklusiven Boardpartner (wobei ich evt. MSI oder Gigabyte auch eine Chance gegeben haette, ASUS geht bei mir gar nicht) und daher, wegen der Abmessungen (weniger als 33cm, daher ist nicht schon frueher eine XFX geworden) und wegen des Angebots erstmalig bei einer Powercolor (Red Devil) gelandet.

Die RX 6800 ist auch ein sehr interessantes Modell von der Leistungsklasse her und wegen der Effizienz.
 
Kalsarikännit schrieb:
Dann ist die 4090 eigentlich genau richtig für dich. Man kann auf NVIDIA draufhauen (mach ich selber ab und an), aber diese Generation scheint einen ordentlichen Schritt nach vorne gemacht zu haben, man darf sehr auf die kleinen Modelle gespannt sein was die so an FPS/W liefern.
Könnte natürlich bei AMD ebenso der Fall sein, die 6800@Stock führte ja auch lange das Effizienzrating an.
4090 ist ja auch ein Traum. insbesondere wenn man den Preis vernachlässigt, aber es passt halt nicht ins Gehäuse :lol:. Das ist ja mein eigentliches Problem. Die Effizienz ist nur ein Randthema.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Zurück
Oben