Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

nobbivm schrieb:
Tja was soll man dazu sagen?

Wenn ich mir das Review bei Igor angucke, dann sieht es doch gar nicht mal so schlecht aus für die XTX, vom Stromverbrauch mal abgesehen.
In Raster etwas schneller als die 4080, aber 200 Euronen günstiger.
RT Leistung geschenkt, das Feature ist mMn eh überbewertet.
Den Idle, Multimonitor und Youtube Verbrauch wird AMD in den nächsten Wochen bestimmt fixen.
Die Treiber müssen passen, damit steht und fällt alles und dass AMD es immer noch nicht schafft die Kinderkrankheiten zum Release weitestgehend behoben zu haben, ist einfach traurig, zumal sie keine Neulinge am Markt sind, wie z.B. Intel mit Arc.

Mal schauen wie die Verfügbarkeit der Karten sein wird, denn die und der Preis werden letztlich entscheiden, ob sich die AMD Karten gut und in hohen Stückzahlen verkaufen und nVidia evtl. dazu bewegt den Preis der 4080 nach unten anzupassen.
Vielleicht passiert in der Richtung aber auch nix, wir werden es sehen.


Nein auch in raster ist die karte nicht schneller sondern meistens langsamer.Das hängt vom test ab, meistens langsamer je nach test-., siehe purepc und weitere tests.
igor testet viel zu wenige titel
 
  • Gefällt mir
Reaktionen: Sly123
@Rockstar85

Du da hat keiner Lust spiele raus zu picken.

Amd ist die Budget variante vereinfacht gesagt und im Kern war.

Mit der 4080 bin ich im zweifel auf der sichereren seite RT / DLSS support.

Hätte ich das Geld nicht dann würde ich zur 7900xtx greifen, und nur dann.

Desweiteren wie gesagt,

Ki
Robotik
Autonomes fahren
Industrie

Da hat amd 0% Anteile.

Die nischen produkte 4090/80 sind unbedeutend genauso wie ne 7900xtx

Man braucht sich nur steam hardware survey anschauen was gamer wirklich nutzen

Am Ende gehts in richtung

Support von eigenen KI Verfahren DLSS
RT Performance

Da ist nvidia breiter aufgestellt und liefert mehr.

Eine veraltete raster leistung index ist das letzte mal von Bedeutung.

Wer kein RT anbietet 2024 ist einfach out.

Da gehts hin und wie gesagt geschweige was abseits von gaming passiert.
 
iGameKudan schrieb:
Ich hätte mehr erwartet - preislich und von der Leerlauf-/Desktopeffizienz her die attraktivieren Karten, aber dass sich selbst die XTX an der 4080 so abmüht ist etwas… Meh.


Hat die karte irgendwelche Sonderfunktionen, extrafeatures die so richtig klasse sind ? Warum ist die leistung so schwach und der stromverbrauch so hoch ?
 
Laphonso schrieb:
Welche Leistung würde eine 7900XTX schieben, wenn sie sie 1:1 am Limit fährt wie die 4090.
Das bekommen wir ja nicht zu sehen.
Eine Karte wird nicht effizienter, wenn sie am Limit gefahren wird. Ganz im Gegenteil. Von da aus ist das Aussicht der Effizienz komplett uninteressant.
 
  • Gefällt mir
Reaktionen: Laphonso
@MistressOfAgony
Ich weiß nicht ob es dir eventuell entfallen ist, aber CNDA ist für Profiware..
und nein, auch die AMD Karten haben gute AV1 Encoder und die Teaser zeigen ja, dass die MEdia Engines gut geworden sind. Und 2024 wird AMD vermutlich einen Refresh bringen.. Angesichts von ~100 RT Spielen ist RT erst dann relevant, wenn es in die PS6 einzieht und großflächig genutzt wird.
Wenn du mir nicht glaubst, Steam, die Umfragen hier oder im 3DC beweisen das eindrucksvoll.. Und bei 3DC und CB sitzen wir schon in der Blase.

Nebenbei solltest du mal Googlen was Xilinx so macht.. Und keiner für Autonomous Driving nutzt eine RTX40 ;) da kommen ganz andere Powerhorses zum Zuge. (Nvidia Xaver zB)

AMD hat selbst mitgeteilt, das bei 2.5Ghz Takt in etwa 61TFlops anliegen.. Diese hat man verfehlt, wie es Raff aus der PCGH zeigt.. Also liegt da viel Potenzial brach. Schauen wir mal, was die Dual Issue Komplilierung so macht..
Und wegen Spiele.. Doch, das muss man leider. 2023 mehr denn je. Wobei es war schon immer so, dass Spiel A der einen und Spiel B der anderen mArch besser geschmeckt hat. Geradezu 2007 finde ich den Idle Verbrauch bei Multimonitor.


Also bitte nicht beides vermischen, da kommt nur Salat bei raus :)
Und ja der Großteil zockt auf einer Midware GPU.. nur wird die 4070Ti vermutlich auch ~1000€ Kosten. Und das könnte man AMD ankreiden, aber selbst als man mit RDNA2 das bessere Angebot hatte, wurde NV gekauft. Die Leute wollen es so, und kriegen es so.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alter_Falter und Veitograf
Oneplusfan schrieb:
Ganz sicher nicht, denn der größte Konkurrent der 4080 war schon immer die 4090.
Die gibt es nach wie vor (regelmäßig auch als FE) und macht damit der 4080 das Leben schwer.
Die Leute, die ernsthaft eine AMD Karte zu dem Preispunkt und der RT Leistung und den ganzen fehlenden Features in Betracht gezogen haben sind wohl deutlich in der Minderheit.
Nichts für ungut, aber diese Betrachtung kommt direkt aus der Enthusiasten-Bubble. Es stimmt zwar, dass die RTX 4090 den Markt für die 4080 teils kannibalisiert zu haben scheint, aber das liegt im Wesentlichen daran, dass beide in einem Bereich liegen, der vormals High-End-Käufern vorbehalten war (RTX 3090 (Ti)-Pricing und darüber) und die zahlen im Zweifel eben auch 2000 €. 500-700 € machen da den Kohl nicht mehr fett.
Für jeden Käufer aber, der sich selbst niedrigere Budgetgrenzen setzt, sind beide Karten uninteressant - und das dürfte die klare Mehrheit sein.
Okay, die Radeons sind nun nicht so viel billiger, dass der klassische Mittelklasse-Kunde, der früher vielleicht GTX 1060 oder 1070 gekauft hätte, vor Freude ausrastet, aber nach unten hin sind ca. 200 € Preisunterschied (falls sie im Markt letztlich so oder so ähnlich ankommen) in jedem Fall deutlich relevanter als eben der Unterschied zwischen RTX 4080 und 4090 nach oben hin.
Oneplusfan schrieb:
In Abwesenheit von vernünftiger Konkurrenz ist die 4090 das Hauptproblem der 4080.
Hätte die 7900 XTX nur 900€ gekostet, wäre diese das Hauptproblem der 4080. Das Standing der 4080 relativ zu den AMD Karten ist völlig irrelevant, weil die 4090 hier das "bottleneck" ist.
Wie gesagt, das ist definitiv nicht der Fall. Nur Käufer mit großem Budget werden das so sehen, wenngleich ich dabei bleibe, dass auch RDNA3 zum Start sehr teuer ist.
Oneplusfan schrieb:
Für die 4090. Ich gehe jede Wette ein, dass die 4080 trotzdem im Preis gesenkt werden muss, weil sie im Vergleich zur 4090 viel zu unattraktiv ist.
Die RTX 4080 ist einfach insgesamt uninteressant. Für die verhältnismäßig kleine Gruppe der High-End-Enthusiasten ist sie zu viel langsamer als ihre große Schwester, dabei aber trotzdem extrem teuer. Für alle anderen ist sie von vorneherein zu hoch bepreist. Ihr größtes Problem ist also dem Produkt und seiner Positionierung selbst inhärent.
Du hast recht, vermutlich müssen die Preise deshalb mittelfristig sinken, liegt realistischerweise aber eher weniger an der RTX 4090. Noch dazu dient Nvidia die RTX 4080 ja eher als Verkaufsargument für seine größere Karte. Nicht umsonst berichteten Leaker ja von viel geringeren Produktionsmengen für AD103. Letztlich hat man das also wohl so kommen sehen und zumindest vorerst wird diese Karte mehr oder minder dort verweilen, wo sie ist.
Oneplusfan schrieb:
Du kannst keinen so beschnitten Chip für so viel Geld verkaufen, solange es ein Halo Produkt gibt, dass eine bessere P/L aufweist.
Die RTX 4090 hat kein besseres Preisleistungsverhältnis als ihre kleine Schwester. Sie kostet je nach Modell ca. 50% mehr, ist aber selbst in UHD mit RT nicht 50% schneller. PLV ist also schlechter, wie am oberen Ende des Line-Ups auch zu erwarten ist.
Nvidias Marketing hat es aber sehr effektiv geschafft, es anders in den Köpfen vieler potenzieller Kunden zu verankern. Man sieht also, dass es durchaus smart war, seine Produktpolitik genau so aufzuziehen. Wer 1000 € oder mehr ausgeben kann oder wollte gibt nun im Zweifel 2000 € aus. Die Margen wachsen gewaltig.
Oneplusfan schrieb:
Hätte man die 4090 nie rausgebracht, sähe es jetzt anders aus.
Das könnte man je nach Blickwinkel wohl so sehen. Für die Mehrheit der Kunden spielt das aber keine Rolle.
Oneplusfan schrieb:
Ich bin ganz ehrlich: Bevor ich eine 4080 für 1400€ kaufe gehe ich gleich auf die 4090.
Und hier stimme ich dir völlig zu, ich würde selbst tatsächlich auch so vorgehen, da spiele ich gar nicht erst den Heiligen. Die RTX 4090 war für mich direkt nach Lektüre des CB-Tests am Releasetag attraktiv, Halo-Produkt und absurder Preis hin oder her, denn sie läutet ganz allein eine völlig neue Ära der GPU-Leistung im Gaming-Bereich ein. Geforce 8800 GTX lässt grüßen.

Wie gesagt, Nvidia hat praktisch perfektes Marketing betrieben, wenn es um diese Karten geht und das im Wesentlichen nur über Preispolitik. Aus betriebswirtschaftlicher Sicht sehr beeindruckend. Es ist faszinierend, die Effekte dieses Marketings auch an mir selbst beobachten zu können. Es zeigt mir aber auch: Ada ist das neue Normal, hier ändert sich so schnell gar nichts mehr.
 
  • Gefällt mir
Reaktionen: Matthias80, SirDoe, PeriQue1337 und eine weitere Person
Alles wie erwartet

Ein Preis von 850 € wäre eine Kampfansage gewesen. Bei 1150 wird Nvidia einfach eine kleine Preisanpassung machen und fertig
 
SVΞN schrieb:
Ada Lovelace ist viel effizienter und in der Spitze doch deutlich schneller. Beide Modelle müssen 200 Euro im Preis runter.

Nvidia hat mit den Ti-Modellen und einem AD102-Vollausbau zudem noch viel Spielraum.

MistressOfAgony schrieb:
Man kann das mittlerweile ganz einfach und treffend zusammenfassen.

1.) Luxus Gamer bzw. die die es sich leisten können greiffen zur 4080/4090

2.) die radeon modelle sind entsprechend eine klasse niedriger und günstiger, ausser preis spricht nichts pro AMD

Es ist also nur eine Geldfrage
^^Das beides: Ich werde zudem langsam das Gefühl nicht mehr los, dass sich hier ein GPU-Oligopol hübsch die Kunden-/Markt-Claims bzgl. Preis&Leistung abgesteckt hat und nun genüßlich entweder die Early Adoptor abkassiert bzw. alternativ "auf Kosten" der ausgehungerten Aufrüstungswilligen Kasse macht, die wg. abgehobener Preise aufgrund Mining, Lieferengpässe usw. bilang nichts gekauft haben und nun verzweifelt das alte Line-Up zu immer noch überhöhten Preisen abkauft.

Die Vorstellung von AMD (nach den großkotzigen Präsentationsfolien) ist unabhängig davon mehr als ernüchternd und erinnert auch mich stark an den Vega/HBM-Fail. Und wer glaubt, dass es in ein paar Monaten irgendwelche magic driver tricks richten werden ... also ich warte immer noch bei meiner Vega64 auf den versprochenen Wundertreiber, der nicht nur alle versprochenen Features liefert, sondern v.a. die Rohleistung der GPU auf den Bildschirm bringt.

Mein Fazit: Für die kaufwilligen Kunden bleibt nur ein Loose-Loose-Dilemma aus entweder NVs Preiskonzert mitzusingen oder deutliche Leistungsabstriche bei AMD für geringere Kosten zu akzeptieren (wobei sich Letzeres in einer Mischung aus Verfügbarkeit der Referenz-Modelle zur UVP seitens AMD selbst und den Custom-Preisen auch erst noch bewahrheiten müsste). Kaufenthaltung bleibt bei den aufgerufenen Preisen wohl weiter der beste Rat für mich persönlich ...
 
Immer wird zur rtx4080 geraten auf fast allen testseiten die ich habe heute gefunen über google, waren einige.
Begründung, deutlich bessere gesamtpaket
 
4080 ist durch amd besser und interessanter geworden und ist wieder in alle munde seit heute. Allein diese tatsache sagen eigentlich alles, komplett versagt amd.
Ergänzung ()

es fehlen diese kracher wie 1080ti oder 4090 von amd. Das gibt es einfach nicht, immer messen sie sich mit der zweitstärksten. Keine chance in der 1 liga.
 
LTCMike schrieb:
^^Das beides: Ich werde zudem langsam das Gefühl nicht mehr los, dass sich hier ein GPU-Oligopol hübsch die Kunden-/Markt-Claims bzgl. Preis&Leistung abgesteckt hat und nun genüßlich entweder die Early Adoptor abkassiert bzw. alternativ "auf Kosten" der ausgehungerten Aufrüstungswilligen Kasse macht, die wg. abgehobener Preise aufgrund Mining, Lieferengpässe usw. bilang nichts gekauft haben und nun verzweifelt das alte Line-Up zu immer noch überhöhten Preisen abkauft.

Die Vorstellung von AMD (nach den großkotzigen Präsentationsfolien) ist unabhängig davon mehr als ernüchternd und erinnert auch mich stark an den Vega/HBM-Fail. Und wer glaubt, dass es in ein paar Monaten irgendwelche magic driver tricks richten werden ... also ich warte immer noch bei meiner Vega64 auf den versprochenen Wundertreiber, der nicht nur alle versprochenen Features liefert, sondern v.a. die Rohleistung der GPU auf den Bildschirm bringt.

Mein Fazit: Für die kaufwilligen Kunden bleibt nur ein Loose-Loose-Dilemma aus entweder NVs Preiskonzert mitzusingen oder deutliche Leistungsabstriche bei AMD für geringere Kosten zu akzeptieren (wobei sich Letzeres in einer Mischung aus Verfügbarkeit der Referenz-Modelle zur UVP seitens AMD selbst und den Custom-Preisen auch erst noch bewahrheiten müsste). Kaufenthaltung bleibt bei den aufgerufenen Preisen wohl weiter der beste Rat für mich persönlich ...

Du erzähl mir nichts von 7900er customs die bisschen mehr raster für 200-400€ mehr Anbieten werden…😅..

Ganz ehrlich wennn wer 1150€+ ausgibt tu dir den Gefallen mit der 4080 und warte eben sogar 2 monate länger.

Das ist absolut sinnlos 1200€ in veraltete technik auszugeben, das rt ding und der fehlende breite support wie dlss(3) ihn hat haben / wird.

Sorry das doch dumm..

Man kauft praktisch nur hohe fps in raster

Verliert aber RT und sicherheit im bezug auf AI verfahren wie dlss die breiter aufgestellt sind geschweige den von potenziellen zukünftigen support und die Entwicklung von dlss3

Wenn das läuft da sind die noch weiter weg !

Da hilft es amd auch nicht wenn 2 oder 3 spiele in 2023 kommen die ihre eigen Kreation unterstützen man man
 
rasterleistung ist bei neuer 7900 auch meistens langsamer, schaut auch andere tests über googlesearch wie die seite purepc.
 
PHuV schrieb:
Und nun kommt eine nicht schlechte Karte für einen an sich guten Preis, und trotzdem mäkeln viele nur rum, wie enttäuscht sie sind.

nicht schlecht? das kann man durchaus anders sehen. das ding sieht aus wie ein absolutes bugfest: spulenfiepen, crashes, blackscreens, stromversorgung hakt an allen ecken und enden, lüftertuning kann man knicken, performance ist ein ähnliches auf und ab wie bei vega und der abstand zur alten generation ist lächerlich gering. die alten karten haben teilweise ein noch besseres preis/leistungsverhältnis und die liegen auch jetzt nur beim MRSP und nicht drunter (außer der 6900XT).

650€ für ne 6800XT im abverkauf sind ein witz- so viel hätte die vor 2 jahren kosten sollen. und die 7900XT und XTX machen da nichst besser.

in 1440p sind die 7900XT und XTX 32% bzw. 48% schneller als ne 6800XT, kosten aber 1050€ und 1150€.

damit die neuen karten wenigstens die preis/leistung der 6800XT hätten, dürften die höchstens 850€ und 962€ kosten - da liegen mal schlappe 200€ dazwischen - und dann bekommt man bei amd für das geld nur die ranzige referenzkarte und die 6800XT kann man durchaus als gutes modell bekommen. nvidia hat viel spott für die große 4080 geerntet, aber ganz ehrlich - lieber n zu großer kühler und die gpu ist bei 60°C als dieser 2,5 slot kühler, der mit 350w so dermaßen auf kante genäht ist, dass es irgendwann einfach nurmehr nervt. die lüftersteuerung tut ihr übriges.

amd und nvidia wissen bald nicht mehr wohin mit der kohle und bei den karten haut niemand mal den lachs auf den tisch. 4080 scheiße. 7900XT scheiße. 7900XTX scheiße. ich wette drauf, dass morgen die händler bei den alten karten die preise erhöhen, weil was anderes kann man ja in der situation ja kaum mehr machen.

1353badc151ee9efc24cb96fc067a30a3097.jpg

alles völlig gestört und jeder sagt nur "ist immerhin günstiger als bei nvidia :daumen:" - was ist denn das für ein maßstab? nvidia erhöht jede generation die preise um 50%. - amd um 49%. bei den gpus hat jeder völlig die kontrolle verloren - ein purer kommerzfiebertraum von lisa su und jensen. wenn ich mich wirklich so abzocken lassen wollen würde und für ne gaming gpu an die 1000€ ausgeben wollte, würde ich aber in 11 von 10 fällen die 4080 kaufen. in D wird der preisunterschied eher 150€ betragen, und die 13% ersparnis rechtfertigen einfach so ein bananenprodukt nicht - zumal amd mit der 5700XT schonmal ein crashfest allererster güte abgeliefert hat. so eine mistkarte käme mir nicht mehr ins haus - und das was man bisher gesehen hat, sieht nach 5700XT reloaded mit extra steps aus.

24583224-buzzfeed-de-OtBG.jpg
 
  • Gefällt mir
Reaktionen: spfccmtftt89, Neronomicon, scheru und 5 andere
Rockstar85 schrieb:
@LTCMike
Nvidia Marktanteil:
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2022
Wäre eine sehr komische Absprache, wo der zweitplatzierte quasi nur verliert.
Der Stückzahlenvergleich macht es eig Eindeutig. Und ja da sind wir als Konsumenten Schuld.
Das ist wirklich krass in deinem Link.Nvidia ist bei 86,2% marktanteil und amd bei 10% ?
Ich kann mich nicht mehr gut erinnern aber so katastrophal sah es noch nie für amd aus oder?
Ergänzung ()

diese raytracing ist zu hübsch da kann man nicht so einfach dran vorbeigehen.. Pc spieler wollen doch neue Technologien und Fortschritte sehen, finde die Konsole hat den PC lang genug gebremst, schluss dmait . Es sollte wieder so sein wie damals wo Konsole keine rolle bei PC Spieleentwicklung spielte. Zwei spiele fallen mir direkt ein Far Cry 1 und Half Life 1+2 . Das waren Innovation in sachen Physik, Beleuchtung , Partikel usw. Das war wirklich PC würdig und konsolenspieler träumnten nachts davon, gibt es heute nicht mehr.
Ergänzung ()

Es wird auch sehr wichtig sein zusehen welche karten unter UE5 besser abschneiden den das ist die engine die praktisch nur noch verwendet wird, sogar in neuem Tomb Raide .
Andere engines sterben aus, alle wechseln zu UE4/UE5
 
Zuletzt bearbeitet:
Digensag schrieb:
Das ist wirklich krass in deinem Link.Nvidia ist bei 86,2% marktanteil und amd bei 10% ?
Ich kann mich nicht mehr gut erinnern aber so katastrophal sah es noch nie aus oder?

ja seitens amd ist der absturz auch völlig verdient. seitdem amd irgendwie konkurrenzfähige karten hat, setzt man den preis bei "nvidia -10%" an und fertig ist die chose. jim von adoredTV hat mal gesagt "the gpu war is over" - und genau das ist eingetreten. amd ist in keiner konkurrenzsituation zu nvidia - das ist eher eine "parasitäre symbiose" - eigentlich konkurrenten, aber auch ein duopol, das wie ein völliges monopol agiert.

amd macht ein bisschen mit, damit die kundschaft nvidia nicht aufs dach steigt (ohne amd wäre der gegenwind gegen nvidia viel größer, aber amd rechtfertigt immer wieder die preise von nvidia), und bekommt im gegenzug relativ stressfrei ein paar brotkrümel von nvidia ab. geld kommt rein, läuft.
 
  • Gefällt mir
Reaktionen: xexex
Irgendwie Hobby versaut.

Nvidia kann mann z.Z. nicht kaufen zu teuer.
AMD auch nicht. Zu schlecht.

Man kann bei Nvidia nur auf Preisverfall setzen. Das dauert....
Bei AMD auf einen Wudertreiber hoffen....

Verrückt - ich behalte meine GTX 1070. (Noch 2 weitere Jahre?)

PSVR 2 bestellt.
 
  • Gefällt mir
Reaktionen: nille02 und Raider_MXD
Ich habe bitte ich kann die französiche oder italienische seite Purepc nicht mehr finden über google, da ist der Test den ich mir gerne nochmal anschauen wollte zur 7900. Bitte linken falls ihr findet, wäre mega dankbar.
 
Novasun schrieb:
Da muss ich dir aber sagen das deine Sicht sehr kurzsichtig ist. Gerade das Chiplet Design hat das Potential wieder günstigere GPUs zu bauen. Aber erst wenn AMD mit einem GDC verschiedene Modelle abbilden kann weil man dann auf dem Highend 4 oder 8 GDC setzt im Midrange dann 2 oder 4 und im Lowend dann 1 oder 2... Davon ab wenn man eine gewisse Streuung hat bei der Quali kann man die GDC s auch unterschiedlich takten...
Ja, deswegen waren anfangs ja viele so gehypet. Allerdings musst du auch bedenken, dass mit MCM vor allem im Highend-Bereich große Ersparnisse zu erwarten gewesen wären. In den niedrigeren Preisklassen, wo sowieso weniger Chipfläche benötigt wird, sind ja auch die monolithischen Dies nicht so riesig.

Und vor allem ist es, wie auch @Nixdorf angemerkt hat, ja nicht die Art von MCM geworden, die man sich anfangs erhofft hat - die Recheneinheiten wurden ja überhaupt nicht ausgelagert, nur der Cache. Ist zwar schon mal ein Anfang, aber wirklich modularisieren kann man die GPUs so ja nicht.

Auch die Art, wie der Cache ausgelagert wurde, ist suboptimal. Hier ist AMD bei den CPUs schon deutlich weiter. Da werden sowohl die Recheneinheiten auf einzelne Chips verteilt als auch der Cache beim 5800X3D. Und vor allem wird der Cache dort eben gestapelt. Da hat man dann kein Latenzproblem, sondern wahrscheinlich sogar bessere Latenzen, als wenn man die gleiche Menge an Cache monolithisch integrieren würde.

Gestapelter Cache und echte Multi-Chip-Module, das hätte es gebraucht, um RX 7000 zu dem herbeigesehnten Nvidia-Killer-Produkt zu machen. Das hier ist eine erste Gen, die erste Schritte in die richtige Richtung geht, aber noch weit entfernt ist vom Ziel, der Nvidia-Konkurrenz unterlegen ist und zwar billiger, aber ebenfalls sehr teuer ist.
 
  • Gefällt mir
Reaktionen: Rockstar85 und xexex
Schade. Ich hatte zumindest gehofft, dass sie in Sachen Effizienz mindestens auf Augenhöhe mit der 4090 sind.
Entweder wird das im ersten Jahr eine FineWine Aufholjagd, wie man sie noch nie gesehen hat oder AMD hat im High End Segment endgültig den Anschluss verloren und niemand bei klarem Verstand und mind. 1000€ Cash wird zu den Roten greifen.
 
Zurück
Oben