Test Radeon RX 7900 XTX Customs im Test: Asus, PowerColor, Sapphire & XFX mit Navi 31 im Vergleich

  • Gefällt mir
Reaktionen: .fF, metoer und heroesgaming
metoer schrieb:
@Tornavida
Ich glaube du ziehst die falschen Schlüsse aus dieser Tabelle, es geht ja eher darum aufzuzeigen wie unverschämt teuer die ganzen neuen Karten sind und das obwohl die letzte Gen von der P/L her schon nicht der Burner war.

Selbst wenn die Leistung/€ gleich bleibt ist das schon grenzwertig meiner Meinung nach, weil du für jeden Frame mehr 1:1 mehr Geld hinlegen musst.
Die Leistung/€ ist aber sogar schlechter geworden, und das deutlich, bei allen bis jetzt erschienen Karten.

Für jemanden der das Beste will und Geld keine Rolle spielt macht eine 6800xt oder 3080 jetzt natürlich wenig Sinn, das ist klar.

Es ist nicht einfach nur grenzwertig, sondern schlicht extrem kundenunfreundlich. Mehr Leistung fürs gleiche Geld war die längste Zeit die Prämisse einer jeden neuen Grafikkarten-Generation. Zu Kepler-Zeiten (GTX 600 / GTX 700) hat sogar Nvidia selbst noch argumentiert, dass diese Steigerung in Sachen Leistung pro Dollar / Euro die Essenz einer neuen Generation sei. So rechtfertigte man seinerzeit, dass man auf die erste Kepler-Generation um die GTX 680, deren GK104 eigentlich für die Mittelklasse vorgesehen war, dann aufgrund der (relativen) Schwäche der ersten GCN-Karten aber als Speerspitze der 600er-Serie erschien, ohne Architekturveränderung zur GTX 700-Serie wechselte und dabei besagte GTX 680 als GTX 770 neu auflegte. Ja, das sei keine neue Karte, hieß es damals, aber darauf komme es auch nicht an. Wichtig sei, dass der Kunde die Leistung des Produktes nun für weniger Geld erhalte. Das mache eine neue Generation aus und eine substanzielle Verbesserung in dieser Beziehung rechtfertige den Bezeichnungssprung.

Heutzutage interessiert man sich für diese Interpretation der Dinge freilich nicht mehr im Mindesten, sondern skaliert das Portfolio, unter Einbeziehung der alten Generation, mehr oder weniger linear nach oben.
 
  • Gefällt mir
Reaktionen: thom_cat, Miuwa und metoer
@Jan @Wolfgang Ist geplant, den Test für die Nitro+ zu wiederholen bzw. diesen Artikel up2daten, wenn ein vernünftiges Bios nachgeliefert wurde?
 
metoer schrieb:
Warum gibt es eigentlich dieses schöne Preis/Leistungs-Diagramm nicht mehr in den aktuellen Tests, weder bei Rdna 3 noch bei Ada Lovelace?
Vermutlich, weil die Launchpreise fuer Grafikkartenmodelle nur noch wenig mit der Realitaet zu tun haben, seitdem Mining die normale Preisbildung ausgehebelt hat und es ein Scalping-Markt geworden ist (siehe RX 7900XTX aktuell im Vergleich zur RX 7900XT) ;).

Eine RTX 3080 hast Du bspw. eigentlich nicht durchgehend zum Launchpreis bekommen und jetzt nach ueber 2 Jahren und angeblich uebervollen nVidia Lagern kommt diese nicht einmal mehr in die Naehe dieses Preises sondern befindet sich weit darueber.

So gesehen hat dieses Preis-Leistungs-Diagramm basierend auf UVP/MSRP aktuell jedenfalls damit eine sehr beschraenkte bis falsche Aussagekraft.
Ergänzung ()

metoer schrieb:
Wer geduldig ist bekommt die Referenz Karten bei Nvidia oder AMD direkt auch zum UVP.
Das ist zumindest bezogen auf die vergangenen 2 Jahre Unsinn gewesen.

Ich habe die letzten 2 Jahre mein RDNA2 Wunschmodell im AMD/RTG Online Store eben nicht angeboten bekommen und es etliche Male bei den Drops versucht. Zum Glueck habe ich dann (erst viel spaeter) ein deutlich besseres Custom-Modell im Abverkauf bekommen.

Bei nVidia sind ganz viele ebenso nicht bedient worden, die eine wollten und wurden die Ampere Founders Edition Modelle auch nicht so lange gefertigt wie AMDs/RTGs RDNA2 Referenzkarten.

Einen Vergleich basierend auf Chipgroesse und Leistung haben Gamers Nexus - leider nur fuer nVidia dGPUs - in einem der letzten Videos gemacht, was schon ziemlich interessant war und gezeigt hat, wie schlecht Ada Lovelace (insbesondere eine RTX 4080) im Vergleich zu vorherigen Generationen aufgrund der exorbitanten Aufpreise abschneidet.

Untitled.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Chismon schrieb:
Das ist zumindest bezogen auf die vergangenen 2 Jahre Unsinn gewesen.
Die Aussage bezog sich auf die aktuelle Situation, der Mining Boom ist vorüber, der COVID Boom ebenfalls.

Klar ist kurz nach Release die Liefersituation schwieriger, aber das sollte sich in den nächsten Wochen entspannen denke ich, sieht man ja an der 4080 und 7900xt die schon etwas unter UVP zu haben sind.
 
  • Gefällt mir
Reaktionen: Chismon
Jan schrieb:
Vernünftig in wie fern?

Ich habe mich hier auf das Fazit bezogen:
"Nicht zum Gesamteindruck passen will die (zurzeit) noch nicht implementierte Hysterese, die das Kühlsystem kontinuierlich leise, aber wahrnehmbar die Drehzahl wechseln lässt." - hat sich für mich so gelesen, als würde dass durch ein Treiberupdate verbessert.
 
Chismon schrieb:
Einen Vergleich basierend auf Chipgroesse und Leistung haben Gamers Nexus - leider nur fuer nVidia dGPUs - in einem der letzten Videos gemacht, was schon ziemlich interessant war und gezeigt hat, wie schlecht Ada Lovelace (insbesondere eine RTX 4080) im Vergleich zu vorherigen Generationen aufgrund der exorbitanten Aufpreise abschneidet.

Anhang anzeigen 1303013
Die Tabelle ist Schwachsinn weil sie nicht die Nanometer Struktur der jeweiligen Fertigunsprozesse mit einbezieht.
 
Hat jemand Erfahrung mit dem Spulenrasseln der neuen AMD gemacht? Ich hätte mir gerne eine 7900 XT gekauft (TUF, Powercolor, Nitro). Die Kühler wären an sich leise, aber das Rasseln schreckt mich ab. Bei den Nvidia 4080 Modellen hat man in den Tests bei CB leider unter Lautstärke nichts aufgeführt.
 
jede gpu kann spulenfiepen haben
Das ist ein Fertigungsproblem wenn zu viel spannung auf einen kapazitator treffen und diese dann schwingen
Die Lösung ist simple
In der Fertigung werden die spulen mit ner paste vorm verlöten geklebt diese klebt die spule an die position und danach wird punkt gelötet
Wenn zu wenig Kleber dran ist fängt diese an zu vibrieren bei hoher frequenmz bzw spannung
Selber das zu fixen ist schwierig da zuerst die spule zu finden ist. Es ist in der Regel nur eine.
Schnell und einfach auf diese spule ne Heißkleber punkt und es ist ruhe.
Das problem daran ist, das finden der bestimmte spule wenn die gpu im betrieb ist den ohne Kühler lässt sich das nicht feststellen.
 
Ich höre die XFX XT nur in Menüs, wo die FPS komplett eskalieren, zirpen. Meine Lian Li v354 Kiste ist aber auch nicht die leiseste.
 
  • Gefällt mir
Reaktionen: steffen2891
syfsyn schrieb:
jede gpu kann spulenfiepen haben
Das ist ein Fertigungsproblem wenn zu viel spannung auf einen kapazitator treffen und diese dann schwingen
Die Lösung ist simple
In der Fertigung werden die spulen mit ner paste vorm verlöten geklebt diese klebt die spule an die position und danach wird punkt gelötet
Wenn zu wenig Kleber dran ist fängt diese an zu vibrieren bei hoher frequenmz bzw spannung
Selber das zu fixen ist schwierig da zuerst die spule zu finden ist. Es ist in der Regel nur eine.
Schnell und einfach auf diese spule ne Heißkleber punkt und es ist ruhe.
Das problem daran ist, das finden der bestimmte spule wenn die gpu im betrieb ist den ohne Kühler lässt sich das nicht feststellen.
Laut igor und YT Video von Ihm nützt der externe Kleber nichts, da die Spule "innen" schwingt und wie Du sagst das Problem mit der Idenfitikation der Spule im laufenden Betrieb kommt noch dazu. Dass das Problem bei allen Grafikkarten auftritt, ist mir auch bekannt, nur bei Preisen im vierstelligem Bereich hat man für billige Komponenten iwann kein Verständnis mehr. Einen Porsche kauft auch niemand auf Stahlfelgen.
 
Moin,

hat zufällig noch jemand Probleme mit dem Zero RPM Modus dieser Karten?
Ich habe die Funktion im Treiber aktiviert, aber die Karte geht nicht in den Silent Mode über.

Habe eine XFX und die Temperatur (Edge) bleibt im Idle Betrieb unter 40C°.
 
Okay, im normalen Desktop Betrieb fällt meine Temp nicht unter 40C°. Nur 1-2 Minuten nach dem hoch fahren, ist der Silent Mode im "rechten" Bios aktiv.

Verstehe dann aber nicht, wieso ich den Silent Mode im Treiber manuell einstellen kann ,wenn es scheinbar einen Softlock ab zirka 40C° gibt...
 
Oh Mann….
Roman spricht am Ende von einem einzigen Desaster für AMD.
Er sagt, das die 12vhpwr Stecker Geschichte bei Nvidia dagegen ein Kindergeburtstag ist.

Laut seinem Fazit müsste AMD eigentlich sämtliche Referenzkarten, sowie alle Partnerkarten die auf das Referenzdesign setzen zurückrufen.

Katastrophe, ich denke das Thema wird noch spannend werden.


 
  • Gefällt mir
Reaktionen: JohnWickzer und hippiemanuide
Wäre interessant, wenn sich CB dem Thema ebenfalls annehmen könnte. Mir tun die AMD Kunden etwas leid. Ka wieso aber ich konnte mich diese Runde einfach nicht für Team Rot entscheiden. Jetzt bin ich etwas froh darüber.
 
  • Gefällt mir
Reaktionen: JohnWickzer
Viele Merkwürdigkeiten bei der neuen AMD Karte... Auch dass angeblich verschiedene Displayport Kabel verschiedene Hotspot Temperaturen erzeugen können... Ich kanns selber nicht testen, daher Einfach mal selber testen, wenn man das 110°C Problem hat und der Monitor über DP angebunden ist, den Monitor mal über hdmi anbinden, oder andere DP Kabel probieren, ob sich dann wirklich was an der Hotspot temp ändert...Geht zumindest aktuell bei reddit rum
https://www.reddit.com/r/Amd/comments/zzetbw/7900_xtx_owners_with_high_hot_spot_temps_change/
 
Zuletzt bearbeitet:
Wo sind die Vergleichstest für die Custom Modelle der 7900XT?
 
  • Gefällt mir
Reaktionen: Turnpulse
Zurück
Oben