Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

DaHell63 schrieb:
Dann zeig mir doch einfach eine 200W AMD Karte, bei der du auch noch den Verbrauch runterdrehst, die kaum schlechter als eine RTX 4070TI ist.
Darauf hast Du ja geantwortet
Anhang anzeigen 1355525
Still 20 gb vram
 
  • Gefällt mir
Reaktionen: Rockstar85
die durchschnittliche Leistungsaufnahme einer RTX 4070 Ti liegt im Bereich von 200 bis 250 Watt, die kurzfristigen Peaks können auch in Richtung 350 bis 400 Watt gehen.

Interessant🤔

Also reichen auch 250 Watt
 
  • Gefällt mir
Reaktionen: Rockstar85
Rockstar85 schrieb:
Guter Tipp am Rande:
Kauft alle schön weiter Nvidia, denn 92,7% Marketshare reichen ja noch nicht ;)
AMD könnte die karten Verschenken, dennoch kommt auf eine AMD GPU 9 Nvidia.
Du weißt ganz genau, dass das Unfug ist. Nvidia liefert in dieser Generation einfach das rundere Produkt ab (DLSS 3 mit FG, höhere RT Leistung, effizienter, schneller). Nur der Preis ist höher, aber den sind die Leute scheinbar bereit zu bezahlen.

Und mit deiner Art und Weise änderst du auch nichts am Marketshare. Das Gegenteil ist sogar der Fall, wenn du mal wieder davon erzählst, dass Produkt X so schnell wie Produkt Y der Konkurrenz ist und es am Ende doch wieder nicht der Fall ist.
Ich verstehe auch nicht, warum es einigen hier so schwer fällt sich einzugestehen, dass AMD oftmals Probleme hat und die Konkurrenz auch mal besser dasteht oder das bessere Produkt abliefert, oder kann nicht sein, was nicht sein darf?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ibachi und av4l
Ich hatte auch schon häufiger Karten von Sapphire, u.A. eine RX 580 Nitro+. Die war wirklich leise im Gegensatz zu vielen anderen Designs.
 
MrHeisenberg schrieb:
Du weißt ganz genau, dass das Unfug ist. Nvidia liefert in dieser Generation einfach das rundere Produkt ab (DLSS 3 mit FG, höhere RT Leistung, effizienter, schneller). Nur der Preis ist höher, aber den sind die Leute scheinbar bereit zu bezahlen.
Aus Deiner Perspektive und Ansprüchen bestimmt gerechtfertigt.
Von der Effizienz liegt Nvidia klar vorne, keine Diskussion.

Aus meiner Perspektive, RT und DLSS interessieren mich nicht, geschweige davon, dass es in der eigenen Spieleauswahl/Bibliothek vorhanden sein müsste, sind die 20GB vs. 12GB einfach attraktiver.
Ich benutze meine GPUs bis diese "auseinanderfallen" und da sind mir 20GB bedeutend attraktiver.

Für Office, Medienkonsum ... benutze ich mein Laptop und sollte ich explizit zocken wollen, kann ich mit dem erhöhten Verbrauch gut leben. Mehrere Rechner sind natürlich Luxus außerhalb gewisser Blasen.

Dieses gegenseitige Missionieren wollen geht mir ziemlich auf den Keks, jeder wie er mag, es gibt nicht nur schwarz und weiß oder die eigene Sichtweise.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, Rockstar85, Flyingiceman und eine weitere Person
Rockstar85 schrieb:
Und ja wir alle haben Schuld an der Misere.

Herrje, schon ganz schön dramatisch. Ich empfehle ja emotionalen Abstand zu Großkonzernen. Die erwidern das idR auch nicht. Und das sag ich als 25+ Jahre langer AMD Nutzer (fast ausschließlich btw^^)

Ich glaub aus Mitleid kauft auch kaum einer was. Entweder entwickelt sich das Unternehmen weiter und arbeitet an seinen Baustellen und wichtig: es kommt dabei was rum oder nicht. Und der Markt ist bekanntlich gnadenlos.

Radeon braucht meines Erachtens als Marke mal einen bedeutsamen revamp. Einfach generell ein schwaches Image hier, in einem Bereich, wo es oft um die Leistungskrone geht. Und das zieht sich von den Topmodellen einfach bis unten hin durch. Selbst die Leute in der Einstiegsklasse denken dann noch, dass sie hier mit Nvidia einfach besser dran sind: da populärere und auch erfolgreichere Marke.

AMD Marketing ist oftmals auch vollkommen daneben und hilft da nicht weiter.

AMDs größter Vorteil ist mMn, dass sie für überraschende Innovationen bekannt sind - und das auch nicht erst seit Ryzen. Nur eben auch mal längere Zeit vorne zu bleiben und Bank zu machen, ist auch wieder eine andere Geschichte.

Vielleicht sind sie auch zu breit aufgestellt irgendwo. Wird in eine Sparte investiert, scheint es wieder an anderer Stelle zu fehlen. Und selbst gute Produkte sind noch kein Garant, dass die Nachfrage danach auch da ist.
Als Tech-Konzern, wo die gesamte Branche allgemein recht schnellebig sowie wankelmütig ist, ist das dann schon schwierig Nachfrage zu stimulieren. Bei AMD seh ich das mit den neuen Generationen im Consumer-Bereich derzeit nicht.

Nvidia füllt seine Marktführerrolle schon gut aus. RT kommt nach und nach bei mehr Spielen zum Einsatz. Gut, die Implementierung ist da natürlich auch oft unterschiedlich gut gelöst, doch wurde die Konkurrenz hier stark unter Zugzwang gesetzt.

Potential ist bei AMD da. Und wenn es der Verkauf nicht schafft, dann braucht es mehr Geldgeber, um wieder mehr in R&D stecken zu können. Und dann sind wir wieder bei der Branche, wo Geldgeber dann auch erst einmal zu recht vorsichtig sind.

Ansonsten regelt wie so oft zuvor auch schon der Preis. Die Masse der Leute kauft bekanntlich günstig.

Das Multi-Monitor-Wattage Problem ist auch sowas, was eben am Image kratzt. Und das Problem gibt es seit vielen, vielen Jahren. Und es poppt auch immer wieder auf, wenn es mal gefixt zu sein schien.
 
  • Gefällt mir
Reaktionen: av4l und MrHeisenberg
Snakeeater schrieb:
Dein XTX gehype ist sinnfrei und komplett realitätsfremd.
Wobei man auch da sagen muss, dass sich das Bild seit den letzten Patches auch da gewandelt hat. Die XTX ist "Stand" Heute nicht mehr so schlecht.

Klar, die 4080 und erst rech die 4090 sind deutlich effizienter - in allen Lagen - aber der Rückstand ist jetzt auch nicht die "Vollkatastrophe", wie am Anfang. Ich erreiche in bestimmten Spielen im 142 FPS-Limit und im 72 FPS-Limit nun teilweise Werte, die selbst zu meinem Test schon besser sind.

Die Karte ist zu früh auf den Markt gekommen und man merkt, dass AMD unbedingt im Dezember raus wollte. Und so wie es aussieht und wie die Gerüchte munkeln, könnte es sogar nun so kommen, dass wirklich doch noch eine weitere Revision von Navi31 nach geschoben wird und zwar "früher" als erwartet. Ich denke ganz offen: AMD hat sich mit Navi31 in der Form keinen Gefallen getan. Das RDNA3 nicht schlecht ist, zeigen ja die Notebook-Chips.

Bloodie24 schrieb:
Dann wärst Du die berühmte Ausnahme der Regel und vor allem 10 Watt...hab ich bei keinem Test gesehen, dass dieser Wert für eine 7900XTX möglich ist.
Wie geschrieben - da ist es etwas vereinfacht - wenn ich wirklich nur den Desktop an habe und sonst alles raus schmeiße, erreiche ich nach 10 Minuten Werte um die 6 - 15 W, im Mittel bewegt sich das um die 10 - 12 W. Sobald aber Cloudsyncrhonistation, Discord und Co drauf ist, schwankt es zwischen 10 - 25 W im "Idle" und liegt damit höher. Das sind aber Werte, die "unrealistisch" sind, weil ich den Computer sehr selten so nutze. Nach 10 Minuten schaltete sich bei mir der Monitor aus. Entsprechende Energieeinstellungen und Co sind gesetzt.

Im Desktop-Betrieb mit Browser und Co schwankt es zwischen 20 - 50 Watt und im Mittel bei 30 - 35 W. Nur ist das dann eben nicht mehr ruhender Desktop und daher auch nicht vergleichbar mit den anderen Werten.

Und hier kommt der nächste Punkt: Der Idle-Verbrauch der Grafikkarte im Windows Desktop wird durch verschiedene Sachen beinflusst. Die "tollen" Idle-Ergebnisse hier bei Ada und Co werden oft mit den Referenz-Designs gemessen und dann auf die Customs übertragen, es zeigt sich aber, dass gerade die Customs, egal ob AMD oder NVIDIA, oft nicht mehr diese tollen Werte erreichen.

Und auch bei vielen anderen Messungen, gerade durch "Nutzer", weißt du nie, was da so alles im Hintergrund lief und den Verbrauch dadurch nach oben getrieben wurde. Es ist schwer - und das soll jetzt keine Verteidung der 7900 XTX sein, ich würde das gleiche auch bei einer 4090 schreiben oder eben RDNA 2. Die Werte, die hier CB misst und die viele andere Zeitschriften messen, sind Werte, die unter weitgehend idealer Umgebung ermittelt werden und oft werden nur die anderen "Referenzdesigns" als Vergleich angeben.

Man sollte sich an den "Desktop-Idle"-Werten nicht zu sehr aufhängen, da gibt es in der Regel weit aus validere Gründe, die gegen RDNA 3 sprechen und für Ada. Ich schreib es an der Stelle mal ganz offen: Wer mit KI anfängt und nicht ein Dualboot-System bauen will - für Linux/Unix hab ich mein Laptop - der sollte um RDNA2, RDNA3 einen SEHR weiten Bogen machen. DirectML ist da nur "semi" gut und wenn man nicht selbst zumindest an manchen Stellen entsprechend auch mal Treiberaufrufe und Co umbiegen kann: NVIDIA! Punkt um und Schluss. (Hätte mich da das Interesse nicht schon im Dezember packen können... GRRRR)
 
  • Gefällt mir
Reaktionen: Rockstar85
No Escape schrieb:
Aus meiner Perspektive, RT und DLSS interessieren mich nicht, geschweige davon, dass es in der eigenen Spieleauswahl/Bibliothek vorhanden sein müsste, sind die 20GB vs. 12GB einfach attraktiver.
Ich benutze meine GPUs bis diese "auseinanderfallen" und da sind mir 20GB bedeutend attraktiver.
Das mag auch sein, aber die 92% Marketshare sind nicht nur "AMD Hass". Nur weil dich diese Technologien nicht interessieren, wobei ich das bei DLSS nicht nachvollziehen kann, muss es ja nicht für alle gelten. Ausnahmen bestätigen die Regel und die meisten interessieren sich scheinbar für RT und DLSS.

DLSS bzw. FSR sollten dich interessieren. Du erhältst einerseits höhere Bildraten und kannst u.U. dadurch den Stromverbrauch senken (FPS Limit / FG), anderseits kannst du deine Hardware länger nutzen. Wenn deine Karte in 2-3 Jahren nicht mehr über genügend Leistung verfügt, um Spiele nativ darstellen zu können, kannst du DLSS/FG dazuschalten und musst nicht upgraden.

DevPandi schrieb:
Wobei man auch da sagen muss, dass sich das Bild seit den letzten Patches auch da gewandelt hat. Die XTX ist "Stand" Heute nicht mehr so schlecht.
Schlecht waren die Karten nie, aber die Konkurrenz war besser/runder und das kann man auch einfach mal anerkennen (ja, dich meine ich damit @Rockstar85). Einzig der Preis konnte hier punkten und der größere VRAM, wenn man da so viel Wert drauf legt.
 
Tja die XTX ist nunmal der Konkurrent zur 4080 und nvidia wird hier ja mit amd verglichen
 
MrHeisenberg schrieb:
DLSS bzw. FSR sollten dich interessieren. Du erhältst einerseits höhere Bildraten und kannst u.U. dadurch den Stromverbrauch senken (FPS Limit / FG), anderseits kannst du deine Hardware länger nutzen. Wenn deine Karte in 2-3 Jahren nicht mehr über genügend Leistung verfügt, um Spiele nativ darstellen zu können, kannst du DLSS/FG dazuschalten und musst nicht upgraden.
Meine Spiele schnurren jetzt bereits auf 100 FPS gecappt leise und effizienter als stock mit FPS, die ich nicht brauche.
 
  • Gefällt mir
Reaktionen: Rockstar85
Bin mal gespannt auf die 4060 ti 16 gb wie die so performed
 
Zarlak schrieb:
Seit wann zahlen Arbeitslose keine Steuern? Ist das neu? 🙄
Musst das Formular zur Steuerbefreiung ausfüllen. ;)
Ja, nahezu jeder zahlt irgendwann oder irgendwie Steuern, da müsste man schon ungemeldet/obdachlos im Wald von Tieren und Beeren leben.
 
  • Gefällt mir
Reaktionen: Zarlak
AMD muss jetzt endlich mal FSR 3.0 liefern. Dann sehen wir uns das Ganze doch mal an. Erst dann wird es auch eine 7900xt oder XTX...
 
Die 4060 ti ist preislich wohl am Attraktivsten das war ein krasser Schachzug von Nvidia so verkaufen die bestimmt die meisten karten da viele noch mit 1000 bzw 2000 8 10 vram karten spielen
 
DevPandi schrieb:
Das ist der Punkt!

@MrHeisenberg na bin ich dir immer noch zu AMD positiv. :p Jetzt werde ich hier schon darauf hingewiesen dass ich die 4080 und co nicht erwähnen soll, eben weil ich deren Stärke anerkenne.
Ja aber dann bitte nicht mit meinem Zitat. Bzw. komplett aus dem Kontext gerissen ergibt das ein völlig anderes Bild.
 
Snakeeater schrieb:
Dein Anliegen in allen Ehren, aber so wie du hier argumentierst, tust du AMD und der aktuellen Lage definitiv kein Gefallen. Und das sage ich als AMD-only Käufer seit min. 10 Jahren.
Ich muß AMD auch keinen Gefallen tun ich kritisiere wenn es nötig ist und jeder hier kennt, meine Aussage zu RDNA3.
ABER:
Ich muß nicht in jedem Test das gleiche rezitiert, wenn hier schon Boardies was andres als im Release test berichten. Eine 7900XT für ~750€ wäre ein No Brainer, wie es eine 1080Ti war.
Nur ist es halt leider Fakt, dass selbst mit besseren Karten, AMD keinen Stich macht. Und RDNA2 war bis auf RT eben der RTX30 überlegen.
Angesichts der Team Größe hinter RDNA ist es eig erstaunlich, dass die Treiberpflege so gut ist.

Und wenn Dual issue zündet bist du selbst mit der 7900XT dichter an der 4080 als andersrum. Bliebt also immer noch das Thema Youtube und hoher IDLE-Verbrauch, weil 2500mhz Powerstate.
Was mich zb derzeit zusätzlich von Kauf abhält
 
DevPandi schrieb:
Stimmt pauschal nicht, ich hab aktuell ein 4K 144 Hz an der GPU und komme auf die besagten 10 W im vollen Idle und 15 W bei den normalen Hintergrundpeogrammen.

Ich könnte man den 2 Monitor anhängen, das ist aber aktuell eine Platzfrage.
Das mit dem zweiten Monitor wäre sehr interessant. Meine kommt wohl auch demnächst. Mal sehen was an 2 Monitoren passiert. Das ich viel Office mach und nebenher auch mal ein Stream läuft muss der Verbrauch schon passen.
 
Snakeeater schrieb:
Ja aber dann bitte nicht mit meinem Zitat. Bzw. komplett aus dem Kontext gerissen ergibt das ein völlig anderes Bild.
Du hast die XTX erwähnt und dass das "Hype" vollkommen unangebracht ist und du hast entsprechende Bilder - auch mit den GeForce-Karten - hier geliefert.

Ebenso ist es nicht gerade die feine englische Art, wie du hier im Nachgang deinen Beitrag bearbeitest - auch noch in CAPS - nur damit du dich einer anderen Meinung nicht stellen musst. Es geht hier in diesem Thema um die 7900 XT und natürlich wird man hier immer Vergleiche zur 7900 XTX aber auch zur Konkurrenz ziehen UND GENAU das hast du selbst gemacht. Dich hier jetzt darüber aufregen, dass ich es weiter gefasst habe als du, ist scheinheilig!
 
Zurück
Oben