Leserartikel Kühler- gegen Steckergate: DevPandis Hin und Her

DevPandi schrieb:
Also in dem Fall muss ich aber sagen, dass ich mit dem Verkauf der 7900 XTX keine Probleme hatte und die für 850 € los geworden bin.
Ich würde sagen rechtzeitig verkauft wo es nicht so weh und noch Sinn macht . Good 4 u. Dein Einkaufspreis wäre natürlich noch interessant gewesen für den effektiven Preis bezogen auf die Nutzungszeit .Der dürfte bei einer NV bei einer Gegenüberstellung unterm Strich ähnlich ausfallen sofern man für UVP kaufen konnte.

Wieso sollte man unterm Strich also fast den gleichen Preis (oder womöglich auch Höheren) für das "schlechtere und unrundere" Produkt zahlen wollen ? Darauf wollte ich eigentlich hinaus . Stand jetzt würde ich in 2 Jahren eher eine 4xxx kaufen als eine 7xxx und als Verkäufer wäre es für mich auch ok womöglich etwas mehr Geld für meine Nutzungszeit gezahlt zu haben, dafür hatte ich ja auch das "bessere" Produkt. Für User die eine Karte bis zum bitteren Ende halten natürlich weniger relevant das Thema aber auch nicht typisch für den Käuferkreis im Highend.


@textract

Na dann wollen wir mal hoffen, dass das next Gen. alles besser aussieht. Ich glaub da eher nicht dran und dass man am Ende dennoch mehr zahlen wird müssen in der jeweiligen Klasse.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Ich hab nach diesem zweiten Artikel auch tiefsten Respekt vor den Jungs hier. Wenn du 8 Stunden Spiele benchmarks, glaub mir, mit der Zeit wirst du Irre! Das geht auf die Substanz.
Keine Sorge, du sprichst da mit jemandem, der das seeeeeehr gut nachempfinden kann - tatsächlich sogar vieles von dem, was du mir eben geantwortet hast :)

Es war tatsächlich eher als Kompliment, denn als Jobempfehlung gedacht ^^ Man sollte - sofern man davon zufrieden leben kann - stets das tun, was einem Spaß bereitet, beruflich wie auch privat. Mache ich mittlerweile, nach ca. 15 Jahren in der "falschen" Branche auch endlich wieder, so wie zu meiner Anfangszeit des Arbeitslebens - und ich fühle mich so unendlich gut dabei, das alleine ist schon unbezahlbar.

Was das 8 Stunden Durchbenchen angeht: habe ich alles hinter mir... genauso wie 8 Stunden Durchmodden oder 8 Stunden auf Stromverbräuche starren :D Wie gesagt, ich bin da scheinbar ähnlich "kaputt" veranlagt, wie manch andere hier auch ^^

Am Schwierigsten ist für mich jedoch 8 Stunden "Durchhören" - also im Sinne von Probehören (Judging, professionell)... da gehst dann auch geistig irgendwann auf dem Zahnfleisch.

Von daher, erneut: tu das, was dir Spaß macht! :)
 
  • Gefällt mir
Reaktionen: Volker
Super interessanter Vergleich und Danke auch für den Stable Diffusion Teil. An dem Thema bin ich ziemlich interessiert und habe auch keine Lust auf Linux Bastelei.
 
DevPandi schrieb:

Und der ganze Rest - KI und Anwendungen

...

Als Beispiel dafür habe ich die 7900 XTX und die RTX 4090 in Stable Diffusion getestet. Die 7900 XTX schafft in meinen Settings ca. 4,8 Iterationen bei der Bildgenerierung bei 388 W, die RTX 4090 schafft 14,6 Iterationen pro Sekunde bei 243 W.
Anhang anzeigen 1376218
in Bezug auf SD, war das eine "Standard"-installation oder ein "DirectML +Microsoft Olive", also offiziell optimiertes Setup?
https://gpuopen.com/amd-microsoft-directml-stable-diffusion/
1690223424225.png

ich will damit nur darauf hinweisen: Die Optimierungen (wenn auch aufwendig einzurichten) gibt es von offizieller Seite schon, nur werden diese schnell mal übersehen wenn man sich an den inoffiziellen Github-Setups orientiert und verständlicherweise darauf hofft, dass "da alles nötige drinsteckt".

DevPandi schrieb:
Die 7900 XTX schafft in meinen Settings ca. 4,8 Iterationen bei der Bildgenerierung
Erinnerst du dich noch an die Stable Diffusion Settings? z.B. 512x512, Euler, FP16 ?
Einfach um es mit anderen Karten/Benches etwas vergleichbarer zu machen, da ja eine RX 7600 unter diesen "üblichen" Settings bereits 3.3 it/s generiert.
Sofern du zufällig mal die Vram Auslastung gecheckt hättest wäre das sicher auch interessant gewesen, also ob nicht vielleicht die für AMD-Karten doch etwas aufwendigere Konfiguration ( ..uff...) am Ende noch Leistung aufgefressen hat. Zumindest gibt es viele unterschiedliche Meinungen für optimale Commandlines für AMD.

ich sehen mich schon nach einer Zeit in der man AIs per .exe installiert und die dann schlau genug sind selbst herauszufinden was wie einzustellen ist :)
 
Zuletzt bearbeitet:
CyrionX schrieb:
in Bezug auf SD, war das eine "Standard"-installation oder ein "DirectML +Microsoft Olive", also offiziell optimiertes Setup?
Nein, keine Standard-Installation. Diese kannst du nur sehr umständlich auf die Grafikkarte umbiegen - das wird richtig Arbeit. Ich habe für die 7900 XTX die optimierte DirectML-Version mit Olive genutzt und für die RTX 4090 die CUDA-Version.

Die Bedingungen für beide Karten waren die gleichen und entsprechen auch den ersten Gehversuchen im März. Ich kann in dem Fall auch die Angabe von AMD bestätigen, dass mit dem Patch 23.5.2 Stable Diffusion deutlich schneller läuft.

Die Erstellung von 10 Bildern mit den von mir gewählten Einstellungen und dem Modell, haben im März ca. 2 - 3 Minuten gedauert. (CPU noch viel viel Länger. ;)) Jetzt beim Test schaffte die 7900 XTX die gleiche Anzahl an Bildern in ca. 1:00 - 1:30. Also eine Beschleunigung um 100 % (was AMD ja selbst angibt, das passt also.)

Die RTX 4090 ist hier aber mit ca. 20 - 40 Sekunden ein gutes Stück schneller. Ich habe beiden Karten im Übrigen vor der Messung zusätzlich 2 Durchläufe gegönnt, die nicht bewertet wurden, weil ich gemerkt habe, dass sich gerade die DirectML-Version beim ersten Lauf erst mal "fangen" musste und eben erst im dritten Durchlauf dann entsprechend "flink" agierte.

Und noch was: Beziehst du dich bei der Angabe für die 7600 auf Toms Hardware? Wenn ja, dann kannst du meine Werte hier nicht direkt vergleichen. Denn bei meinen Einstellungen schafft die 7900 XTX 10 Bilder die Minute und wäre damit gut 3 mal so schnell wie die 7600, was auch weitgehend dann hin kommt.
 
@DevPandi: Hattest Du bei den Stable Diffusion Tests Hardware Accelerated GPU Scheduling (HAGS, Hardwarebeschleunigte GPU-Planung in den Windows Grafikeinstellungen) ausgeschaltet? Falls nicht, sollte Dir das Ausschalten nochmal einen schönen Leistungsschub bringen. Vor dem Zocken natürlich wieder einschalten.
 
Na das ist mal ein Test.:)

Schön auch auf die Archiktekturen eingegangen. Ich finde es gut das du mit Hilfe von eigenden Tests und reverse engineering mögliche Erklärungen zu finden versuchst.

Irgendwie ist RDNA3 noch nicht da wo man es erwarten würde. Trotzdem irgendwo müssen die Transitoren ja sein, verglichen mit RDNA 2 sind sie ja verdoppelt worden. Dafür ist die Mehrleistung teilweise viel zu Schwach.

Auf die Probleme bist du ja gut eingangen. Vielen vergessen auch das AMD mit einen Bruchteil des Bugdet eigentlich auskommen muß. Möglich das AMD da in Zukunft oder schon dabei ist mehr Geld zu investieren. Wie dem sei, das werden wir warscheinlich nie erfahren.

Wobei das natürlich alles Rand Themen sind. Wir Nerds machen da mehr drauß als wirklich ist.

Overall finde ich ADA ebenso besser. Wenn man unbedingt das KI Zeugs benötigt, ja dann sollten man sich Nvidia kaufen. Wobei die Preise wirklich gesalzen sind. Man sieht ja an den Verkaufszahlen. Die sind unterirdisch.
 
Zuletzt bearbeitet:
MoinWoll schrieb:
Hattest Du bei den Stable Diffusion Tests Hardware Accelerated GPU Scheduling (HAGS, Hardwarebeschleunigte GPU-Planung in den Windows Grafikeinstellungen) ausgeschaltet?
Beide liefen Out-Of-The-Box. Also so, wie es die meisten machen würden, damit der Vergleich fair bleibt.

Danke für den Hinweis! Sowas ist auch für eine neue Testreihe geplant. :3
 
  • Gefällt mir
Reaktionen: MoinWoll
Toller Artikel auch wenn der Normal-Otto wahrscheinlich nie in diese Tiefen vordringt.
Ich konnte sehr viel lernen und entnehmen.
 
DevPandi schrieb:
Entsprechend möchte ich an dieser Stelle auch einmal meinen tiefsten Respekt gegenüber der Computerbase-Redaktion zum Ausdruck bringen. @Wolfgang, @Volker, @Jan machen einen sehr guten Job und anders als manch einer hier denkt, ist es bei solchen Tests eben nicht damit getan einfach nur CapframeX oder ein anderes Programm „nebenbei“ laufen zu lassen. Ja, prinzipiell kann jede von uns selbst entsprechende Benchmarks anfertigen. Sobald man ein gewisses Niveau erreichen will, wird es sehr schnell eine eher langweilige Fleißarbeit, die an den eigenen Nerven zerrt und je nach Entwicklungsqualität des Programmes kann es eine große Qual werden.

Dem kann ich nur beipflichten! @Wolfgang @Volker @Jan
 
  • Gefällt mir
Reaktionen: Volker und Jan
Sowas ist schon etwas Balsam auf die Seele, wenn es mal von extern kommt. Denn vieles, was hier erscheint, wird eben im Alpha- oder Beta-Status getestet - und da wird öfter geflucht. Und so schnell mal "nebenbei" geht da eben nix, schnell kann man dabei nämlich über Probleme stolpern und Fehler machen, Zeit ist ein großer Feind in der Branche. Wer die nicht investiert und schnell schnell macht, bringt dann Mist auf die Seite. Davor sind auch wir nicht geschützt, versuchen es aber eben nach bestem Gewissen zu vermeiden. Und wenn das heißt, schon wieder Windows 11 neu aufzusetzen auf ner anderen SSD und alles neu zu installieren - oft hilft leider genau nur das.
 
  • Gefällt mir
Reaktionen: eastcoast_pete, V_182, bad_sign und 3 andere
textract schrieb:
Die 7900 XTX erbringt fast die gleiche Raster-Leistung wie eine RTX 4090 und kostet je nach Ausführung nur 50 - 65 % dieser
Wie schon im anderen Thread geschrieben, ist das nicht wahr. Je nach Testparcours* ist die 4090 30-34% schneller in reinen Raster-Spielen als die 7900 XTX, sofern keine der beiden Karten stark durch die CPU limitiert wird.

Bildet man den Durchschnitt zwischen Raster- und RT-Leistung für den alten Testparcours, welcher noch mit maximierten Settings durchgeführt wurde, ist die 4090 in 4K 54% schneller.

Bildet man den Durchschnitt zwischen Raster- und RT-Leistung für den neuen Testparcours, in welchem zu gunsten langsamerer Karten die Settings reduziert wurden, was zu teilweisen CPU-Limits und geringerer Auslastung der Einheiten der stärkeren Karten, selbst in 4K, führen kann, ist die 4090 immernoch 39% schneller.

Die günstigste lieferbare Ausführung der 4090 kostet derzeit 59% mehr, als die günstigste lieferbare Ausführung der 7900 XTX. Wenn man dann noch Features wie CUDA, DLSS, Frame Generation und die höhere Energieeffizienz mit einbezieht, nehmen sich beide Karten wenig in Sachen Preisleistung. Das ist widerum erstaunlich, da man in der Vergangenheit normalerweise einen überproportionalen Halo-Produkt-Preisaufschlag für die schnellste Karte bezahlen musste. M. E. sind also beide Karten zu teuer, die 7900 XTX, gemessen an den Preisgefügen vergangener Generationen, sogar noch etwas mehr.

*
https://www.computerbase.de/2022-12...nitt_benchmarks_mit_und_ohne_rt_in_3840__2160
https://www.computerbase.de/2023-05...chmarks_mit_und_ohne_raytracing_in_3840__2160
 
Zuletzt bearbeitet:
Exzellente Arbeit. Sehr aufschlußreich.
Vielen lieben Dank dafür.
😄👍
 
MoinWoll schrieb:
ldet man den Durchschnitt zwischen Raster- und RT-Leistung für den neuen Testparcours, in welchem zu gunsten langsamerer Karten die Settings reduziert wurden, was zu teilweisen CPU-Limits und geringerer Auslastung der Einheiten der stärkeren Karten, selbst in 4K, führen kann, ist die 4090 immernoch 39% schneller.
Man muss an der Stelle eher dazu sagen, dass sich die 4090, egal ob 4k oder 1440p, egal ob mit CPU-Limit und sogar ohne CPU-Limit, aktuell in der Regel eher langweilt und noch sehr viel Leistung ungenutzt ist.

Ada skaliert quasi 1:1 mit dem Takt zu Ampere - das sieht man an der GeForce 4080 sehr gut. Die 4080 liegt im Mittel quasi mit dem Takt erwartent über der 3090 Ti. Die 4090 legt ebenso den Takt oben drauf und dazu noch mal knapp über 55 % Shader-Count.

Und letzteres kommt eben "noch" nicht voll an. Deswegen kratzt die 4090 selbst in 4K oft nur an der TDP, ist aber in der Regel immer noch ca. 30 - 50 W davon entfernt. Ich hab mal aus spaß jetzt auch 4K geteste - geht ja auch, wenn mans akiviert - und entsprechend agiert die Karte.

Die RTX 4090 hat Reserven in der Hinterhand und NVIDIA wird es in der nächsten Generation selbst schwer haben wirklich darüber zu kommen. Noch mehr SM gehen, aber im Endeffekt skaliert die 4090 aktuell sehr schlecht mit den zusätzlichen SM. Auch der Takt könnte noch mal hoch gehen.

Die Spiele - bis auf aktuell Cyberpunk mit Path Tracing - die es schaffen eine RTX 4090 wirklich "auszulasten", werden erst noch kommen. Die RTX 4090 ist, wenn ich das mal so frech schreiben darf, für mich die erste wirklich "Titan".
 
  • Gefällt mir
Reaktionen: MoinWoll
DevPandi schrieb:
Man muss an der Stelle eher dazu sagen, dass sich die 4090, egal ob 4k oder 1440p, egal ob mit CPU-Limit und sogar ohne CPU-Limit, aktuell in der Regel eher langweilt und noch sehr viel Leistung ungenutzt ist.

Die Spiele - bis auf aktuell Cyberpunk mit Path Tracing - die es schaffen eine RTX 4090 wirklich "auszulasten", werden erst noch kommen. Die RTX 4090 ist, wenn ich das mal so frech schreiben darf, für mich die erste wirklich "Titan".
Das stimmt. Ein paar Spiele gibt es schon die das Power Limit unter 4K oder in meinem Fall 5160x2160 ausreizen können, aber das sind noch relativ wenige. Evtl. werden es auch wenige bleiben, da die Speicherbandbreite der 4090 im Vergleich zur Rohleistung nicht besonders üppig ist. Zur Zeit spiele ich Days Gone. Da habe ich tatsächlich 100-130 FPS in 5160x2160 (ohne DLSS, da nicht unterstützt) während die 4090 durchgehend im 450W Power Limit ist und entsprechend runtertaktet. Das ist aber noch eine Ausnahme, vor allem für Spiele ohne RT-Implementierung. Wenn ich eine Karte mit erhöhbarem Power-Limit hätte, würde ich gerne mal testen wie weit die Leistung hier skalieren würde.
 
Zuletzt bearbeitet:
Toller Artikel mit viel guten Hintergrund Informationen!

Und jetzt zeige ich uU noch meine eigene Ignoranz: der Stromverbrauch beider Karten für Sachen wie YouTube oder einfaches Browsen sticht ja doch heraus. Wie sieht's denn da aus, wenn die CPU eine iGPU und entsprechende ASICs zum dekodieren hat (also, z.B. eine Raptor Lake i7 oder i9) und man sowas strikt darüber laufen lässt? Gerade auch wenn man die PLs der CPU im BIOS so setzt, daß sie nicht bis zum Erbrechen Strom zieht.
 
eastcoast_pete schrieb:
Und jetzt zeige ich uU noch meine eigene Ignoranz: der Stromverbrauch beider Karten für Sachen wie YouTube oder einfaches Browsen sticht ja doch heraus. Wie sieht's denn da aus, wenn die CPU eine iGPU und entsprechende ASICs zum dekodieren hat (also, z.B. eine Raptor Lake i7 oder i9) und man sowas strikt darüber laufen lässt?
Wenn es funktioniert, benötigt das wesentlich weniger Energie. Gleichzeitig steigt bei Spielen aber etwas die Latenz an, da die Monitore dafür an das Mainboard müssen und das Bild von der GPU dann geroutet werden muss.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eastcoast_pete
MaverickM schrieb:
Für die Übersicht wären ein paar mehr Absätze zwischen den Blöcken hilfreich gewesen und die Grafiken sollten nicht im Vollformat eingefügt werden. Beim unbegrenzten Foren-Layout erschlagen die einen fast. :D
Da ich eh ein Diagramm erneut erstellen musste: Ist geändert, sollte nicht mehr erschlagen.
MaverickM schrieb:
Mich persönlich hätten zudem mal ein paar mehr Daten zu Affinity Photo (und ggf. auch Publisher/Designer), auch im Vergleich zur nVidia Karte, interessiert.
In dem Fall agieren beide Karten quasi auf Augenhöhe, was Affinity Photo angeht.

Die 7900 XTX erreicht gemittelt beim Raster 18.456 Punkte, die RTX 4090 18.715 Punkte. Die 7900 XTX benötigt 175 W, die 4090 120 W. Die RTX 4090 ist hier nicht wirklich schneller, aber mit 157 Punkte/W über 50 % effizienter, da die 7900 XTX nur 105 Punkte erreicht.

Im Vektor ist es ähnlich, hier ist die 7900 XTX etwas schneller - 8494 Punkte gegen 8297 bei der RTX 4090. Die Effizienz ist aber auch hier bei der RTX 4090 besser, mit 91 Punkte/W gegenüber 52 Punkte/W.

Interessant ist, dass die RTX 4090 in beiden Tests ca. 2610 MHz erreicht, die 7900 XTX im Raster jedoch nur 2230 MHz - während bei Vektorlast dann auf 3042 MHz hochgeht. Das hat mich dann auch wirklich stutzig gemacht und ist für mich auch ein starkes Indiz für meine Schlussfolgerung.
 
  • Gefällt mir
Reaktionen: MaverickM
Ein hochwertiger und interessanter Artikel. Dein gewählter Schreibstil gefällt mir und ändert nichts am wissenschaftlichen Anspruch des Artikels.

Ich bin gespannt darauf zu erfahren, was AMD für die Zukunft von RDNA 3 und RDNA 4 plant bzw. bereits geplant hat. Womöglich haben die aktuellen Probleme von RX 7000 Team Rot dazu veranlasst, ihre vorherige Roadmap anzupassen. RDNA 4 ist bereits in Entwicklung und womöglich könnte RDNA 3.5 Einzug in den dedizierten Grafikkarten halten. Auch deine Andeutung, dass in der Zwischenzeit architektonische Verbesserungen an Navi 32 vorgenommen worden sein könnten, finde ich sehr spannend. Angeblich soll die RX 7800 auf dem Leistungsniveau einer RX 6900 XT liegen. Dies wäre ein deutlich größerer Generationssprung als bei der RX 7600. Mal schauen.
 
Volker schrieb:
Sowas ist schon etwas Balsam auf die Seele, wenn es mal von extern kommt. Denn vieles, was hier erscheint, wird eben im Alpha- oder Beta-Status getestet - und da wird öfter geflucht. Und so schnell mal "nebenbei" geht da eben nix, schnell kann man dabei nämlich über Probleme stolpern und Fehler machen, Zeit ist ein großer Feind in der Branche. Wer die nicht investiert und schnell schnell macht, bringt dann Mist auf die Seite. Davor sind auch wir nicht geschützt, versuchen es aber eben nach bestem Gewissen zu vermeiden. Und wenn das heißt, schon wieder Windows 11 neu aufzusetzen auf ner anderen SSD und alles neu zu installieren - oft hilft leider genau nur das.
"Lassen Sie sich Zeit, ich habs eilig." - Der chinesische Kaiser zu seiner Ankleidehilfe
 
Zurück
Oben