Test RDNA 2 vs. RDNA vs. GCN im Test: IPC und CU-Skalierung bei Radeon RX seit GCN analysiert

.Sentinel. schrieb:
Das macht man als Entwickler aber (noch) nicht, da sonst die Vorgängergenerationen an Grafikkarten und auch die anderen Plattformen (RNDA/2) nicht mehr so performant laufen würden. Da ist die "Massenkompatibilität" dann doch wichtiger als das Optimieren auf Ampere (sorry nvidia).
Da die Konsolen in RDNA 2 sind, glaube ich kaum dass das auch in Zukunft für die überwältigende Mehrheit der Spiele Entwickler auch nur ansatzweise eine Option ist, auch wenn Nvidia das anders sehen mag.
Wann kam doch gleich Turing mit Raytracing und DLSS und wieviele Spiele gibt es seit dem auf dem Markt im Vergleich zu den Neuerscheinungen?!
 
  • Gefällt mir
Reaktionen: Fighter1993
Taxxor schrieb:
Die Karten müssten doch eigentlich viel effizienter geworden sein wenn man den Takt nur auf sagen wir 2,2GHz maximal gesetzt und dafür die IPC erhöht hätte.
Ja und nein: Eine IPC-Erhöhung ist bei Grafikkarten im Vergleich zu CPUs nicht so einfach, weil Grafikkarten schon selbst mit relativ "simplen" Instruktionen arbeiten und zudem auch nach dem In-Order-Prinzip innerhalb des Shaders/Threads.

Es ist auch schwer bei den GPUs von "IPC" zu sprechen, weil die von einer Vielzahl an Faktoren abhängt. Ich hab ja nicht umsonst schon davon gesprochen, dass AMD bei GCN das Problem hatte genug Vektoren auf die GPU zu bringen, während NVIDIA nun das Problem hat passend lange Vektoren auf die GPU zu bringen.

Die IPC wird also bei einer GPU primär über die Faktoren: Vektoren (Threads) und Breite der Vektoren bestimmt und wie man diese dann über den Treiber füttern kann.

Und die Anzahl der Vektoren/Threads (Shader-Programm) ist von der Engine sowie dem Bild abhängig und die Breite der Vektoren auch vom Bild und deren Auflösung.

AMD und NVIDIA haben hier garnicht so viele Stellschrauben, wie man denkt. Sie können pro CU/SM nur die Anzahl der Threads sowie deren Breite direkt beinflussen, alles andere geht dann über den Treiber.

NVIDIA und AMD brauchen - aktuell - um ihre Topmodelle Auszulaste ca. 160 Threads. Hier ist für AMD dann der Vorteil, dass ihre CUs feiner aufgeteilt sind - 32 + 32 - und die WGP als Überodnung auch zum Beispiel einen 96 FP + 32 INT-Workload (75 % - 25 %) zu lässt, während bei NVIDIA in so einem Fall ein 2 Takt notwendig ist. (Beide haben 128 Shader)
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Jan und Iscaran
Es gibt ja eine parallele News zu AMDs FSR.
Das kommt für RDNA und die neuen Konsolen, ist also ein super mächtiges Feature, mit in Potenz größerer Reichweite als Nvidias DLSS.
https://www.computerbase.de/2021-03/amd-fidelityfx-super-resolution-dlss-alternative-2021/

Nicht nur, dass AMD die viel bessere Fertigung bei TSMC hat, eine viel effizientere Architektur mit RDNA 2.0. AMDs Gegenstück zu DLSS wird auch noch eine viel größere Reichweite haben....

Viele Spiele sind schlechte Ports von den Konsolen auf dem PC.
Und die werden zukünftig für Super Resolution optimiert sein.....

@unter mir:
Weder wollte ich eine PC vs Konsole Diskussion beginnen, noch werde ich ein Wort weiter dazu hier schreiben. Es wird mit Sicherheit bald hier einen neuen Thread geben, wo wir beide uns dazu austoben können.

Die Mods erlauben grundsätzlich aber nur eine eindimensionale Diskussion zum Thema.
Ich bitte dich um etwas Geduld, auch wenn ich selbst eindimensionale Diskussionen für viel zu flach halte.
Da ist der Unterhaltungswert der Bild-Zeitung besser....
 
Zuletzt bearbeitet von einem Moderator:
DonL_ schrieb:
Da die Konsolen in RDNA 2 sind, glaube ich kaum dass das auch in Zukunft für die überwältigende Mehrheit der Spiele Entwickler auch nur ansatzweise eine Option ist, auch wenn Nvidia das anders sehen mag.
So sieht es aus... In gewisser Weise ein wenig verschenktes Potenzial.
Hab bei unserem Titel ein par Tests gemacht und gezielt alles auf FP getrimmt.

Da kann Ampere durchaus nochmal 30% drauflegen. Nur- Wer pflegt schon zwei Code- Basen/Render Pipelines?
Das tut sich keiner an....

DonL_ schrieb:
Wann kam doch gleich Turing mit Raytracing und DLSS und wieviele Spiele gibt es seit dem auf dem Markt im Vergleich zu den Neuerscheinungen?!
Die Entwicklung geht langsam aber stetig voran. Diesbezüglich ist immer mehr in der Pipeline und die Integration gestaltet sich auch immer einfacher.
Ist ein normaler Prozess, der aber in Anbetracht des Impacts der Veränderung meines Erachtens noch verhältnismäßig flott umgesetzt wird.

Wer kann sich noch erinnern wiel lange es allein gedauert hat, sich von DX9 zu lösen....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
@Teralios

Wenn man jetzt nur von Rasterization ausgeht, entwickeln aber beide Firmen in verschiedenen Richtungen.
AMD hat massiv die Kommunikation verbessert auch mit dem Infinity Cache und steuert damit aber in Zukunft auf "klare" Unterteilungen der Karten für bestimmte Auflösungen zu.
Während man bei Nviadia mit Ampere beobachten kann, dass um so "kleiner" die Grafikkarten werden, um so schlechter sehen sie im Leistungsvergleich aus, da z.B. eine 3060 gar nicht für 4K mit ihrem Speicherinterface richtig vorgesehen ist. Gerade die 3060 enttäuscht als nächste Generation in Rasterization komplett und kann nicht mal eine 5700 wirklich bezwingen, und liegt hinter einer 5700XT, obwohl sie über 1000 FP 32 ALUs mehr hat.
Ist die Richtung die Nvidia da für Rasterization einschlägt nicht richtig ineffizient?
Viele Shader mit großen Dies, aber weniger Leistung?

Liegt jetzt der Schwerpunkt wirklich nur noch auf Raytracing, DLSS und hohen Auflösungen, obwohl der Markt noch gar nicht soweit ist?
So gut Ampere auch in 4K und im Feature Set mit Raytracing und DLSS abschneidet, ich halte die Architektur ansonsten für Rasterization über alle Auflösungen hinweg für einen Rückschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
DonL_ schrieb:
So gut Ampere auch in 4K und im Feature Set mit Raytrcing und DLSS abschneidet, ich halte die Architektur ansonsten für Rasterization über alle Auflösungen hinweg für einen Rückschritt.
Einen Tod musst Du sterben... Und wenn eines sicher ist, dann dass das Bruteforce- Rastern, wie wir es lange Zeit betrieben haben (zum Glück) zum alten Eisen gehört.

DLSS ist eben genau der Weg weg von der Ineffizienz des Rasterns...

Wir haben es hier mit dem klassischen Henne- Ei- Prinzip zu tun.
 
.Sentinel. schrieb:
DLSS ist eben genau der Weg weg von der Ineffizienz des Rasterns...
DLSS wird sich aber auch erst wirklich durchsetzen, wenn AMD endweder den GPU-Markt vollständig aufgibt, oder sich NVIDIA und AMD am Riemen reise und beide sagen: Okay, lasst uns hier was zusammen machen, damit wir es voran bringen.

Diese Insel-Lösngen sind weder für uns als Konsumenten gut, noch für NVIDIA oder AMD auf lange Sicht. So sehr ich DLSS auch mag und faszinierend finde, so lange NVIDIA nicht anfängt auch mit den anderem auf dem Spielplatz zu spielen, so lange muss ich diese Entwicklung leider ablehnen.

Ich habe nun zu oft erlebt, was solche "Monopole" bedeuten und wie sehr der Kunde am Ende den kürzere zieht.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
AMDs Super Resolution ist KEINE Insellösung, sondern betrifft alle RDNA GPUs auf dem PC, und alle neuen Konsolen....

Ich bin aber bei dir, wenn du eine weitere Spaltung des GPU-Marktes kritisiert.

Aber auch das ist hier schon wieder offtopic, da die Diskussion hier allein zum Test geführt werden darf....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Tanzmusikus
Teralios schrieb:
Ich habe nun zu oft erlebt, was solche "Monopole" bedeuten und wie sehr der Kunde am Ende den kürzere zieht.
Da gehe ich bis zu einem gewissen Punkt konform bzw. bin damit einverstanden.

Dennoch muss man berücksichtigen, dass so gut wie alle Entwicklungen erstmal "proprietär" sind, bevor sie Einzug in den Mainstream halten.

Auch eine TAA Integration ist kein Standard, wie er durch eine API bereitgestellt wird. Das darf jeder Entwickler schön selbst integrieren, sowie PCSS, CHS und sonstige Techniken, die sich aber bereits in Bereichen durchgesetzt haben (auch in diversen Abwandlungen).

Es muss also nicht immer alles gleich oder vorgekaut sein, um eine breite Basis zu treffen.

Ohne dieses Wesensmerkmal der IT hätte eine solch rasante Entwicklung in den letzten Jahren nicht stattfinden können.

Auch die Grafikkartenhardware ist Proprietär, sowie deren Treiber. Dennoch ist das kein "Makel".

Wettbewerbstechnisch sind es gerade die Alleinstellungsmerkmale bzw. technologischen Vorteile, die ein Produkt erst kaufenswert machen.
Ansonsten würde nur noch alles über den Preis geregelt werden und die Weiterentwicklung von Grafikkarten würde in kurzer Zeit stagnieren.

Es ist halt immer die Frage auf welches Pferd man setzt. NVIDIA hat die Featuretechnisch deutlich modernere Auslegung. AMD hat den klassischen Weg perfektioniert....
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Ein Effizienzvergleich bei 2,0 GHz bei 40, 60, 72 und 80 CUs? Oder bei was anderem?
Ne bei den größeren RDNA2 GPUs ist das eigentlich nicht so interessant, weil ja kein Generationenvergleich möglich ist. Aber bei 2 GHz 5700XT vs 2 GHz 6700XT also quasi identischer Spieleleistung könnte man schon sehen, ob die 50% Effizienzsteigerung tatsächlich eingetreten ist.
 
@zeedy Wenn man das ganze so aufbaut, dürften es sogar mehr als 50% werden.
So eine 5700XT auf 2GHz zieht ohne sonstige manuelle Eingriffe bei der Spannung bestimmt ihre ~260W.
Damit die 6700XT jetzt 50% effizienter ist, müsste sie die gleiche Leistung bei 66% dieses Verbrauchs erreichen.
260W * 0,66 wären ca 170W und die dürfte man mit 2GHz bestimmt sogar noch unterschreiten.
 
DonL_ schrieb:
Dann hast du anscheinend den Test nicht gelesen, da steht genau das Gegenteil!!
Zitat:

weiter:


Das AMD in 4K gegenüber Nvidia abfällt liegt daran, das ihre GPUs wesentlich weniger CUs/ALUs haben und auch um einiges kleiner sind, effizienter sind sie auf alle Fälle, sonst könnten sie mit weniger CUs/ALUs nicht fast die gleiche Leistung erreichen.
Ja stimmt, habs dann genau umgedreht. Aber zu 50% hats ja gestimmt :D
 
.Sentinel. schrieb:
Auch die Grafikkartenhardware ist Proprietär, sowie deren Treiber. Dennoch ist das kein "Makel".
Du solltest dich echt bei NVIDIA oder Intel bewerben als PR-Sprecher, gerade wenn beide Firmen wieder kurz vor dem Monopol sind, vielleicht kannst du so dann auch die Zerschlagung der Firmen verhindern.

Ich sag es ganz ehrlich: An der Stelle steige ich aus, weil du mal wieder mit leeren BWL- und RP-Floskeln um dich wirfst und um ein Argument zu konstruieren hier auch wieder Sachverhalte vermischt und ich damit unnötig viel Zeit benötigen würde um erst mal all das wieder zu trennen, was du hier zusammen würfelst, nur damit du ein Argument hast um Monopole zu verteidigen.

Viel Spaß, ich plan da dann doch lieber die Veranstaltungen für den Herbst weiter, auch wenn es bis dahin noch viel Zeit ist.
 
  • Gefällt mir
Reaktionen: foo_1337
Taxxor schrieb:
Wenn man diese aber sogar absichtlich etwas verschlechtert, um noch höhere Taktraten zu erreichen und so auf die Leistung zu kommen auf Kosten eines deutlich höheren Verbrauchs, dann sieht das für mich so aus, als hätte es gar keine Chancen auf bessere IPC bei RDNA2 gegeben.
Du musst bedenken, dass RDNA schon massiv bei der IPC zulegen konnte. Beim Test damals auf CB war der Vergleich mit der 2070 ja so, dass beide fast exakt die gleiche IPC besaßen. Nur die Energieeffizienz war noch nicht auf Nvidias Niveau. Und genau das ist die Hauptverbesserung bei RDNA2.
Ich glaube auch nicht, dass das ein Zufall ist, sondern dass AMD tatsächlich jetzt schon 2 Generationen hintereinander vernünftige, im Voraus geplante Verbesserungen implementiert, die die RTG weiterbringen. Da kann man nur gespannt sein, was bei RDNA3 passiert. 30% weniger Leistungsaufnahme bei gleicher Performance kommt ja schon durch N5.
 
Taxxor schrieb:
@zeedy Wenn man das ganze so aufbaut, dürften es sogar mehr als 50% werden.
So eine 5700XT auf 2GHz zieht ohne sonstige manuelle Eingriffe bei der Spannung bestimmt ihre ~260W.
Damit die 6700XT jetzt 50% effizienter ist, müsste sie die gleiche Leistung bei 66% dieses Verbrauchs erreichen.
260W * 0,66 wären ca 170W und die dürfte man mit 2GHz bestimmt sogar noch unterschreiten.
Ja das stimmt. Das wäre kein richtiger Effizienzvergleich. Aber immer noch die einzige und beste Möglichkeit die Leistungsaufnahme von RDNA1 mit RDNA2 bei gleicher Spieleleistung zu vergleichen.
 
@zeedy Effizienz ist ja auch nicht fest an ein bestimmtes Szenario gebunden, der Vergleich bei gleichem Takt kommt in diesem Fall ja einem Vergleich mit festem FPS Target recht nahe.

Und das dürfte für viele eben auch ein interessanter Faktor sein, gerade wenn man nicht nur die neusten AAA Titel spielt, sondern zusätzlich noch andere spiele, in denen die 5700XT bereits schnell genug war.
Die können die FPS in diesen Titeln dann eben limitieren und würden durch diesen Test auch wissen, wie viel weniger ihre neue Karte dann verbraucht.

Genau diese Methode hat Nvidia ja beim Effizienzvergleich der 3080 zur 2080Ti benutzt, allerdings ist das bei so einer Präsentation eher unangebracht, weil man damit nur ein ganz bestimmtes Szenario betrachtet und davon ausgeht, dass jeder 3080 Käufer nicht mehr FPS haben will als er mit einer 2080Ti hätte.
 
Teralios schrieb:
gerade wenn beide Firmen wieder kurz vor dem Monopol sind, vielleicht kannst du so dann auch die Zerschlagung der Firmen verhindern.
Naja- Damit legst Du ja offensichtlich Deine Motivation der Argumentation an den Tag.
Ich sehe halt alles in Sachen aus rein technischem Aspekt und Du stellst offenbar firmenpolitische oder firmenstrategische Belange, Befürchtungen oder Vorbehalte in den Vordergrund.

Diskutieren wir hier über Technik, IPC und CU oder Politik?
Teralios schrieb:
Ich sag es ganz ehrlich: An der Stelle steige ich aus, weil du mal wieder mit leeren BWL- und RP-Floskeln
Es gibt hier keine Floskeln. Es gibt harte, nachweis- und messbare Fakten bzw. Stärken und Schwächen der Architekturen. Totschlagargumente sind der Sache hier wenig dienlich.

Teralios schrieb:
um dich wirfst und um ein Argument zu konstruieren hier auch wieder Sachverhalte vermischt
Weil die Sachverhalte nunmal komplexer sind, als man es darstellt. Nicht nur allein die Organisation der Scheduler, Alus und co. spielen in einer Gesamtbetrachtung eine rolle, sondern eben auch die Steuerung z.B. der Api darüber. Eine IPC ist nämlich keine feste Größe sondern innerhalb der Rechenwerke je nach Operation variabel.
Das muss ich Dir aber nicht erzählen. Das weisst Du selbst.

Teralios schrieb:
und ich damit unnötig viel Zeit benötigen würde um erst mal all das wieder zu trennen, was du hier zusammen würfelst, nur damit du ein Argument hast um Monopole zu verteidigen.
Ich verteidige keine Monopole. Ein Monopol ist nur für denjenigen, der es innehält von Vorteil.
ich beschreibe einfachste Mechanismen der Motivation von Unternehmen warum sie überhaupt Dinge entwickeln und erforschen.

Du machst hier aus einer Mücke einen Elefanten.
 
Zuletzt bearbeitet:
"ein guter Tausch: IPC gegen Frequenz."

Das hat Intel doch beim Wechsel vom Pentium 3 zum Pentium 4 auch gemacht. Bekanntlich hat sich dieser Weg als Sackgasse erwiesen. Vielleicht schafft es AMD ja, bei zukünftigen GPU-Architekturen die IPC zu steigern, ohne die Frequenz wieder zu senken.
 
C4rp3di3m schrieb:
Naja schon heftig wie lange die 390 sich halten konnte, die 512bit hauen halt gut was raus und mit 8GB war die einfach Langlebig geplant. Ich bin nach wie vor zufrieden und BAR Funktioniert auch noch. Bis die Preise wieder erträglich werden bleibt sie in meinem System und ich habe kein FPS fetisch, sie schafft noch genug FPS das es flüssig ist und das reicht mir.
Ich habe ja auch in meinem Zweitsystem eine 290X mit 4GB VRAM. Die kann doch sogar schon FreeSync.
Mit meinem neuen UW-Monitor im April kann ich dann auch Retrospiele in smoother Bildpracht genießen. :daumen:
 
  • Gefällt mir
Reaktionen: C4rp3di3m
Zurück
Oben