Notiz Infinity Cache: Geschützte Marke für AMDs potenzielle Geheimwaffe

Volker schrieb:
HBM ist eine sehr gute Technologie, aber beim Design-Prozess haben sie halt damals irgendwie gedacht, das wird schon passen. 2 Mal. Ob der Fokus, es mit HBM umzusetzen, am Ende auf GCN abgefärbt hat oder umgekehrt, ist wohl das Henne-Ei-Problem

die GCN architektur gibts bei amd schon seit der HD 7000er serie und jede weitere iteration von GCN war eher ein kleines designupdate als eine neue architektur - d.h. der grundsätzliche aufbau von GCN blieb bis zur radeon 7 weitestgehend bestehen. sieht man auch daran, dass fiji und vega quasi die selbe IPC haben.

GCN ist auf viele parellele operationen ausgelegt. die einheiten sind in größere gruppen eingeteilt und optimalerweise sind die gruppen mit tasks gefüllt wenn der nächste taktzyklus kommt. GCN ist ein bus mit 50 sitzplätzen. jetzt ist das natürlich nicht sonderlich flexibel und je geringer die auslastung ist, desto ineffizienter ist die architektur. entweder laufen einheiten leer oder halb voll oder warten.

takt und speicherbandbreite sind bei GCN trumpf.

vega war viel schneller als fiji, und das kommt hauptsächlich aus dem takt. hbm verbraucht wenig strom, also mehr powerbudget für den core, und hbm hat viel speicherbandbreite. hbm ist der perfekte speicher für GCN, aber GCN ist nicht die perfekte architektur für gaming, weil gaming workloads einfach nicht so geregelt ablaufen, als dass man GCN noch anständig auslasten könnte.

das perfekte beispiel ist die radeon 7 - die karte hat die selbe architektur, nur 60 CUs, aber mehr takt und bandbreite als v64 und ist signifikant schneller - aber auch hier sieht man: RDNA 1 ist in niedrigen auflösungen verhältnismäßig viel schneller - in 4k kann sich die radeon 7 wieder weiter von der 5700 XT absetzen. das ist einfach der effizienzvorteil von RDNA vs GCN, weil die einheiten in RDNA granularer eingeteilt sind und RDNA 1 in niedrigen auflösungen schon gut ausgelastet und weniger gewartet wird. der 5700 XT geht in höheren auflösungen die puste aus, während die radeon 7 sich gerade erst so langsam richtig optimaler auslastung annährt.

das selbe sieht man jetzt auch bei nvidia ampere - die fetten chips haben immer ein auslastungsproblem.

das letzte mal, dass "GCN" gut funktioniert hat, war in hawaii und polaris. hawaii hatte ein 512bit GDDR5 memory system - und polaris ist nur 36 CUs groß. je kleiner der chip, desto besser lassen sich die GCN einheiten auslasten.

bei der chipfläche von polaris hätte man auch eher gtx 1070 performance erwarten müssen - aber das geht gerade noch so in ordnung. und hawaii hat gezeigt, dass ein fettes memorysystem ein muss ist.

HBM war die lösung zum GCN problem - meiner meinung nach. ein henne-ei-problem sehe ich hier nicht.
 
Zuletzt bearbeitet:
@pipip HBM hat sich schon lange durchgesetzt. Da muss man sich nur die Teslas von Nvidia anschauen. @Volker und die meisten hier im Forum sind halt mit der Gamingbrille unterwegs, da wundern solche Aussagen natürlich nicht. GCN war insofern auch eher eine Notlösung da schlichtweg nicht die Ressourcen da waren um zwei Architekturen zu entwickeln, das kommt erst jetzt. Und ganz ehrlich, wenn ich da entscheiden müsste zwischen Fokus auf professionellen Anwendern oder Gamern würde ich ohne zu zögern erstere nehmen.

@duskstalker GCN und gerade Vega waren professionelle Karten auf die man noch den Gamingaufkleber geklebt hat um die Meute ruhig zu stellen. Die Karten sind voll und ganz auf Compute ausgelegt. HBM kaschiert zwar etwas die Schwächen im Gaming, aber bringt genauso Vorteile im professionellen Bereich. Man sieht das auch recht deutlich wenn man sich das in Compute Anwendungen, unter anderem Deep Learning anschaut. Da rangiert die VII halt zwischen 2080 und 2080TI.

Ich frage mich auch wie viel von Infinity Cache und ähnlichem in CDNA drin stecken wird. Laut dem Paper eignet es sich dafür hervorragend. Damit könnte man selbst gegen Tensor Cores einigermaßen ok dastehen. Ist faszinierend wie sehr sich die Wege von Nvidia und AMD da unterscheiden. Bin auch mal gespannt mit was Intel da um die Ecke kommt.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO- und Colindo
@Kacha

GCN war die nachfolgearchitektur von terascale. amd hat die architektur für beides genommen, das heißt aber nicht, dass GCN für gaming nicht vorgesehen war - GCN hat einige spielespezifische features und optimierungen bekommen - ein einfaches umlabeln von prof.karten ist das nicht. mit hawaii hat amd nvidia sogar im highend geschlagen. die spiele haben sich einfach von GCN wegentwickelt und GCN musste viel zu lange auf einen nachfolger warten - tahiti mit GCN 1 kam 2011 raus.

nvidia macht gerade mit ampere das selbe wie AMD mit GCN - hier kommt der ga102 auch in den quadros zum einsatz.
 
  • Gefällt mir
Reaktionen: Colindo
@duskstalker Naja, wegentwickelt kann man es nennen. Sah eher nach einer Entscheidung von AMD zu Gunsten von Compute aus. Kann es ihnen nicht verübeln. Habe auch mit dem Gedanken gespielt mir eine VII dafür zu kaufen, aber der Support für Tensorflow sah zu dem Zeitpunkt noch unterirdisch aus. Das ist mittlerweile zumindest besser, wenn auch nur unter Linux. Leider kommt WSL2 mit GPU Passthrough erst 21H1...

Nvidia hatte für die Quadros doch immer schon die gleichen Chips. Nur für die Datacenter Karten wie die Teslas hatten sie einen extra Chip. In der Regel waren die Geforce Karten nur beschnitten.
 
Coeckchen schrieb:
Die Treiber sind ja nicht unbedingt die Besten, nur die Hübschesten...
Was soll an einem Treiber hübsch sein?
Das er Vorbildlich in den Linux Kernel integriert ist und Rock solid läuft? Oder meinen sie die Schicke GUI unter Windows, das ist streng genommen kein Treiber... höchstens ein Konfigurationstool für diesen.
Coeckchen schrieb:
Treiber Installiert - Bluescreen
Ok sie meinen wohl Windows, aber auch da hatte ich mit der Radeon VII keine Probleme war aber auf nur 1 Tag installiert.
 
AlphaKaninchen schrieb:

Mit Hübsch meinte ich nur die Oberfläche :D und ja ich meinte Windoof, von Linux hab ich kein Plan^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: AlphaKaninchen
neofelis schrieb:
% DX12, 70% RT, 0%DLSS einer 3080 bei <300W Board-Power und 700€ würden MIR jedenfalls schon lange reichen.

Sorry, aber warum sollte man sich dann eine AMD Karte kaufen? Ich will doch das beste für mein Geld. Dabei sollte es egal sein bei welchem Hersteller ich mich bediene.
 
  • Gefällt mir
Reaktionen: Coeckchen
Hayda Ministral schrieb:
Ich finde es immer wieder witzig wenn Leute sich ihre eigenen "Fragen" direkt beantworten.

Bitte darauf achten worauf ich geantwortet habe. Der Post den ich zitiert hatte sagt in etwa er wünsche sich 90% Gaming Leistung der 3080, weniger RTX Leistung, null DLSS Leistung etc für den selben Preis wie eine RTX 3080.

Das in dem Falle die AMD Karte dann nicht das bessere Produkt wäre ist Fakt.
 
Korrekt. Was aber auch 295 Watt sein könnten :). Steht meiner Meinung nach aber in keinem Verhältnis wenn die anderen Anforderungen teilweise nur gering schlechter, teilweise aber sehr viel schlechter sind.

Bei 649 Euro würde ich konform gehen, aber doch nicht für den gleichen Preis.
 
Man sollte immer Preis/Leistung bevorzugen, nichts anderes. Alles andere sind persönliche Belange und haben nichts mit Objektivität zu tun :)
 
Hayda Ministral schrieb:
Also keine Highend Grafikkarte kaufen
Klar, kann man. Wenn man zwei High End Karten hat nimmt man die mit dem besseren Preis/Leistungsverhältnis.
 
Hayda Ministral schrieb:
dann verbieten sich doch die HighEnd Karten Deiner Philosophie nach?
Das hast du dir zusammengereimt. Es ging im Ausgangszitat immer noch um eine GPU die in allen Belangen (bis auf den Stromverbrauch) schlechter wäre als die Konkurrenz. Da ist P/L nunmal nicht gegeben.

Ich verstehe worauf du hinaus willst. Macht aber meiner Meinung nach keinen Sinn wenn man das Ausgangszitat beachtet.
 
Zurück
Oben