Notiz Infinity Cache: Geschützte Marke für AMDs potenzielle Geheimwaffe

proud2b schrieb:
Zum 100ten mal, den größten Umsatz macht man mit Mainstream Karten, und NICHT mit High-End Karten.

Wieviele Leute in deinem Umfeld haben eine RTX3090 oder eine TitanV?
Der Markt ist gering, es zahlt sich einfach nicht aus.
Zum 100ten Mal, die Strahlkraft darf man trotzdem nicht vernachlässigen.
Alleine der Auftritt in Standard BenchmarkSystemen als Referenz ist nicht zu unterschätzten. Alleine das so Projekte wie z.B die Höllenmaschine mit den passenden Komponenten ausgerüstet werden, sind „kostenfreies“ Marketing bei einer nicht unerheblichen Zielgruppe.

Ein Imagewechsel von AMD ist dringend von Nöten. Wenn man weiterhin als Stromfresser/Hitzkopf/billig und sowieso als der ewige Zweite gesehen wird, gewinnt man keine nennenswerte Marktanteile und wird auf ewig Umsätze haben, die Konkurrenten als Gewinn einstreichen.

AMD hat es mit Ryzen vorgemacht. 16 Kerne in den Mainstream zu drücken, war für niemanden notwendig, aber alleine die Tatsache, dass die KonkurrenzNummer bei Intel HEDT hieß und auch entsprechende Preise aufrief, machten dieses Entscheidung mehr als sinnvoll.
Vorallem weil man den Trend der Zeit erkannt hat. Octa Core Handys waren in aller Munde und ein Marketinghype.

Im Grafikkartenbereich hat AMD das Gleiche versucht wie im CPU Bereich. Ein Produkt für alles. Das ist krachend schiefgelaufen. Meine Vermutung, NVIDIA war nicht Intel und deren Pläne sind richtig gelaufen.
Rückblickend war Vega eine Katastrophe. Jedenfalls im Prestige Bereich.
 
  • Gefällt mir
Reaktionen: Birfan, Cpt.Willard und Haenger
D708 schrieb:
AMD hat es mit Ryzen vorgemacht. 16 Kerne in den Mainstream zu drücken, war für niemanden notwendig, aber alleine die Tatsache, dass die KonkurrenzNummer bei Intel HEDT hieß und auch entsprechende Preise aufrief, machten dieses Entscheidung mehr als sinnvoll.
Vorallem weil man den Trend der Zeit erkannt hat. Octa Core Handys waren in aller Munde und ein Marketinghype.
Das wirds wohl hoffentlich sein.
Tatsächlich hoffe ich, dass so manche 1100€ RTX 3080-Käufer leicht auf die Fresse fallen, nicht dass die Karte schlecht wäre, doch damit es ein böses Erwachen beim Gehype gibt.
Diese Nachfrage bei explodierenden Preisen ist regelrecht irre...

Sollte (Daumendrück) RDNA2 innovativ da wirklich was hinzaubern, könnte das regelrecht weh tun und zu gönnen wäre es AMD als Konkurrenten ... leider hoffen wir das alle schon seit ein paar Jahren... tatsächlich sind Zen und RDNA 1 aber keine Rohrkreperier und da kann man vom grünen Team noch so oft sagen, "aber der 250er chip kommt nicht an die 2070 Super ran... :p"... - äh ja, weil da schon klar war, dass die günstige Mittelklasse zwischen 70er und 80er kam - nur der ignorante hat den "Super-Schachzug" nicht kapiert und jetzt ist hoffentlich GCN raus aus RDNA und der Chip ist eben nicht mehr "Medium", sondern Big - und da zweifelt man ernsthaft ein Überschreiten der 2080ti an?!... okay.
 
  • Gefällt mir
Reaktionen: Markenbutter
Dürfte Nvidia bei der 16GB-Version der 3070 nicht das gleiche Problem haben, 16GB an einem 256-bit Interface?
 
Wun Wun schrieb:
Dürfte Nvidia bei der 16GB-Version der 3070 nicht das gleiche Problem haben, 16GB an einem 256-bit Interface?
Welches Problem denn?

Das einzige Problem wäre, wenn die gewählte Konfiguration nicht die zu erzielende Leistung erreicht.
 
D708 schrieb:
Ein Imagewechsel von AMD ist dringend von Nöten. Wenn man weiterhin als Stromfresser/Hitzkopf/billig und sowieso als der ewige Zweite gesehen wird, gewinnt man keine nennenswerte Marktanteile und wird auf ewig Umsätze haben, die Konkurrenten als Gewinn einstreichen.
Sorry. Das ist Quatsch. Du selbst bringst das beste Beispiel. AMD CPUs. Bulldozer war nicht Konkurrenzfähig... Und heute - kräht kein Hahn danach und die Krone hat man im Gaming noch nicht... Und trotzdem kaufen die Leute wie blöd AMD CPUs... Ist ja auch klar ist das bessere Gesamtpaket...
Und das macht AMD gerade auch bei den GPUs.. Vielleicht sind sie in dieser Generation noch nicht ganz dran. Aber Zen 1 war ja auch nicht ganz dran - trotzdem super... Lisa hat was geschaffen wo alle Konkurrenten aufpassen müssen.. Den Takt den AMD an den Tag legt tut allen weh... Fast im Jahrestakt eine neue Iteration der eigenen Architekturen... Und das mit echten Verbesserungen... Und das was sie bei Zen vorgemacht haben machen sie jetzt auch mit RDNA - und da kommt jetzt erst die 2te Iteration... NV wird kotzen wenn es AMD wirklich schaft und zur 3 Iteration MCM bringt (falls nicht kommt es mit 4 da bin ich sicher). Selbst wenn man nicht die Leistungskrone erringt.. Mit MCM hat man dann die selben Vorteile wie bei der CPU Produktion... Ein relativ kleines GPU Chiplet mit dem man dann ein ganzes Lineup produziert.. Das tut der Konkurrenz so weh..

Lisa hat eine echte Strategie auf die Straße gebracht. Nicht mit dem ersten Schlag muss der Gegner in die Knie gehen.. Aber sie schlagen beständig immer wieder zu.. Und die Entwicklungen bauen aufeinander auf... Schwachstellen werden konsequent erkannt und im Design ausgebessert..
 
  • Gefällt mir
Reaktionen: cbmik und Porky Pig
Summerbreeze schrieb:
Ich denke Raytraicing dürfte davon auch sehr profitieren.

Da bin ich doch gerade über einen Kommentar gestolpert den die Redaktion von Toms Lügenguide aus der Deckung heraus und durch schwere Körperpanzerung gegen die beständig durch die Redaktionsräume hüpfenden CPU-Kühlkörper geschützt von sich gegeben hat:

There are at least a few rumors or hints that Big Navi might not even have RT cores as such, but instead use some optimized shader logic and large caches to boost RT shader calculations.

Eine gedankliche Verbindung zwischen "Infinity" und "Raytracing" erscheint mir naheliegend.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jemandanders
Novasun schrieb:
Sorry. Das ist Quatsch. Du selbst bringst das beste Beispiel. AMD CPUs. Bulldozer war nicht Konkurrenzfähig... Und heute - kräht kein Hahn danach und die Krone hat man im Gaming noch nicht... Und trotzdem kaufen die Leute wie blöd AMD CPUs... Ist ja auch klar ist das bessere Gesamtpaket.
Zen war von Anfang an der große Wurf. Vielleicht nicht im Gaming, aber in der Prestigeträchtigen Serversparte und war meiner Meinung nach auch genau dafür geplant. Hohe CoreCounts, niedrige Entwicklungskosten für neue CPUs, Skalierbarkeit und so weiter. Nachteile der Architektur, wie der InginityBus kommen in dem Bereich quasi nicht zum Tragen. Vorteil für AMD war nach Release von Zen, dass Intel nichts hatte außer eine Ringbusstrategie, die am Ende war, und ein „Hängerchen“ in ihrem Nanometer Rennen.

Analog auf die GPU Sparte kann man das nicht ziehen. Der Versuch ein Produkt für alles, wie Zen, hat überhaupt nicht funktioniert. Vega war nen Reinfall. Im Profiumfeld konnte die Karte was, aber der Rest war ne Katastrophe. Warum musste wohl Polaris so lange weiterlaufen. Weil es in sich die bessere Architektur für den Consumerbereich war.

RDNA verfolgt den Richtigen Ansatz, aber ob die wirklich den Wurf gepackt haben, wird man erst mit den Big Chips sehen. Ansonsten haben wir Polaris 2.0. Damit gewinnt man keine Marktanteile.
 
Hayda Ministral schrieb:
Naja- Wie man es jetzt nennt sei mal dahingestellt (Core, Logik, Einheit usw.). Die Fakten sind jedoch inzwischen bekannt:

The most notable is the inclusion of ray-acceleration hardware: One per SIMD or four per DCU.
As per MS, each Compute Unit can do four texture or Ray ops per clock or eight per DCU.

That means 208 Ray-tracing operations per clock for the entire GPU. Interestingly, the texture units and ray-acceleration structures share resources between them which means that the effective ray-tracing capabilities will be lower than 208.

https://www.hardwaretimes.com/xbox-...racing-mesh-shading-sampler-feedback-and-vrs/

Schätzungsweise wird man, wenn man es klug anstellt, in der Praxis knapp auf Turing- Niveau landen, was RTRT anbelangt. Somit kann man bei der Anzahl an zu erwartenden CUs schon damit rechnen, dass das ganze praxistauglich wird.
1602056844129.png


3-10 wird als Faktor angegeben, weil sich die Einheiten eben alles noch mit den TUs teilen müssen.
Im schlechtesten Falle kann also da auch deutlich weniger RTRT Leistung dabei rausspringen.

Ähnlich dem Ampere- Prinzip, wo man Theoretisch die doppelte Rechenleistung rausholen kann, in der Praxis aber Recheneinheiten Doppelt belegt sind und nur entweder/oder berechnet werden kann (INT/FP).

Ist ein Taschenspielertrick, der aber wiederum für optimierte Auslastung der Einheiten sorgt, also nicht verwerflich sondern effizient.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
D708 schrieb:
Zen war von Anfang an der große Wurf. Vielleicht nicht im Gaming, aber in der Prestigeträchtigen Serversparte und war meiner Meinung nach auch genau dafür geplant. Hohe CoreCounts, niedrige Entwicklungskosten für neue CPUs, Skalierbarkeit und so weiter. Nachteile der Architektur, wie der InginityBus kommen in dem Bereich quasi nicht zum Tragen. Vorteil für AMD war nach Release von Zen, dass Intel nichts hatte außer eine Ringbusstrategie, die am Ende war, und ein „Hängerchen“ in ihrem Nanometer Rennen.

Das ist auch Quatsch. Sorry Zen 1 spielt bei Servern mal so was von keine Rolle. Und das hat diverse Gründe. Nicht weil Zen 1 schlecht ist. Aber das Problem der unterschiedlichen Latenzen je nachdem ob du den RAM direkt am CCX hast oder wo anders ist für die meisten wichtigen Server Use Cases ein absolutes "No Go" gewesen.
Und Admins steigen schon mal nicht gerne um. Meines wissens ist Zen selbst heute noch immer kein Gamechanger für AMD was Server betrift. Es wird langsam (leider sehr langsam) besser.
 
@Volker danke! So darf man einen Artikel gerne schreiben, wenn über dieses geheimnisvolle "Infinity Cache" nichts bekannt ist! Wäre schon, wenn du in der Zukunft auch die anderen AMD Artikel neutral und die Intel Artikel bissiger (nicht immer alles schönreden) schreibst!

Ich bin gespannt, wie die neue Generation wird!
 
Summerbreeze schrieb:
Jo, hab ich vorhin auch erst gelesen.
Finde ich extrem interessant.
Ich denke Raytraicing dürfte davon auch sehr profitieren.

Wuerde ich auch darauf tippen. Vor allem wenn "Infinity Cache" bedeutet, dass die verschiedenen Cache Stufen bis VRAM (inklusivem moeglichem grossem Cache) "unified" sind. Also besser miteinander verwaltet werden so, dass relativ wenige Daten dupliziert sind. Damit vermeidet man eine ganze Menge Cache Misses und haelt grundsaetzlich mehr vor.

Colindo schrieb:
Das klingt echt interessant. So wie ich das verstehe werden die L1-Caches von CUs, die an den gleichen Daten arbeiten, zusammengeschaltet. So hätten 5 CUs zusammen 5x soviel L1-Cache, wenn sie eine ähnliche Aufgabe bearbeiten. Sollte eine CU plötzlich andere Daten brauchen, geht die Miss-Rate hoch und die Gruppe wird neu aufgeteilt, so dass die eine CU wieder ihren eigenen L1-Cache hat und die restlichen 4 CUs mit 4xL1 weiterarbeiten.

Wenn sie das wirklich durchziehen und gut umsetzen wird das eine kleine Revolution. Vor allem weil es die Leistung generell steigert und nicht nur in speziellen Faellen wie es extra Hardware tun wuerde.

Colindo schrieb:
Konnte mir das Paper von @Kacha noch nicht durchlesen, vielleicht morgen.

Ich habe es auch eher ueberflogen, aber in der Introduction listen sie die Contributions inklusive Resultate auf. Das ist schon ordentlich fuer so eine "einfach" Aenderung. Bin gespannt wie das auf 7nm runterskaliert ist. Die Autoren nutzen 65nm fuer den Prototypen.

Colindo schrieb:
Bei dir klingt das aber so, als würde die Caches geteilt, also kleiner. Ich verstehe das als ein Zusammenschließen der Caches, oder nicht?

Ich denke @incurable hat das etwas unguenstig formuliert. Ich denke er meint, dass die L1 Caches in der Tat zusammengeschlossen werden und dann untereinander im Cluster "geteilt" im Sinne von verfuegbar gemacht werden.

Colindo schrieb:
Das klingt zwar wie eine clevere Idee, aber wie von Volker schon gesagt, wäre ein asynchrones Speicherinterface (außer der HBM ist exakt so schnell wie der GDDR6) in der Realität nicht so leicht von Vorteil.

Falls "Infinity Cache" ein holistisches Konzept von Cache und VRAM meint, koennte es moeglich sein. Allerdings scheint es recht weit hergeholt. Falls man es aber schafft die Vorteile von jeder VRAM Art so auszuspielen, dass sie die Nachteile ueberwiegen koennte es Sinn machen. Ich glaube aber eher weniger daran.

Colindo schrieb:
Bezüglich 128 MB Cache-Größe geben die offiziellen Dokumente da gar nichts zu her. Woher kommt denn das Gerücht? Das würde ich erstmal seeeehr kritisch betrachten.

Das sind irgendwelche Hochrechnungen und Schaetzungen und mitunter mit einem riesen Fragezeichen zu versehen. Koennte gut sein, dass davon nichts kommt. Koennte aber auch kommen.
 
Kacha schrieb:
Ich denke @incurable hat das etwas unguenstig formuliert. Ich denke er meint, dass die L1 Caches in der Tat zusammengeschlossen werden und dann untereinander im Cluster "geteilt" im Sinne von verfuegbar gemacht werden.
Nein, der Ausgangspunkt im Patent ist eine Einheit mit Rechen- und Cache-Untereinheiten. Optional ist ein Betriebsmodus, in dem diese Gesamtheit an Untereinheiten in Cluster aufgeteilt wird.
 
Volker schrieb:
Zudem sollte man meinen, AMD sei was HBM angeht ein stark gebranntes Kind, nach quasi 2 Flops in dem Bereich für Consumer-Karten.

Wären diese "Flops" mit GDDR besser gewesen?

Es ist offensichtlich, dass GCN der limitierende Faktor war, und trotzdem wird immer so getan, als ob HBM an der Performance schuld wäre oder hätte die Performance um 50% verbessern müssen.

Vernünftigerweise müsste man das eher anders herum sehen, HBM hat noch das beste aus den Karten herausgeholt.

Diese grundsätzlich negative Einstellung gegenüber hbm nervt gewaltig.
 
  • Gefällt mir
Reaktionen: yummycandy, Hatch, Sun-Berg und eine weitere Person
.Sentinel. schrieb:
Schätzungsweise wird man, wenn man es klug anstellt, in der Praxis knapp auf Turing- Niveau landen, was RTRT anbelangt. Somit kann man bei der Anzahl an zu erwartenden CUs schon damit rechnen, dass das ganze praxistauglich wird.
Anhang anzeigen 976187

3-10 wird als Faktor angegeben, weil sich die Einheiten eben alles noch mit den TUs teilen müssen.
Im schlechtesten Falle kann also da auch deutlich weniger RTRT Leistung dabei rausspringen.
 

Anhänge

  • PHOTO-2020-10-06-20-22-14.jpg
    PHOTO-2020-10-06-20-22-14.jpg
    116,3 KB · Aufrufe: 301
duskstalker schrieb:
Wären diese "Flops" mit GDDR besser gewesen?

Es ist offensichtlich, dass GCN der limitierende Faktor war, und trotzdem wird immer so getan, als ob HBM an der Performance schuld wäre oder hätte die Performance um 50% verbessern müssen.

Vernünftigerweise müsste man das eher anders herum sehen, HBM hat noch das beste aus den Karten herausgeholt.

Diese grundsätzlich negative Einstellung gegenüber hbm nervt gewaltig.

Vermutlich nicht und in diese Richtung meinte ich es eigentlich auch gar nicht. HBM ist eine sehr gute Technologie, aber beim Design-Prozess haben sie halt damals irgendwie gedacht, das wird schon passen. 2 Mal. Ob der Fokus, es mit HBM umzusetzen, am Ende auf GCN abgefärbt hat oder umgekehrt, ist wohl das Henne-Ei-Problem.
Wie gesagt, Koduri klang im letzten Intel-Call so, als hätte sich er bei AMD eben nicht nur bei GCN vertan, sondern auch mit dem zu krassen Fokus, es unbedingt mit HBM machen zu wollen. Dabei ist dann irgendwas auf der Strecke geblieben.
 
Volker schrieb:
Koduri klang im letzten Intel-Call so, als hätte sich er bei AMD eben nicht nur bei GCN vertan, sondern auch mit dem zu krassen Fokus, es unbedingt mit HBM machen zu wollen. Dabei ist dann irgendwas auf der Strecke geblieben.
Die Recheneinheiten sind schlicht verhungert.
Ich vermute mal stark, das er deswegen auch gegangen (worden? ) ist.
David Chang scheint dagegen ein Effizienzfetischist zu sein?
 
@Incident über die Einheiten Tri Rate und Box Rate kann ich nichts finden. Was bedeutet das?
 
incurable schrieb:
Nein, der Ausgangspunkt im Patent ist eine Einheit mit Rechen- und Cache-Untereinheiten. Optional ist ein Betriebsmodus, in dem diese Gesamtheit an Untereinheiten in Cluster aufgeteilt wird.

Bist du dir sicher, bzw. koenntest du mir das zitieren? Schon der Abstract liest sich komplett anders. Wir reden von dem hier, richtig? Hier geht es um die dynamische Aufteilung von compute units (CUs) in Cluster basierend auf der Miss Rate der Caches. Falls du mit "Einheit" die "plurality of graphics processing unit compute units" meinst, dann beschreibt das nur eine Grafikkarte. Die Claims machen auch recht eindeutig um was es geht. Der Betriebsmodus ist nicht optional, sondern der zentrale Claim. Etwas umstaendlich formuliert geht es darum die Cluster(groessen) zu rekonfigurieren und eben das damit verbundene wie. Alles was vor den Claims steht beschreibt eigentlich nur auf was es sich bezieht. Deswegen bin ich mir nicht ganz sicher was du meinst. Patente benoetigen normalerweise ihre eigene Lesensweise. Wenn man damit nicht vertraut ist geht das schnell schief. Und amerikanische Patente sind eh nochmal mehr Spass, weil sie schwammiger formuliert sein duerfen.
 
  • Gefällt mir
Reaktionen: Colindo
Volker schrieb:
Wie gesagt, Koduri klang im letzten Intel-Call so, als hätte sich er bei AMD eben nicht nur bei GCN vertan, sondern auch mit dem zu krassen Fokus, es unbedingt mit HBM machen zu wollen. Dabei ist dann irgendwas auf der Strecke geblieben.
Koduri bezog sich hier aber nur auf Gaming Karten. Denn bei Compute ist es durchaus der andere Fall und Vega hat zwar viele Features, die auch Games betreffen, aber ich habe eher den Eindruck dass das für ihm eher Nebensache ist. Ich würde fast wetten, dass er selbst vermutlich mehr an Data-Center und KI interessiert ist.
Ist aber natürlich eine subjektiver Eindruck den ich habe.

Und auch HBM ist so eine Sache. Morgen kann das alles schon wieder anders aussehen. HBM ist nur einfach nicht billig. Wenn aber jetzt auch Intel HBM großflächig nützt, wird die Nachfrage größer und somit auch mehr Fabriken gebaut. Auch sieht man ja immer mehr ARM-Design mit HBM als Speicher. Also HBM ist lange nicht tot, sehe es eher im Kommen.

Und ob man sich bei GCN vertan hat... Eher bei der Doktrin alles auf eine Arch zu setzen. Diese Entscheidung war aber noch vor Lisa Su. Er war es laut Gerüchten auch, der sich aufgeregt hat, dass der CEO zu viele Entwickler aus seiner Radeon Group Richtung Sony und MS abgezogen hat um dort an den Konsolen Chips zu arbeiten.

Die Wahrheit liegt natürlich irgendwo in der Mitte.
 
Zurück
Oben