News AMD CDNA: Profi-GPU mit angeblich viel Takt zum Jahresende

Das war irgendwie zu erhoffen, das AMD/RTG im Compute Bereich (FP32) mit dem MI100 CNDA GPU mehr als nVidia packt, aber auch zu erwarten, dass man im KI Bereich nicht mit nVidias Ampere A100 Grafikkarte mithalten kann.

Wenn es denn so kommen sollte, wird die MI100 von AMD/RTG erste Wahl im Compute-Bereich sein abseits von KI und auf die A100 optimierte Anwendungen/Szenarien.

Das laesst natuerlich auch hoffen fuer RDNA2 Gaming-GPUs von AMD/RTG, auch wenn dort die RDAN2 und nicht die CDNA1 Architektur sich mit der Konkurrenz messen muss.

Der Ampere Gaming/GeForce Konkurrenz - der man einen massiven Leistungszuwachs in Form der RTX 3090 in aktuellen Geruechten zuschreibt - soll ja eine Big Navi 2X (Sienna Cichlid) Grafikkarte dann aller Voraussicht nach leistungstechnisch nicht gefaehrlich werden koennen (da dort nicht damit gerechnet wird, dass diese ebenfalls einen TimeSpy Extreme Wert ueber 10000 Punkten per OC erreichen wird koennen), aber warten wir es ab ;).

Sind 50% beim RTX 3090 Vollausbau (des GA-102 Grosschips) denn so beindruckend gegenueber einer RTX 2080Ti (?), die eben nicht auf dem Vollausbau basiert sondern mit beschnittenem TU-102 Grosschip daherkommt… da bietet sich fairerweise dann doch eher ein Vergleich zur RTX Titan (Turing) an und dann duerften es wohl nicht mehr 50% Zuwachs generationsuebergreifend sein (und der nVidia Ampere Hype dementsprechend kleiner), wenn diese angeblichen Leaks denn der Wahrheit entsprechen sollten.

Laut PCGH (ich beziehe mich auf die 3D Center Nachricht) sollen die RDNA2 GPUs wohl kein DLSS(2.0/3.0) Aequivalent bekommen aber dafuer Next-Gen Konsolen evt. selbst gemachte Loesungen, was fuer mich auch nicht wirklich plausibel klingt, entweder alles oder gar nichts, aber spezielle Sony und MS Loesungen fuer PS5 und XBSX/XBSS respektive halte ich eher fuer unwahrscheinlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und PS828
Volker schrieb:
Jo wir haben auch diskutiert. Die sehen aus wie selber was zusammenkopiert und könnten eher von Nvidia sein. Und bei AdobeTvs Historie .. die haben schon so manche Ente rausgehaun, ich trau denen ohnehin nur mit extremster Vorsicht.
In letzter Zeit war er aber verdammt treffsicher und das macht erst Recht stutzig. Ist ja nicht so, dass er nur zusammenträgt. Auch sein TSMC Tipp mit Intel war richtig.
Aber wie du schon sagtest, es bleiben Gerüchte
 
pipip schrieb:
Aber mit dem Multi Verbund kann man zu mindestens Vorteile erzielen, wenn am Ende auch Preis/Leistung ein Faktor ist.

Ich behaupte jetzt einfach mal ganz frech, 350 mm² pro Die wäre jetzt für ein MCM System, selbst wenn man 4 Stück davon verbaut, einfach zu wenig für Grakas.

Selbst bei 700 mm² sind kaum noch kaputte Chips zu beklagen und 5nm oder 3nm kommen ja erst noch.

2022 2 x 700 mm² als kleines McM und 2025 in 3 nm 4 x 350 mm² (gleicher Chip bei gleichem Verbrauch nur doppelt so schnell)

Das wären 2025 im besten Falle die Leistung von einer doppelten MI 60 mal 4 (8 mal so schnell) auf 1400 mm² Silizium gesamt und 300 Watt Verbrauch.

Für den Takt sind die Leute bei der Fertigung zuständig.

mfg
 
Chismon schrieb:
Sind 50% beim RTX 3090 Vollausbau (des GA-102 Grosschips) denn so beindruckend gegenueber einer RTX 2080Ti (?), die eben nicht auf dem Vollausbau basiert sondern mit beschnittenem TU-102 Grosschip daherkommt… da bietet sich fairerweise dann doch eher ein Vergleich zur RTX Titan (Turing) an und dann duerften es wohl nicht mehr 50% Zuwachs generationsuebergreifend sein (und der nVidia Ampere Hype dementsprechend kleiner), wenn diese angeblichen Leaks denn der Wahrheit entsprechen sollten.

Kommt drauf an. leistungstechnisch nehmen sich Titan RTX und 2080Ti meistens nicht. Besonders wenn man von einer Custom 2080Ti ausgeht. Der Chip ist nur leicht beschnitten, dafür ist der Takt bei vielen 2080Tis etwas höher.

Zwischen einer 2080Ti FE und einer Titan RTX liegen im Schnitt ca. 5% Unterschied. Eine Custom 2080Ti ist etwa gleichschnell wie die Titan.

Chismon schrieb:
Laut PCGH (ich beziehe mich auf die 3D Center Nachricht) sollen die RDNA2 GPUs wohl kein DLSS(2.0/3.0) Aequivalent bekommen aber dafuer Next-Gen Konsolen evt. selbst gemachte Loesungen, was fuer mich auch nicht wirklich plausibel klingt, entweder alles oder gar nichts, aber spezielle Sony und MS Loesungen fuer PS5 und XBSX/XBSS respektive halte ich eher fuer unwahrscheinlich.

So unwahrscheinlich ist es nicht. Gerade Sony hat schon meist recht stark angepasste Chips. Laut diversen Gerüchten soll ja z.B. die Geometry Engine der PS5 auch stak angepasst sein und deutlich über das hinausgehen, was RDNA2 von haus aus kann. Ist nicht sonderlich abwegig, dass hier die Konsolenhersteller einen eignen Weg gehen. DLSS hat ja auch viel mit KI Training zu tun. Und ich denke hier möchte AMD sparen. Das DLSS auch ohne Tensorcores läuft hat Nvidia ja selbst bewiesen. Durchaus möglich, dass die konsoenhersteller hier ihr eigenes System nutzen. gerade bei Microsoft könnte man hier sicherlich Synergien zu Azure nutzen.

Kein DLSS auf Navi2x wäre sehr enttäuschend. AMD hatte ja selbst mal eine alternative in Aussicht gestellt. In meinen Augen ist das eine der Techniken für die Zukunf. Mal abwarten, was da kommt. Das wäre aber tatsächlich ein enormer nachteil für AMD, den man auch nicht so einfach durch etwas mehr Rechenleistung und Vram aufheben kann.
 
  • Gefällt mir
Reaktionen: PS828
@Shoryuken94 um die Gedanken mit der Render engine nochmal aufzugreifen: Moores law is dead ging in einem seiner Videos auf diesen Fakt ein und meinte diesbezüglich (wie glaubhaft das jetzt ist muss jeder selbst entscheiden) dass einige Dinge im custom Design der PS5 APU bereits näher an RDNA3 als an RDNA2 liegen, weshalb die PS5 im Detail später Funktionen nutzen können wird welche die SeriesX nicht hat. Das Sony Design scheint dem Xbox Design dann auch Leistungstechnisch auf lange sicht überlegen auch wenn sie auf dem Papier zunächst schwächer erscheint.

Bzgl des Xbox Chips scheint es auch so zu sein dass Microsoft diese APUs auch in ihren xcloud Servern verwenden würde, was AMD sichere Abnahmemengen beschert und ein Erfolg des Designs für Microsoft nicht an einen guten Verkauf der Xbox gekoppelt ist.
 
  • Gefällt mir
Reaktionen: Shoryuken94
@PS828 Schwierig zu sagen was da dran ist. aber auch bei der PS4 Pro hatten man schon einen Polarischip, welcher ein paar Features von Vega hatte, wie das Rapid Packed Math. Nicht auszuschließen, dass hier vielleicht wieder einige Parallelen zu RDNA 3 bestehen. Ich bin mir aber ziemlich sicher, dass es im Kern schon ein RDNA2 Chip ist, der hier und da entsprechend angepasst wurde. Was das am Ende bringt, bleibt abzuwarten. features bringen nur etwas, wenn Sie auch genutzt werden. Durch die etwas aufgebohrte Architektur war die PS4 pro am Ende der Xbox One X auch nicht überlegen.

ich denke aber tatsächlich, dass sich beide nicht viel nehmen werden. Selbst der Unterschied auf dem papier ist mit 18% doch eher gering.

Aber Speziell eine DLSS Alternative ist ja auch nicht und eine Sache des Chips. Hier ist die dahinterstehende Software und KI das Geheimnis und damit auch etwas, was die Konsolenhersteller daher abweichend von AMD umsetzen könnten.

Das Microsoft die Chips auch in der XCloud nutzen wird ist glaube ich sogar so öffentlich kommuniziert worden seitens MS. Wobei ich der Xbox eher halbwegs gute Erfolge zutraue, als einem weiteren Cloud Gaming-Dienst. Aber es ist ein weiteres Standbein. Mal sehen, was da die nächsten jahre kommt. Ich denke Sony wird früher oder später auch PS5 Hardware bzw. die SoCs für PS Now Nutzen. Aber dort dürfte sich auch die Konsole ziemlich sicher sehr ordentlich verkaufen.

Aber noch mal zu DLSS. Hier muss AMD in meinen Augen wirklich abliefern, wenn Sie eine Alternative zu Nvidia sein möchten. Man sieht mittlerweile wirklich gute Ergebnisse und das ganze dürfte sich in den nächsten jahren zu einer großen nummer entwickeln. Wenn AMD das verpennt, wird es schwierig an Nvidia dran zu bleiben, selbst wenn man die bessere hardware liefern würde.
 
  • Gefällt mir
Reaktionen: PS828
Jep ich bin wirklich gespannt auf AMDs Variante vom KI upsampling und RT. Lange wird's nicht mehr dauern :) Fakt ist aber dass es Performance technisch funktionieren muss damit Nvidia nicht länger sagen kann "das gibt's nur bei uns"

Ich bin auch mal gespannt ob AMD sofort den Big Chip bringt oder erstmal wegen yields oder anderen Dingen die kleineren bringt und den ganz großen erst Anfang 2021. Weil irgendwie passt das ganze nicht so richtig zusammen. Laut einigen leaks Rechnet man bei Nvidia intern damit dass AMD in der Lage sein wird die 2080Ti um 50% zu schlagen. Diese Information muss ja irgendwo herkommen (hier natürlich wieder nur von außen betrachtbar aber da Nvidia derzeit auf der Suche nach undichten Stellen im Unternehmen ist wird da wohl was dran sein vielleicht?)

Was hier noch nicht ganz ins Bild passt ist dass AMD selbst Wohl zum Start zunächst nur die hypothetische 3080 ins Visier nehmen möchte, was aber nicht heißt dass sie nicht später noch einen drauf setzen. Da kursiert ein Chip welcher 15% schneller als die 2080Ti ist, aber lange kein Vollausbau darstellt. Vielleicht ein Zeichen dass der Big boi mit 72/80 CUs, welcher die 50% schneller als die 2080Ti ist, später kommt? Keine Ahnung

Ist wirklich spannend was derzeit im Hintergrund abläuft und spätestens zur Vorstellung werden wir mehr wissen bei beiden Herstellern. Leider bleibt in Anbetracht der dünnen Informationslage nur Kaffeesatzleserei.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Shoryuken94
Wieso sollte AMD auch ein äquivalent zu NV DLSS entwickeln und dann am Ende sogar Server-Farmen dafür hochziehen, wenn man mit MS zusammen arbeitet ?
AMD setzt auf offene Standards (soweit es geht) und am besten wäre eine Entwicklung für DX-Schnittstelle, die auch NV Zwangsweise unterstützen wird.
Wie schon erwähnt, wird MS wie bisher, die neuen APUs auch in Server verbauen. Die könnten nebenbei auch für solche Dinge verwendet werden.
Also meine Hoffnung ist, dass MS hier nachholt, einen allgemein Standard für DX-Schnittstelle fertigt und AMD und NV ins Boot holt.
Man denke da Tessellation . Was für ein Wirrwarr es gab und dann ab der XBOX 360 langsam in eine Richtung ging. Das selbe erwarte ich auch für RT.
 
PS828 schrieb:
Ich bin auch mal gespannt ob AMD sofort den Big Chip bringt oder erstmal wegen yields oder anderen Dingen die kleineren bringt und den ganz großen erst Anfang 2021. Weil irgendwie passt das ganze nicht so richtig zusammen. Laut einigen leaks Rechnet man bei Nvidia intern damit dass AMD in der Lage sein wird die 2080Ti um 50% zu schlagen. Diese Information muss ja irgendwo herkommen (hier natürlich wieder nur von außen betrachtbar aber da Nvidia derzeit auf der Suche nach undichten Stellen im Unternehmen ist wird da wohl was dran sein vielleicht?)


Da hat sich Lisa Su doch Anfang des Jahres recht unmissverständlich ausgedrückt.

"I've heard a little bit - through Twitter and Reddit - that people are wondering about Big Navi. And i can say you gonna see Big Navi in 2020."

Yields sind in TSMC 7nm kein großes Problem mehr zumal Big Navi von der angepeilten Fläche ja noch relativ klein im Vergleich zu anderen Chips ist oder gar im vergleich zu Nvidias HPC Monstern.

Wir werden ziemlich sicher den großen ausbau des Chips sehen. Ob der Nun 72 oder 80 CUs hat, mal sehen. Ich tippe ja auf 80 bei der "6900XT" und 27 bei der Non XT.

Das Nvidia damit rechnet, dass Big Navi etwa 50% schneller als die 2080Ti sein könnte ist ja nichts besonderes. Seit Ewigkeiten geistern die 80CUs schon durch die Public Gerüchteküche. Nvidia wird da wohl noch ganz andere Informationsquellen haben. Eine 2080Ti ist ca. 35% schneller als eine 2080Ti. Bei doppelter Sahderzahl, Architekturverbesserungen und mehr Takt kommt man da theoretisch fix auf die 50%. Das dürfte der bestcase sein, wenn der große Chip gut skaliert.

PS828 schrieb:
Was hier noch nicht ganz ins Bild passt ist dass AMD selbst Wohl zum Start zunächst nur die hypothetische 3080 ins Visier nehmen möchte, was aber nicht heißt dass sie nicht später noch einen drauf setzen. Da kursiert ein Chip welcher 15% schneller als die 2080Ti ist, aber lange kein Vollausbau darstellt. Vielleicht ein Zeichen dass der Big boi mit 72/80 CUs, welcher die 50% schneller als die 2080Ti ist, später kommt? Keine Ahnung

Da wir nicht wissen, welche Leistungsklasse die 3080 anspricht, wie schnell Ampere wirklich wird etc. kann man daraus nicht viel ableiten. Zumal auch das wieder nur ein Gerücht ist... Wir wissen also nicht mal genau, worauf sich das nun wirklich bezieht. Evtl. auf den preis, auf die Leistung, wie schnell ist nun eine 3080....

Nur weil man einen bestimmten Gegener auserkoren hat, ist man nicht automatisch auf dem gleichen Leistungslevel. Nach aktuellen Gerüchten besteht das Nvidia Lineup ja aus 3 Karten, die auf den GP102 setzen. Nvidia und AMD haben aktuell eine relativ ähnliche IPC und wenn wir gedanlich annehmen, dass beide in etwa die gleichen Leistungssprünge hinlegen, dann ist das doch keine unrealistische Einschätzung. Der GP102 Vollausbau soll 84 SMs haben, die Karte darunter 82 und für die kleinste Karte gibts Gerüchte von 68-72 SMs.

Damit wäre eine angenommene 72 CU Karte rein von der Shaderzahl irgendwo in der Nähe einer 3080 (wenn das die kleinste im Trio ist). Bei ähnlicher IP bedeutet das ähnliche Leistung. Wenn man mehr aus der Architektur als Nvidia geholt hat, dann ist man vielleicht auch zwischen der 3080 und 3080Ti(?) und versucht Preislich etwas darunterzubleiben. Sehe hier keinen wirklichen Widerspruch. Wir wissen nicht, wie viel schneller Big Navi wirklich ist, wie die Architektur mit vielen Shadern skaliert, wie schnell ampere ist und wie genau die 3080 aufgebaut ist. Ehrlichgesagt erwarte ich auch nicht, dass Big Navi die schnellste Karte ist. Aber rein theoretisch angenommen...

3090Ti (84 SM) = 2080Ti + 50% 1500$
3080Ti (82 SM) = 2080TI + 40% 1200$
Big Navi (72CU) = 2080Ti + 30% 800$
3080 (72 SM) = 2080Ti +20% 900$

Dann wäre Big navi schon eine ziemlich gute Karte. Und nicht zu unrecht als 3080 Alternative angesehen. Aber wie gesagt, wir wissen einfach noch viel zu wenig und es gibt genug widersprüchliche Leaks und GErüchte.

pipip schrieb:
Wieso sollte AMD auch ein äquivalent zu NV DLSS entwickeln und dann am Ende sogar Server-Farmen dafür hochziehen, wenn man mit MS zusammen arbeitet ?

Wir wissen es schlicht nicht. Microsoft ist nicht unbedingt der größte Freund von offenen Techniken, wenn sie nicht zu ihrem Vorteil sind. Auch ist Microsoft kein guter Samariter der AMD dazu Einlädt dauerhaft große Serverkapazitäten zu belegen und das gratis macht. Eine DLSS Alternative muss halt für jedes Spiel trainiert werden. Ich sage nicht das es ausgeschlossen ist, aber es ist auch nicht unbedingt wahrscheinlich.

Fakt ist nur, dass es auf AMD PC Hardware hier eine Alternative zu DLSS geben muss. Wie genau die umgesetzt wird ist dann eine andere Frage.

pipip schrieb:
Das selbe erwarte ich auch für RT.

Na ja... wenn du da auf eine Microsoftlösung hoffst, dann gibt es diese ja schon. Nett sich DXR und steht sowohl AMD als auch Nvidia zur Verfügung, auch wenn bisher nur Nvidia das ganze in Hardware beschleunigt. Microsoft hat ja gründlich die Werbetrommel für DX Ultimate gerührt. Natürlich möglich, dass man hier auch früher oder später etwas wie eine DLSS Alternative integriert. Nur wann und wie ist dann eine andere frage, während die Entwickler mit Nvidias Technik reichlich erfahrungen sammeln.

pipip schrieb:
Wie schon erwähnt, wird MS wie bisher, die neuen APUs auch in Server verbauen. Die könnten nebenbei auch für solche Dinge verwendet werden.

Sicherlich, nur wissen wir als außenstehende relativ wenig über die Ausmaße von XCloud. bin mir auch nicht sicher, ob es sinnvoll ist, hier seinen Gamingservice dafür zu nutzen, im dem auf Gaming ausgelegte Hardware werkelt, die nicht unbedingt extreme KI Leistung vorweisen kann. Zumal Microsoft fest zusammen mit nvidia an GPU beschleunigten Cloudlösungen arbeitet und auch anbietet. Da dürfte es für MS deutlich interessanter sein, das ganze über Azure zu realisieren und das KI Training mittels richtigen KI Beschleunigern effizienter zu gestalten.
 
  • Gefällt mir
Reaktionen: PS828
@Shoryuken94
Microsoft ist nicht unbedingt der größte Freund von offenen Techniken, wenn sie nicht zu ihrem Vorteil sind. Auch ist Microsoft kein guter Samariter der AMD dazu Einlädt dauerhaft große Serverkapazitäten zu belegen und das gratis macht.
Inwiefern keine Vorteile ?
Besonders bei Konsolen wäre das ein Vorteil und allgemein für die DirectX Schnittstelle. Bringt MS so eine Technik für die XBOX, sollte man damit rechnen, dass es auch für Windows kommt.
Eventuell könnte es im Vergleich zu NV auch Abstufung geben oder eine andere Form von ML. Da bin ich überfragt. Mein Tipp ist trotzdem eher eine Software-Schnittstelle, wo Game-Entwickler das nützen können.
Außerdem könnte MS hier auch eine Form Dienstleistung für die Entwicklung anbieten, das dann eben auch über ihre Server zu trainieren.
Also ausschließen würde ich es nicht. Halt ich sogar für realistischer, als AMD einen direkten Konkurrenten auf Alleingang entwirft.

PS, DLSS auf der Switch wäre sehr interessant.
 
Shoryuken94 schrieb:
… leistungstechnisch nehmen sich Titan RTX und 2080Ti meistens nicht. Besonders wenn man von einer Custom 2080Ti ausgeht. Der Chip ist nur leicht beschnitten, dafür ist der Takt bei vielen 2080Tis etwas höher.
Zwischen einer 2080Ti FE und einer Titan RTX liegen im Schnitt ca. 5% Unterschied. Eine Custom 2080Ti ist etwa gleichschnell wie die Titan.
Gerade Sony hat schon meist recht stark angepasste Chips. Laut diversen Gerüchten soll ja z.B. die Geometry Engine der PS5 auch stark angepasst sein und deutlich über das hinausgehen, was RDNA2 von haus aus kann. Ist nicht sonderlich abwegig, dass hier die Konsolenhersteller einen eignen Weg gehen. DLSS hat ja auch viel mit KI Training zu tun. Und ich denke hier möchte AMD sparen. Das DLSS auch ohne Tensorcores läuft hat Nvidia ja selbst bewiesen. Durchaus möglich, dass die konsoenhersteller hier ihr eigenes System nutzen. gerade bei Microsoft könnte man hier sicherlich Synergien zu Azure nutzen.
Kein DLSS auf Navi2x wäre sehr enttäuschend. AMD hatte ja selbst mal eine alternative in Aussicht gestellt. In meinen Augen ist das eine der Techniken für die Zukunf. Mal abwarten, was da kommt. Das wäre aber tatsächlich ein enormer nachteil für AMD, den man auch nicht so einfach durch etwas mehr Rechenleistung und Vram aufheben kann.

Nun ja, es gibt keine Custom RTX Titan Grafikkarten, so gesehen ist ein direkter Vergleich da nicht wirklich moeglich, es sei denn man pflanzt identische Wasserkuehlungen auf beide Chips (Vollausbau, also RTX Titan, und beschnittene Variante, also RTX 2080Ti).

Was laut neuesten Geruechten interessant sein duerfte, ist, dass die Preisstruktur sich durch das Hochstufen der RTX 3080 deutlich aendern duerfte, denn diese soll nur ca, 15% unterhalb einer RTX 3080Ti/3090 liegen, wenn man der Geruechtekueche glaubt.

Dadurch duerfte die RTX 3080 im Preis wohl steigen, fuer einige 80er Kaeufer evt. zu unerschwinglich werden, und fuer andere, bisherige 80Ti Kaeufer reichen - aufgrund des relativ geringen Leistungsunterschieds bei den Ampere GPUs im Vergleich zu vorherigen GPU-Generationen nVidias - wenn fuer die 80Ti wegen des Flaggschiffbonus (und der 2 GB zusaetzlichen GDDR6(X) Speichers) immer noch ein ueberproportionaler Aufpreis verlangt werden sollte.

Ob sich das AMD/RTG leisten kann, mittel- bis langfristig nur spezifische Loesungen von Sony und Microsoft als DLSS-Alternativen entwickeln zu lassen, das ist nur schwer vorstellbar, weil man in Zukunft nVidia bei diesem scheinbar immer relevanter werdenden Feature hinterher hinken wuerde und man ist nicht in der Marktfuehrer-Position und kann sich so etwas daher eigentlich auch nicht wirklich leisten.

Denkbar waere, dass man bei AMD/RTG an einer gemeinsamen, DX(Windows- und XB)-basierenden Loesung zusammen mit Microsoft arbeitet, auch wenn einige - nicht der Sony Konsolen-Fan Tom von "Moore's Law is Dead", auch wenn dieser bestreitet einer zu sein - glauben, dass Sony da teilweise schon RDNA3 Technik schon in der PS5 verbaut haben soll und somit Sony mehr mit AMD/RTG kooperiert als Microsoft und die PS5 Konsole - wenn auch den bekannten Spezifikationen nach unterlegen - besser sein soll, was aber wieder Gabe Newell von Valve/Steam widerspricht, der klar die XBSX als bessere Konsole als die PS5 ansieht (und nicht gerade als Microsoft Fan bekannt ist).

Interessant sind in diesem Zusammenhang aber auch die von "Moore's Law is Dead" kolporierten Geruechte, dass AMD/RTG es wieder nicht zeitplanmaessig auf die Reihe bekommen koennte mit dem Big Navi RDNA2 Marktstart (im Gegensatz zu nVidias Ampere Start) und ein RX Vega-Szenario bei AMD/RTG droht, zumal die Marktstarts bei Navi RDNA1 auch alles andere als gut gestaffelt waren.

Demnach koennte drohen, dass die Navy Flounder (beschnittene RDNA2 Big Navi GPUs) zuerst nur in Referenzausgaben noch Ende dieses Jahres, evt. - anders als versprochen - nach dem Marktstart der Next-Gen Konsolen, auf den Markt kommen koennte) und die Halo/Flaggschiff Big Navi RDNA2 Version zuerst Anfang 2021 (im hinteren Teil des nachfolgenden Videos aufgeworfen):


Das waere natuerlich sehr bitter, weil nVidia wie ueblich den Grossteil des Marktes (zumindest Early Adopter) abgrasen wuerde, bevor die AMD/RTG GPUs (in Custom-Varianten, demnach vielleicht sogar erst im Februar 2021) auf dem Markt sind, auch wenn man eigentlich (auch wegen des weggefallenen Big Navi RDNA1) genug Zeit gehabt haben sollte um zeitnah zu GeForce Ampere die neuen Radeon RDNA2 GPUs auf den Markt zu bringen.

Wieso, weshalb, warum, und mit wie vielen Shadern, das ist eine gute Frage? Und ja, wenn es lediglich 64 Compute Units (CU) werden sollten, dann duerfte das wohl nicht reichen um das Ampere Flaggschiff (wie von Moore's Law is Dead" vor einigen Wochen noch vorhergesagt) an der Spitze abzuloesen und AMD/RTG nach langer Durststrecke die Single Gaming-GPU-Krone zu sichern. 72 oder besser noch 80 CUs wird es da wohl brauchen und ja, gerade letzteres wurde jetzt von einem neuen Leak wieder nahegelegt, dass Sienna Cichlid, die Halo Big Navi RDNA2 GPU, eben 80 CUs bekommen soll, wie bei WccfTech bspw. zu lesen.

Dass sowohl Ampere als auch Big Navi RDNA GPUs im Flaggschiffbereich nicht einfach zu kuehlen sein werden, ist vor kurzem uebrigens auch bei Igor's Lab aufgeworfen worden:


Es sieht so aus, als ob Ampere in dem Sinne der Fermi/"Thermi" Nachfolger werden wird, weil man bei nVidia wohl aufgrund der billigeren Samsung Fertigung dem Maximalprofit Vorrang gegeben hat und nicht der besseren technischen Umsetzung (via teurerem TSMC Prozess).
Fuer Effizienzler duerfte die kommenden Ampere GPU Generation also eher enttaeuschend sein, auch wenn man sich das mit Leistung pro Watt natuerlich schoen rechnen kann.

Das aendert aber nichts an der relativ hohen Abwaerme, dem insgesamt hoeheren Stromverbrauch und -kosten, sowie den aufwendigeren/teureren Kuehlloesungen, dass die Grafikkarten wohl ans Limit gebracht werden und ja, damit zusammenhaengend erlaube ich mir auch ein grosses Fragezeichen bzgl. der Langlebigkeit/Haltbarkeit zu setzen, wenn die Grafikloesungen oft oder staendig thermisch am Anschlag/Maximum arbeiten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
pipip schrieb:
Anhang anzeigen 949779
Siehe das Bild, Nur weil Epyc und 4 GPUs getrennte Hardware sind, heißt das nicht, dass deren Kommunikation am Ende trotzdem keine APU darstellt. Nur eben hier noch als Vorstufe zu dem hier:

Anhang anzeigen 949780
https://www.pcgameshardware.de/CPU-CPU-154106/News/EHP-Exascale-APU-Navi-Zen-1221637/
Ich hoffe das dir klar ist das der untere Aufbau entweder in einer Katastrophe enden oder auf einen massiv gesenkten GPU Takt hinauslaufen würde da deren Wärmeabfuhr mit den HBM Stacks oben drauf katastrophal wäre und für die Wärmeabfuhr primär das Package herhalten müsste. Von mehr als 5-10W pro GPU auszugehen halte ich da für höchst blauäugig.

Es hat einen einfachen Grund warum man getrost von 4 Karten ausgehen kann die per IF angebunden werden können. 2 Epycs kommunizieren im multi CPU System per IF mit einander die in single Sockel Betrieb zu PCIe Lanes geswitcht werden. Deshalb hat man m single CPU und im dual CPU Betrieb insgesamm auch nur die gleiche Anzahl an PCIe Lanes und genau so dürfte das auch bei den Karten laufen. Da alles aus einem Hause kommt gehe ich davon aus das die PCIe Lanes des Steckplatzes bei der passenden Karte auf IF switchen können und die Karten dann entsprechend angebunden sind. IF wird seit dem ersten Epyc nicht nur intern sondern auch extern genutzt.
 
Colindo schrieb:
Fand die anderen zwei Folien bei AdoredTV auch sehr merkwürdig. Gut, dass hier nur auf die realistischen Daten eingegangen wird. Trotzdem ist es nach wie vor ein Gerücht.

Das, was AdoredTV als Leak gefunden haben möchte, ist wohl eher ein Fake. Der A100 soll laut einer der Folien 30 TFlops bei FP32/SGEMM liefern, obwohl Nvidia offiziell 19,5 TFlops als Höchstwert nennt.
 
@Wadenbeisser
Diese APU als Konzept wäre bestimmt auch eine HPC APU. AMD hat sich letztes Jahr weitern zu dem Konzept APU im Server bekannt. Also wird es vermhtlich CDNA GPUs sein. Sprich, das ganze Design muss nicht unbedingt hoch takten 😋

Dafür hatte der HBM andere Vorteile. Ähnlich als beim ARM Sever zuletzt, Direkt der Arbeitsspeicher oder so gesehen ein großer L4 Cache.
HBM wird früher oder später das sein. Wenn er mal günstiger wird... Dieses APU Konzept wird bestimmt auch nicht so früh kommen, wenn auch hier oft von einer APU mit HBM geträumt wird.

Man stelle sich vor AMD bringt eine APU mit einem HBM Stack auf den Markt und man erreicht einen Mittelklasse PC. Sowas würde sich bei AMD erst auszahlen, wenn die OEM dahinter stehen.
Was müsste man aktuell erreichen? 1650 (Ti) und 6 Cores Zen2.

Was die Anbindung angeht. Ist mir das schon klar. Die Frage ist eher, wie schnürt AMD das Gesamtpaket.
Immerhin, es werden ja drei Super Computer gebaut. Einer mit Intel Hardware und zwei mit AMD Hardware. Gesamt müsste diese APU Verbund attraktiv gewesen sein. Das ist die Basis der Überlegung. Aber gut bis Ende des Jahres ist es ja nicht mehr weit. Dann sehen wir eh wie CDNA beschaffen idt und wie groß die Chips.
 
Zuletzt bearbeitet:
@pipip

Nicht wirklich denn diese Form der Hochstapelei ist einfach zu teuer und aufgrund der thermischen Probleme zu wenig performant für dieses Gebiet. Das ist eher was für das mobile Segment bei Smartphone, Tablet und Co., also da wo nur sehr wenig Abwärme entsteht aber großer Platzmangel besteht.
 
Zurück
Oben