Bericht Nvidia Ampere: A100 ist für KI eine 20 Mal schnellere GPU

Teralios schrieb:
Für den großen Navi werden aktuell 80 CU gehandelt, also 5120 Shader (und NUR 5120) Shader. AMD hat zwar an der IPC der Shader gearbeitet, jedoch wird das NVIDIA auch getan haben, außer sie haben sich auf TC und RT-Cores konzentriert und die CCs sind noch auf dem Stand von Turing.

Frage ist halt: Wie gut kann AMD nun RDNA2 die CUs auslasten, wie gut kann nVidia ihre SM auslasten usw. Man wird hier abwarten müssen.

Schau dir die FP32 Leistung zu der Anzahl an Cores und dem Takt an. Da hat sich gar nichts verbessert, was mich etwas verwundert hat. Es hat sich sogar leicht verschlechtert. Das einzige was getan wurde ist die Anzahl an Cores zu erhoehen. Ansonsten sind alle Verbesserungen in den Tensor Cores. Wenn die 3080ti also wirklich 5376 Cores hat, dann sind das nur 23% mehr und es braucht noch 13% mehr Takt, nur um auf eine 40% Verbesserung zu kommen. Allerdings ist die Frage ob die 5376 der volle Die ist, oder beschnitten. Die 2080ti ist ja auch nicht der volle Die. Wenn also Ampere so mehr oder weniger auch im Consumermarkt kommen soll, dann koennte in reiner Rasterleistung AMD naeher kommen als viele denken. Dass der A100 so im Consumermarkt kommt darf bezweifelt werden. Ich mein, selbst auf der Nvidia Homepage wird bisher nur der beschnittene Ableger beworben, noch nicht einmal der Vollausbau. Die Ausbeute duerfte gar nicht mal so gut sein. RTX und Quadro werden da ihre eigenen Masken bekommen die wahrscheinlich deutlich kleiner sind.

Ich denke auch, dass der A100 ueberhaupt kein RT besitzt um wenigstens noch etwas Platz zu sparen. Jeder der hier traeumt, dass das so im Consumermarkt auftaucht wird sehr enttaeuscht sein.

tochan01 schrieb:
sieht echt nice aus auf der... Quadro 8000 mit 48GB ram zum Preis von 7000€...:D. Den Vortrieb lassen sie sich aber auch vergolden.

Jain, das ist halt der Vollausbau vom TU 102. Und der RAM kostet auch nochmal was. Was glaubst du warum der Vollausbau meist nicht im Consumermarkt landet? Ein vollfunktionsfaehiger Die ist immer seltener als teilfunktionsfaehige.
 
Ist schon richtig aber ein bißchen näher dran bei solchen techdemos für die "masse" wäre schon nett... ok, gibt vielleicht welche die in der Pause das an der Workstation zocken können.... wenn die IT das installieren erlaubt ;)
 
Mich schockiert die 400 Watt als TDP Angabe ich mein WTF?
 
GTA 3 schrieb:
Mich schockiert die 400 Watt als TDP Angabe ich mein WTF?

Mit Xeons bräuchte man dann direkt ein Mini Atomkraftwerk als Beiwagen.

Deshalb wahrscheinlich der Wechsel zu EPYC.

:D
 
Kacha schrieb:
Schau dir die FP32 Leistung zu der Anzahl an Cores und dem Takt an. Da hat sich gar nichts verbessert, was mich etwas verwundert hat. Es hat sich sogar leicht verschlechtert. Das einzige was getan wurde ist die Anzahl an Cores zu erhoehen. Ansonsten sind alle Verbesserungen in den Tensor Cores.
Deswegen hab ich auch als Frage - die du ja mit zitierst - eher auf die Auslastung der SM und den CU in dieser verwiesen.

Aber ich denke auch da wird sich bei Ampere nicht so viel getan haben und die CC-Blöcke sehr starr auf die Datentypen verteilt werden.


Kacha schrieb:
Wenn die 3080ti also wirklich 5376 Cores hat, dann sind das nur 23% mehr und es braucht noch 13% mehr Takt, nur um auf eine 40% Verbesserung zu kommen. Allerdings ist die Frage ob die 5376 der volle Die ist, oder beschnitten. Die 2080ti ist ja auch nicht der volle Die.
Frage ist halt, wird der GA102 so groß wie der GA100 von den SM her, also 128, oder kleiner.

Kacha schrieb:
Wenn also Ampere so mehr oder weniger auch im Consumermarkt kommen soll, dann koennte in reiner Rasterleistung AMD naeher kommen als viele denken.
Sollte der GA102 wirklich nur um die 80 - 90 SM bekommen, dann könnte RDNA2 wirklich recht nah an die GeForce 3080TI kommen, bei RDNA2 und Big.Navi spricht man ja auch davon, dass sie auf die 2080Ti knapp 35 - 40% aufschlägt.

Nur darf man hier eines nicht vergessen: RDNA2 wird erneut "nur" 64 Shader (2*Vec32-ALU) pro CU haben, während bei Ampere die doppelte Anzahl an Shadern nutzen kann für die modernen Workloads der Engines. Hier stehen 64 FP32 + 64 INT32-Shader gegen 64 Shader die sowohl die INT als auch die FP-Werte berechnen müssen. (Direkt als Vorsorge, RDNA2 kann INT und FP-Berechnungen wie Turing und Ampere auch zur gleichen Zeit, eine Vec32 wird mit FP gefüllt, eine mit INT, wenn der Bedarf herrscht. ;))

Kacha schrieb:
Dass der A100 so im Consumermarkt kommt darf bezweifelt werden. Ich mein, selbst auf der Nvidia Homepage wird bisher nur der beschnittene Ableger beworben, noch nicht einmal der Vollausbau. Die Ausbeute duerfte gar nicht mal so gut sein. RTX und Quadro werden da ihre eigenen Masken bekommen die wahrscheinlich deutlich kleiner sind.
Der GA100 (A100 ist wohl die Produktbezeichnung dann für die Karte) ist ein wahres Monster und ja, vermutlich wird die Ausbeute von voll funktionsfähigen Chips wohl eher gering sein. :D

Kacha schrieb:
Ich denke auch, dass der A100 ueberhaupt kein RT besitzt um wenigstens noch etwas Platz zu sparen. Jeder der hier traeumt, dass das so im Consumermarkt auftaucht wird sehr enttaeuscht sein.
Da hast du vermutlich recht, die aktuellen Schaubilder zeigen zumindest keine RT-Cores beim GA100. Ich schätze, dass hier auch Platz für den NVlink benötigt wird. Der GA100 ist halt wirklich ein HPC-Chip.
 
Ja, das ist schon erstaunlich und beeindruckend, wie viel Platz man spartmit den neuen A100 GPUs bei identischer Leistung im Vergleich zu dem mit V100 GPUs bestueckten DGX1 Volta Vorgaenger.

Was die Geruechtekueche rund um die kommenden nVidia Gaming-Grafikkarten wie der Ampere RTX 3080Ti und das Duell mit dem RDNA2 Flaggschiff von AMD/RTG angeht, brodelt es ja jetzt schon maechtig:

 
Chismon schrieb:
Was die Geruechtekueche rund um die kommenden nVidia Gaming-Grafikkarten wie der Ampere RTX 3080Ti und das Duell mit dem RDNA2 Flaggschiff von AMD/RTG angeht, brodelt es ja jetzt schon maechtig:
Warum brodelt es da, man kann mit allen Infos jetzt recht gut ein paar Szenarien ausmahlen. ;)

Sollte der GA102 128 SM haben und die GeForce 3080 Ti davon einen teildeaktivieren Chip mit um die 6500 - 7000 Shader bekommen, wischt die GeForce Karte mit RDNA2 den Boden auf, komme was wolle.

Sollte die 3080Ti um die 5300 - 5500 Shadern haben, wird sie vor der RDNA2 mit 5120 Shadern liegen, nur wird das Duell deutlich knapper werden - so um die 5 - 10% - und um sich wirklich von RDNA2 abzusetzten, wird es DLSS brauchen.
 
Kacha schrieb:
Schau dir die FP32 Leistung zu der Anzahl an Cores und dem Takt an.
Die FP32-Leistung berechnet sich doch rein aus Cores und Takt. Die IPC kommt darin gar nicht vor. Und genau da wird es doch spannend, ob AMD oder Nvidia mit der IPC vorbeiziehen können. Bei vielen CUs ist bisher auch oft die Auslastung bei AMD gesunken, also die IPC weiter abgefallen. Wenn das diesmal nicht ist, ist schon viel gewonnen.
Teralios schrieb:
Nur darf man hier eines nicht vergessen: RDNA2 wird erneut "nur" 64 Shader (2*Vec32-ALU) pro CU haben, während bei Ampere die doppelte Anzahl an Shadern nutzen kann für die modernen Workloads der Engines. Hier stehen 64 FP32 + 64 INT32-Shader gegen 64 Shader die sowohl die INT als auch die FP-Werte berechnen müssen.
Guter Punkt. Nvidia hat ja damals angegeben, dass Integer-Berechnungen ca. 30% eines Spiels ausmachen, plus eventuell Unterstützung der BVH-Erstellung bei RT. Also wäre der Vorteil gar nicht so groß. Wenn man jetzt noch sieht, dass Navi bei gleicher Anzahl CUs und gleichem Takt praktisch gleichauf ist, ist AMDs CU von letztem Jahr wohl doch effizienter als ein Nvidia-SM mit doppelten Recheneinheiten. Man kann sich kaum vorstellen, dass da nochmal 50% Performance/Watt draufkommen sollen. Bin mal gespannt, was da kommt.
 
Teralios schrieb:
Für den großen Navi werden aktuell 80 CU gehandelt, also 5120 Shader (und NUR 5120) Shader.
Warum nur? Die Gerüchteküche spricht bisher bei GA102 von 5376 Shadern, das wäre ein völlig vernachlässigbarer Unterschied.
 
Teralios schrieb:
Sollte der GA102 128 SM haben und die GeForce 3080 Ti davon einen teildeaktivieren Chip mit um die 6500 - 7000 Shader bekommen, wischt die GeForce Karte mit RDNA2 den Boden auf, komme was wolle.

Sollte die 3080Ti um die 5300 - 5500 Shadern haben, wird sie vor der RDNA2 mit 5120 Shadern liegen, nur wird das Duell deutlich knapper werden - so um die 5 - 10% - und um sich wirklich von RDNA2 abzusetzten, wird es DLSS brauchen.
Ich gehe zunächst tatsächlich von letzterem aus. Ich denke, man wird sich die Leistungssteigerung auf zwei Generationen aufteilen, damit man sich auch im Jahr darauf noch etwas steigern kann und man somit weiterhin ein Kaufargument hat. Wahrscheinlich zunächst also 5300 bis 5500 Shader für die 3080 Ti und dann 6000+ für den Nachfolger. Wovon ich aber auch ausgehe, ist eine stark gesteigerte Leistung der RT-Performance durch Architektur-Anpassungen. Das wird in Zukunft eine immer größere Bedeutung bekommen, auch als Argument gegen die Konkurrenz. Aber ist ja bis jetzt alles reine Spekulation :)

Auf jeden Fall sehr beeindruckend, was Nvidia hier gerade abgeliefert hat! Am meisten freut es mich, dass sie sogar AMD Epyc 2 damit stärken! :D
 
Linmoum schrieb:
Warum nur? Die Gerüchteküche spricht bisher bei GA102 von 5376 Shadern, das wäre ein völlig vernachlässigbarer Unterschied.

Wenn man meinen Beitrag ganz gelesen hätte und den Kontext beachtet, wüsstest du, warum da Nur steht. Nicht ganz fair von mir, man muss nicht nur den zitierten Beitrag lesen, sondern den dvor von mir auch.

Aber extra für dich: RDNA hat pro CU 2 Vec32 Einheiten und damit 64-Shader.

Ampere - als auch Turing aktuell - hat pro SM 64 FP32-CC und 64 INT32-CC. Zusammen gezählt also 128 CU pro SM, nach außen wird jedoch nur die Anzahl der FP32-CC angeben. Sprich: GA102 wird nicht nur 5376 Shader haben sondern ganze 10752 Shader. Oder eben 5376+5376. RDNA hat NUR seine 5120 Shader über die Vec32-ALUs.

SaschaHa schrieb:
Wovon ich aber auch ausgehe, ist eine stark gesteigerte Leistung der RT-Performance durch Architektur-Anpassungen.
Nur das diese RT-Leistung Ampere nicht von RDNA2 abhebe wird.

RDNA2 bringt ebenso entsprechende Hardware-Funktionen für RT kit, nur das die Funktionen - BVH-Suche - zum Teil als funktionale Erweiterung in die TMU fließt. Je nach Menge der TMUs könnte sich auch im Bereich RT ein quasi Gleichstand einstellen mit einem Vorteil für Ampere durch die höhere Anzahl an Shadern.
 
Teralios
Die Frage ist, wie groß wird dann GA102 wenn der Big Navi selbst ja bereits 505 mm^2 sein soll ?
 
"da aufgrund der COVID-19-Pandemie die Hausmesse in San José ausfallen musste..."

Kann mich noch an das große Raytracing erinnern. Da hat man wärend dem Klatschen der Zuschauer eine Nadel auf den Boden fallen hören. Wenn ich jetzt schon wieder lese vorerst nicht für Gamer. Nun denn, dann bleibt der Aufschrei der eigentlichen Zielgruppe auch sehr bescheiden.
 
pipip schrieb:
Die Frage ist, wie groß wird dann GA102 wenn der Big Navi selbst ja bereits 505 mm^2 sein soll ?
Also, beim 8192 Shader hat der GA100 826 mm^2. Dazu 6144Bit-SI und keine RT-Cores, dafür die FP64-CC. Die 6144Bit des SI lassen sich recht gut zu den 384 Bit-SI (vermutlich) des SI des GA102 umwandeln. HBm Interfaces habe zwar mehr Datenleitungen, sind aber einfacher aufgebaut.

Platztreiber bei den SM dürften primär die 4 Tensore-Cores sein sowie die 32 FP64-Einheiten, die letzteren werden rausfallen, dafür kommen aber RT-Cores dazu und wenn ihr ein ordentlicher Sprung erfolgen soll, dann könnte. die RT-Cores den Platz der FP64-CCs 1:1 über nehmen oder sogar mehr brauchenm, als der Wegfall der FP64-CC bringen würde. Bei RDNA2 wissen wir, das die TMUs um RT erweiter werden, also ca. 320 RT-Cores vorhanden sind. Der TU102 hat 72, wenn man nunndavon ausgeht, das die RT-Leistung "vervierfacht" werden soll, kann man bei GA102 auch so um die 300 RT-Cores ansetzen.

Die primäre Ersparnis wird durch den Wegfall der Shader sowie eben einigen NV-Links bewerkstelligt werden. Am Ende wird der GA102 vermutlich so um die 600 mm^2 haben, Tendenz eher etwas mehr. Natürlich nur bei der Prämisse das er die besagten 84 SM hat (53nn-Shader)
 
  • Gefällt mir
Reaktionen: pipip
Teralios schrieb:
Nur das diese RT-Leistung Ampere nicht von RDNA2 abhebe wird.

RDNA2 bringt ebenso entsprechende Hardware-Funktionen für RT kit, nur das die Funktionen - BVH-Suche - zum Teil als funktionale Erweiterung in die TMU fließt. Je nach Menge der TMUs könnte sich auch im Bereich RT ein quasi Gleichstand einstellen mit einem Vorteil für Ampere durch die höhere Anzahl an Shadern.
Halte ich jedoch für unwahrscheinlich, aber natürlich kann ich mich da auch irren. Wünschenswert wäre es, ich würde sogar sehr gerne wieder auf AMD wechseln! Aber ich denke, dass Nvidias Ansatz etwas vielversprechender ist als der von AMD, und Nvidia daher einen kleinen Vorteil hat - zumal sie ja in Sachen RT ohnehin mindestens 2 Jahre voraus sind und bereits Erfahrungen sammeln konnten. Aber lassen wir uns überraschen :)
 
Chismon schrieb:
Was die Geruechtekueche rund um die kommenden nVidia Gaming-Grafikkarten wie der Ampere RTX 3080Ti und das Duell mit dem RDNA2 Flaggschiff von AMD/RTG angeht, brodelt es ja jetzt schon maechtig:

RDNA könnte durchaus unterschätzt worden sein. Wenn man zurück denkt zu GCN und Bulldozer, war AMD Ansatz mit wenigen DIE sowohl Consumer und HPC abzudecken. Nimmt man Bulldozer als Konzept, war die Idee ja folgende. 20% mehr Fläche eines Single Core soll 80% Performance eines fiktiven Dual Core sein. Und GCN ist am Ende nichts anders. Eine Compute Architektur mit Kompromissen um auch für Gaming herhalten zu können. AMD ist zu VLIW damals, allein da GCN weniger Treiberaufwand hat, ein großen Sprung gelungen, musste seitdem aber immer einen Kompromiss eingehen. Man denkt an Hawaii, welcher ein richtige Compute Hardware ist, mit viel Durchsatz, 512Bit Si usw. Was aber in Gaming verhältnismäßig auch viel Verbrauch bedeutete.

Wenn man jetzt auf Zen schaut, sieht man wo AMD Konzepts von einer Arch für viele Produkte geändert hat. Zen ist laut AMD skalierbar. Aber die größte Skalierbarkeit bekommt man durch den Multi Chip Ansatz. AMD ist soweit, dass sie keine Low Power Chips mehr fertigen (CATS Arch).

Jetzt kann man da schön auf GPUs ableiten. Die Strategie (auch bei NV und Intel) wird eine MultiChip Ansatz sein, auch weil moderne Fertigungen so etwas in Zukunft immer besser bewerkstelligen können. Somit hat AMD den Bruch gemacht, die GCN Arch auf zwei Arch angepasst zu den Workloads "abzuspalten". Das bedeutet gleichzeitig, dass AMD nun für RDNA und CDNA für deren jeweiligen Bereiche weniger Kompromisse eingehen muss. CDNA kann am Ende ein fettes Speicherinterface haben und mehr Shader in den CUs, währenddessen bei RDNA genau in die andere Richtung angepasst werden kann. Vllt muss AMD aktuell diese Generation deutlich mehr Chips fertigen als es bei GCN noch der Fall ist, spätestens ein paar Generationen später beschränkt sich das am Ende aber auch auf ein paar wenige Chips aufgeteilt auf CDNA und RDNA.

Mein persönlicher Paukenschlag zuletzt waren aber keine Gerüchte. Alle drei Hersteller haben mit der Regierung bezüglich Exascale Super Computer Verträge und es wurden auch drei Systeme Systeme mit jeweils AMD, Intel und NV Hardware vorgestellt.
Beim vierten System handelt es sich um El Capitan. Jetzt kann man sich die Frage stellen, wieso AMD ein Wettbewerb gewonnen hat. Wegen Epyc dürfte es wohl nicht liegen.

SaschaHa
Die Frage ist, wie RT in den nächsten Jahren in Games eingesetzt wird. Kann gut sein, dass maximal gesehen die NV Karte vorne liegt und bessere Frames liefert und was RT angeht bin ich nicht so belesen wie andere im Forum!
Aber DX 12 Ultimate dürfte aus guten Gründen DirectX Raytracing 1.1 werben.
Die Anzahl der Rays pro Pixel (Casting) kann nun dynamisch erfolgen, auch die Nachverfolgung (Tracing) und das Shading sind nun flexibler kontrollierbar. Entwickler können nun ergo feingranularer entscheiden, wie viel Last sie den Raytracing-Kernen und beim anschließenden Shading auch den ALUs aufbürden.
Und ich sehe das feiner aufteilen der Last für kommende Games als wichtig, besonders was Konsolen angeht. Wir werden sicherlich erstmals vermehrt Games sehen, die für gewisse Effekte oder Details RT verwenden.
Bis RT alte Technik vollständig ersetzt, werden wir sicherlich noch einige GPU Generationen erleben.
Kurz: Erstmals Schritt für Schritt Techniken durch RT ergänzen oder ersetzen. Ist aber auch hier nur eine Vermutung von mir.

Krautmaster
DLSS ist sicherlich das Feature kommende NV Karten. Da erwarte ich mir selbst viel. Ob AMD mit MS und deren Ansatz mithalten kann, ist die große Frage.

zur NEWs.
Also echt ein gewaltiger Chip. Ich hatte Anfangs echt meine Zweifel an 800 mm^2. Dass da 6 HBM Chips verbaut werden (obwohl ja unklar ob es am Ende "nur" 5 sind) war teils ja schon erwartet.
Ehrlich gesagt hätte ich aber bei NV bereits einen Art Dual MCM Chip erwartet, da ja vor einem Jahr bereits erste Andeutungen gab. Spannend wird es dann in der Zukunft. Ob man die Tensor und RT Cores vllt später sogar auf einen eigenen Chip auslagern kann ?
Also auf kommende Produkte in Multi Chip Design bin ich schon sehr gespannt.
 
Zuletzt bearbeitet:
Eig wollte ich mir morgen eine RTX 3080 TI bestellen ^^

Es wäre dennoch nicht verkehrt wenn AMDs Big One und der von Nvidia zeitlich ähnlich launchen, ich halte mir gern beide Optionen offen.

Edit: AMD hat den Vorteil der Konsolen, Nvidia das RT und ich muss sagen auch das DLSS sagt mir nach den neusten Ergebnissen durchaus zu.

Schaut man sich die neuste UE TechDemo zur next gen Konsole an... Könnte man meinen wozu brauchst das RT Zeug. Wobei keiner weiß was da ggf schon an RT drin steckt.
 
Zuletzt bearbeitet:
Teralios schrieb:
Deswegen hab ich auch als Frage - die du ja mit zitierst - eher auf die Auslastung der SM und den CU in dieser verwiesen.

Aber ich denke auch da wird sich bei Ampere nicht so viel getan haben und die CC-Blöcke sehr starr auf die Datentypen verteilt werden.

Wie gesagt, das sind nur mehr CUDA Cores und das war es. Etwas schade.

Teralios schrieb:
Frage ist halt, wird der GA102 so groß wie der GA100 von den SM her, also 128, oder kleiner.


Sollte der GA102 wirklich nur um die 80 - 90 SM bekommen, dann könnte RDNA2 wirklich recht nah an die GeForce 3080TI kommen, bei RDNA2 und Big.Navi spricht man ja auch davon, dass sie auf die 2080Ti knapp 35 - 40% aufschlägt.

Das ist eine reine Kostenrechnung. Und da jetzt noch nichtmal der Vollausbau praesentiert wurde kann man es mit ziemlich hoher Wahrscheinlichkeit knicken irgendwas in die Richtung im Consumermarkt zu sehen. Fuer die Teslas sind wir bei 12k, das gibt der Consumermarkt nicht her. Die 84 SMs klingen recht plausibel und sollten auch weniger teuer werden, obwohl es immer noch nicht billig ist.

Teralios schrieb:
Nur darf man hier eines nicht vergessen: RDNA2 wird erneut "nur" 64 Shader (2*Vec32-ALU) pro CU haben, während bei Ampere die doppelte Anzahl an Shadern nutzen kann für die modernen Workloads der Engines. Hier stehen 64 FP32 + 64 INT32-Shader gegen 64 Shader die sowohl die INT als auch die FP-Werte berechnen müssen. (Direkt als Vorsorge, RDNA2 kann INT und FP-Berechnungen wie Turing und Ampere auch zur gleichen Zeit, eine Vec32 wird mit FP gefüllt, eine mit INT, wenn der Bedarf herrscht. ;))

Da sollte man den Unterschied jetzt schon merken, da Turing ja genauso aufgebaut ist. Anscheinend kann sich Turing da aber nicht so wirklich absetzen, aus welchem Grund auch immer.

Teralios schrieb:
Der GA100 (A100 ist wohl die Produktbezeichnung dann für die Karte) ist ein wahres Monster und ja, vermutlich wird die Ausbeute von voll funktionsfähigen Chips wohl eher gering sein. :D

Ich tippe darauf, dass der Vollausbau als v2 in 1-2 Jahren kommt wenn man genug Chips gesammelt hat.

Teralios schrieb:
Da hast du vermutlich recht, die aktuellen Schaubilder zeigen zumindest keine RT-Cores beim GA100. Ich schätze, dass hier auch Platz für den NVlink benötigt wird. Der GA100 ist halt wirklich ein HPC-Chip.

Braucht man im HPC Bereich ja auch nicht. Workstationkarten werden es haben, genauso wie Geforce. Dafuer gibt es halt eine neue Maske. Wobei der Vollausbau wieder in den Workstations landen wird, zu ordentlich Aufpreis.

Colindo schrieb:
Die FP32-Leistung berechnet sich doch rein aus Cores und Takt. Die IPC kommt darin gar nicht vor. Und genau da wird es doch spannend, ob AMD oder Nvidia mit der IPC vorbeiziehen können. Bei vielen CUs ist bisher auch oft die Auslastung bei AMD gesunken, also die IPC weiter abgefallen. Wenn das diesmal nicht ist, ist schon viel gewonnen.

Das macht ziemlich wenig Sinn. Selbst Wikipedia sagt, dass sich Flops aus den Cores, den Zyklen pro Sekunde (Takt), und den Flops pro Zyklus (IPC) berechnen. Ansonsten haette man eine Einheit mit der man ueberhaupt nichts vergleichen koennte. Flops sind aber universell, egal ob CPU, GPU, oder sonst was. Da wir die Anzahl der Cores haben, die Zyklen pro Sekunde, und die Flops koennen wir eben sehr wohl was ueber die Flops pro Sekunden aussagen. Und die haben sich eben nicht verbessert. Das sind die gleichen CUDA Cores wie auf Volta. Die einzigen Verbesserungen waren bei den Tensor Cores. Was du mit den CUs meinst ist mir auch nicht ganz klar. Verwechselst du das mit Gamingleistung? Denn die Auslastung bei AMD machte eigentlich nur bei Gaming Probleme, bei Compute eigentlich nicht, da koennen die Karten teilweise richtig abgehen.
 
Der 7 nm Prozess wirft extrem gute Yields ab. Ich denke nicht dass die Probleme haben werden genug inkakte vollausbauten zu bekommen
 
Zurück
Oben