News Intel Xe HP: Profi-GPU liefert doppelte Ampere-FP32-Leistung

Botcruscher schrieb:
Der Zusammenhang war halt etwas anders. Der Q6600 ist eben tatsächlich nur ein Dual-Dualcore weil alles über den FSB muss.
Der Interconnect ist aber rein technisch gesehen völlig unerheblich, wenn auch leistungstechnisch mit entscheidend.

Die Nachteile sind dann zum Teil erheblich. AMD hat für den ersten Quad dann auch ewig gebraucht.
Der Erfolg von AMD bei ZEN ist es ja es (fast) ohne Leistungseinbußen sich schaffen.
Exakt. Aber dennoch geht es hier einfach ums Prinzip ein rein technisches Merkmal als Marketing- Hook zu präsentieren.
Nur tritt jedes technische Merkmal einfach hinter jede Praxisleistung zurück, weil dieses schlichtweg was aussagen kann, aber nicht muss.

Siehe auch oft die Argumentation bezüglich irgendwelcher Fertigungsprozesse. Da heisst es oft, dass man sich XY kauft, weil dieser da ja "besser" sei und der andere aus der Steinzeit käme.
Hilft nur alles nix, wenn das Ding trotz "besserem" Fertigungsprozesses nicht schneller ist oder gar langsamer, als die Produkte, die im alten Prozess gefertigt wurden.

Dieser Technik Showoff ist das, was man immer mit äußerster Vorsicht genießen sollte (man erinnere sich an eine Matrox Parhelia). Und gerade diesbezüglich hat sich kein Hersteller als besonders besonnen herausgestellt.
 
Joker* schrieb:
Wäre schön, wenn jemand von den Experten das mal einordnen könnte, was die "100% mehr als Nvidia" bedeuten. Wäre das von Relevanz für eine Gaming-Grafikkarte (so es sie denn gäbe) oder ist das nur ein geringer Teil der Architektur, der gut klingt aber (für Gaming) nicht ins Gewicht fällt?

An sich ist dies erstmal nicht von Relevanz fuer Gamingkarten. Die Entwicklungszweige scheinen sich immer weiter zu trennen. Was teilweise eher von Relevanz waere, waere so was wie Tensorunits, i.e. AI-Beschleunigung welche dann auch Spiele beschleunigen koennte wie es ja NVIDIA schon tut und AMD anscheinend anstrebt.

Insgesamt ist der Anspruch aber ziemlich lachhaft wenn man sich vor Augen fuehrt, dass das Department of Energy, der Auftragsgeber von Aurora, und Argonne National Labs, der Endbetreiber, bei anderen Firmen wie NVIDIA & AMD schon Anfragen am Laufen haben Intel's Karten in dem bisher einzigen Projektgewinn, Aurora, zu ersetzen.

Hier eine interessante Referenz aus der HPC-Szene dazu von heute: insideHPC
 
  • Gefällt mir
Reaktionen: Joker* und Colindo
Bei dem ganzen Intel Gewäsch im CPU, muss man wohl darauf warten, dass erstmal was rauskommt, sonst ist das ganze nichts wert.
 
Aktuell alles für mich nicht sonderlich interessant. Erst wenn ich im Shop (Ware auf Lager) bestellen klicken kann, wird es ernst.

Aber es wäre schon cool, wenn Intel es schaffen würde den GPU Markt aufzufrischen. Sie haben leider zu lange nichts mehr großes in diesem Bereich gemacht.
Ergänzung ()

Chris007 schrieb:
Nvidia hat im Labor sicherlich auch Produkte mit doppelter Geschwindigkeit ;)

Intel und AMD auch. ;-)
 
.Sentinel. schrieb:
Dass sich aber jeder mit dem Beschießen der Bauweise der Konkurrenz in Gefahr begibt, zukünftig selbst damit unter die Räder zu kommen, ist den Herstellern offenbar egal.

Es sind nicht Unternehmen, die etwas sagen, sondern Personen - und wenn ein Unternehmen aus tausenden Personen besteht, dann lässt sich auch nicht kontrollieren, was jeder sagt und denkt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
vander schrieb:
Andernfalls wirkt der 'Fortschritt' bei Intel doch eher mickrig.


Das hört sich so an, als wenn Intel schon die letzten Jahre im Profi oder gamer GPU Geschäft vertreten gewesen wäre und ihr Fortschritt darauf bezogen mickrig wäre, was wirklich Quatsch ist. Dir sollte auch klar sein, dass sich die Angaben auf ein frühes silicon mit niedrigen Taktraten von 1,3 Ghz bezieht, schon die Xe LP übertrifft diese Taktraten deutlich mit der DG1, die als low power Variante sicher nicht speziell auf hohe Taktraten ausgelegt ist. Einfach mal zuhören was er sagt könnte helfen, oder einfach mal nachdenken.
 
Sehe gerade das ich den richtigen Link nicht mit gepostet hatte, sorry. Vermutlich kommt deine Verwirrung daher, einfach mal lesen, zweiter Link aus dem ersten Artikelquote. Der wesentliche Teil steht bereits in meinem zweiten Artikelquote.

, ist ganz klar ein Fingerzeig zu Ampere. Nvidias erste Lösung A100 liefert 19,5 TFLOPS in FP32-Anwendungen. Mit über 42 TFLOPS aus einem einzelnen Package, wie Intel betont, übertrifft man den Wert deutlich.

Bereits laut Artikel vom Mai lag Ampere durch TensorCore bei 160TFlops für TF32. Was mich interessiert, inwieweit TF32 und FP32 vergleichbar sind. Könnte Intel von TF32 gleichermaßen profitieren oder kann das nur TensorCore?

Falls dem nicht so sein sollte, dann hat Intel eine alte Generation (GV100) klar geschlagen und wird bereits von Ampere gnadenlos in den Boden gestampft, bevor Intel überhaupt ein echtes Produkt auf den Markt bekommt.
Jetzt klarer?

Aus 16 TFLOPS für FP32 bei der GV100-GPU werden so 160 TFLOPS für TF32 (als neuer Standard für FP32-Operationen) auf der A100-GPU. Und mit Sparsity-Beschleunigung wiederum werden daraus dann die propagierten 20 Mal höheren 312 TFLOPS mit Spare TF32.

Was mich am aktuellen Artikel stört, es klingt als ob Intel das Rad neu erfunden hätte und demnächst die absolute Performancebombe platzen würde, da ein Vorserienmodell bereits doppelte so schnell ist, verglichen mit der Konkurrenz. Liest man den ganzen (alten) Artikel, scheint sich der vermeintliche Vorsprung direkt wieder umzukehren, warum?


P.S. Um wie viel könnte Intels fertiges Produkt deiner Meinung nach schneller sein als das gezeigte Sample? 200%, 500%, ...
 
Zuletzt bearbeitet:
Hi, sowas habe ich mir auch schon gedacht, obwohl im A100 Artikel steht, das es der Nachfolger von FP32 sein soll. Da würde ich erwarten das ein Nachfolger das gleiche und mehr kann.
Etwas anders sieht es bei Sparsity aus, das klingt nach begrenzter Optimierung, vielleicht durch geringere Genauigkeit oder eingeschränkte Möglichkeiten bei der Datenmanipulation.

Das die Software dafür angepasst werden muss empfinde ich erstmal nicht als Hürde, es geht schließlich um andere Hardware und ein neues Datenformat. Kommt darauf an ob die Anpassungen automatisiert (Kompiler) oder manuell erfolgen.

Wenn man sich die absoluten Zahlen ansieht, stellt sich mir nun mal die Frage, was macht Intel hier so viel besser, wie es laut dem Artikel klingt? Das sich die Erwähnung der Zahlen in dem Vergleich auf den einen Wert beschränkt in dem Intel besser ist, macht stutzig.
 
FP32 ist die traditionelle Hauptaufgabe einer GPU. Früher konnten die nix anderes, so wie CPUs früher nur INT berechnen konnten.
Intel kombiniert 4 Chips, um doppelt so schnell wie A100 und genauso schnell wie die erwartete Arcturus zu werden. Das ist erstmal nichts besonderes.

Hier ein bisschen herunterscrollen gibt einen Überblick über TF32. Es hat die Genauigkeit von FP16, aber den Zahlenraum von FP32. Also ein Hybrid der beiden alten Formate.
 
  • Gefällt mir
Reaktionen: vander
Zurück
Oben