News Intel Xe HP: Profi-GPU liefert doppelte Ampere-FP32-Leistung

foofoobar schrieb:
Jede Zelle braucht doch nur die Ergebnisse der direkten Nachbarzellen?
Ja braucht sie, was aber auch heißt das jede Zelle auf 6 andere wartet (wenn wir von einem Hexagon ausgehen) und diese 6 Zellen warten auf ihre Nachbar, sind dann schon 18 (Außenkanten eines Feldes aus 7 Hexagons) und so weiter. Zusätzlich muss man die Wirkung untereinander berücksichtigen etc. Ich habe keine Ahnung wie das in der Praxis genau läuft, mir ging es nur um die Aussage Klimamodelle auf einer GPU zu berechnen und das es geht aber eben ungenauer wird oder extrem lange dauert.
 
Shoryuken94 schrieb:
Warum kein vergleich zur KI Leistung, was ja der eigentliche Sellingpoint von Ampere ist?

Das sehe ich auch so, weil am Ende ja wichtig ist, wie viel von der Rohleistung "auf der Straße ankommt".

Recht häufig möchte man ja z.B. KI-Applikationen auf Edge-Devices (Smartphone, Tablet, Drone, ...) laufen lassen und dann kann das neuronale Netz nicht beliebig groß sein.

Kleine Netze lassen sich aber schlechter parallelisieren -> es gibt Netzarchitekturen, die sind auf einer GTX 1080 schneller als auf einer RTX Titan, einfach weil man die GTX 1080 viel höher takten kann, die spezielle Architektur nur spärlich Gebrauch von den Optimierungen der TensorCores machen kann und das kleine Netz einfach schlecht parallelisierbar auf die massive Anzahl von CUDA Cores der Titan ist.

So was spielt im theoretischen Benchmark natürlich keine Rolle, für den konkreten AI-Use-Case aber schon.
 
Nvidia hat im Labor sicherlich auch Produkte mit doppelter Geschwindigkeit ;)
 
  • Gefällt mir
Reaktionen: Smartbomb, Schorsch92 und AlphaKaninchen
Es kommt ja nicht nur auf die Hardware, sondern auch auf die Softwareunterstützung an. Und da sehe ich CUDA mit diversen Python-Erweiterungen noch weit vorne. Da müssen wir mal gespannt sein, was Intel hier als gutes SDK liefern wird, wenn das nichts taugt, ist die beste GPU/TPU sinnlos.
 
Fuchiii schrieb:
...
Intel ist derzeit schnell dabei mit enormen Zahlen um sich zu werfen...

Dafür haben Sie ja Ihre Real-World-Performance-Benchmarks

Naja, Sie müssen es den Kunden ja irgendwie schmackhaft machen


hollalen schrieb:
But can it run Crysis? :)

Ja, aber für Ultima ist es dann doch zu langsam
 
Von den verwendeten Ideen und dem generellen Aufbau erinnert mich das ganze an GCN - zu mindest mehr als vorherige Intel Grafiklösungen. Sieht so aus, also konnte Raja nun doch seine vollausgereifte Vega umsetzen. Das Ding wird schnell und stromhungrig;

Hoffentlich kommt bald mal ein bisschen Leben in den GPU Markt. Ist nur noch zum Kotzen, dass Karten jeder Leistungsklasse 175% bis 200% zu teuer sind im Vergleich mit den Fortschritten früherer Grafikkartengenerationen.

Als Linuxnutzer bin ich jedenfalls nicht abgeneigt, da Intel auch auf Open-Source setzt bei den Treibern.
 
  • Gefällt mir
Reaktionen: Schorsch92
Schorsch92 schrieb:
Ende 2017 bis Mitte/Ende 2020 sind für mich mindestens 2,5 Jahre ... trotzdem ist das erstaunlich schnell.

Das stimmt, allerdings hat wer vor seinem Weggang die RTG geleitet, Vega mitentwickelt und bis zum Weggang bei Navi komplett die Regie übernommen?

Genau, Koduri, wobei man natürlich dann über eigenes geistiges Eigentum und das des Unternehmens streiten kann (Übergänge da auch fließend sein können).

Vermutlich wird sich Koduri die Intel IP angeschaut haben, die grafiktechnisch relevant ist und dann kombiniert haben mit seinen vorher gewachsenenen Ideen (MCM GPUs waren bspw. ja seine Idee, auch wenn er damals noch bei AMD/RTG gearbeitet hat).

Ob man da klar einen Strich ziehen und eine Zuordnung wird vornehmen können, wage ich zu bezweifeln und was die Spezifikationen/Leistungsdaten angeht, ähnelt sich das bei AMD/RTG und nVidia doch auch bzw. sind die möglichen kommenden Spezifikationsschritte/Leistungsdaten doch abschätzbar/einschätzbar (z.B. 80 CUs bei Big Navi RDNA2 und 82 SMs bei Ampere RTX 3090/3080Ti).

Dass Koduri nicht die GPU neu erfinden würde, war eigentlich schon abzusehen, aber das man kommendes Jahr in Teilen bei den GPUs schon konkurrenzfähig sein könnte, ist sehr beachtlich und erfreulich (wenn es denn so kommen sollte, wie dich das Intel erhofft), keine Frage.
 
Zuletzt bearbeitet:
Hier die schon vorgeübte intel Produktvorstellung in blau und das schon vor drei Jahren.
Bei dem Produkt gehen sogar die Lampen aus. :D
Die VEGA zieht nämlich massig Ampere schon beim Öffnen der Schachtel aus ihrer Umgebung ab um als großer Stern nicht mal zu leuchten.
Will intel da wirklich noch eins drauf setzen?

Mal schauen, ob nicht erneut so manch Kinderkrankheit wie bei der so mit Leistung angepriesenen Vega bei intel wiederholt werden. Mit intel Phi kommt man heute gegen das so flexiblere AMD Epyc Manycore Programm auch nicht mehr an.

nvidia wird sich selbst im HPC Segment sicher nicht die Butter vom Brot durch intel nehmen lassen und das weiss jedes besserer Manager im Wettbewerb mit Konkurrenten, wenn intel Datenzentren gerne mit nvidia Beschleunigern ausgestattet werden. nvidia stellt auch fleißig immer mal neue Produkte vor und da wird man auch für nächstes Jahr gegen die so hohen intel Zahlen haben udn gleichzeitig seine partner mit der Infrastruktur an die Hand nehmen.
 
Na mal sehen was uns da 2021 präsentiert wird. Intel muss für mich nicht der schnellste sein, wenn Preis-/Leistung besser wie bei AMD und Nvidia ist, haben wir Nutzer doch schon etwas gewonnen 👍
 
@.Sentinel.
seems somewhat un-elegent
Wow, das hat seit 2006 niemand korrigiert?
Und bezüglich deines Einwurfs, es gab halt zuletzt nur einen, der von Glued-Together gesprochen hat, und das haben die Leute aufgenommen. Das ist mittlerweile aber auch verjährt und man sollte das Thema mal ruhen lassen.
 
Ja und was ist mit den Treibern? Die Karte muss nicht mehr Rechenleistung haben, sondern sie muss mehr FPS abliefern, als die Konkurrenz!
 
Colindo schrieb:
@.Sentinel. Wow, das hat seit 2006 niemand korrigiert?
Es ist in der Tat lang her, ändert aber nichts an der Tatsache, dass Intel damals als erste der beiden die CPUs quasi in Modulbauweise mehrkernfähig gemacht hat und AMD auf den monolithischen Ansatz gesetzt hat.

Damals gab es etliche Interviews und Publikationen zu dem Thema, in welchen AMD lächelnd ob der "zusamengeklebten" Lösung davon sprach, dass diese ihnen technisch nachteilig erscheine und es aus der Not geboren wirke.

Und bezüglich deines Einwurfs, es gab halt zuletzt nur einen, der von Glued-Together gesprochen hat, und das haben die Leute aufgenommen. Das ist mittlerweile aber auch verjährt und man sollte das Thema mal ruhen lassen.
Ach ist es das? Genauso wie dann Intels angebliche Verfehlungen wegen unlauteren Wettbewerbs dann verjährt sein müssten? Da erinnert sich eine gewisse Klientel auch nach 15 Jahren noch sehr treffsicher.

Ich mag es nicht, wenn mit zweierlei Maß gemessen wird. Das hat einfach immer einen Nachgeschmack.

Wobei ich eindeutig (wie Du wohl auch, wenn ich das richtig rauslese) immer dafür bin, nur die jüngere Vergangenheit eines Unternehmens heranzuziehen, wenn es um moralische Bewertungen geht.
Firmen ändern sich ständig. Führungskräfte, Vorstände usw. kommen und gehen. Und mit ihnen oftmals der "Charakter" einer Firma.
Eine Firma für Verfehlungen im Jahre XY die in mittlerer bis weiter Vergangenheit liegen zu verurteilen, ist nunmal ziemlich sinnlos und engsichtig. Da muss aber dann gleiches Recht für alle gelten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Shoryuken94
Fuchiii schrieb:
Da musste ich heute morgen direkt mal herzhaft lachen - Intel der günstigste :D :D :D :D
Danke dafür :D

Bei CPU´s gibt es preislich zumindest schon einen gleichstand Intel vs. AMD (bei diesen Modell hier im Video)

Ob das jetzt so abwegig ist, das Intel ein gutes P/L Verhältnis bei Grafikkarten bietet - verramschen werden Sie es nicht, aber teurer wie die Apotheke Nvidia?
 
Och, da kann ich ja Ende des Jahres/Anfang 2021 locker auf Big-Navi oder eine neue Nvidia aufsatteln, bis da etwas Belastbares von Intel kommt.
 
Colindo schrieb:
Unterschiedliche Vergehen haben unterschiedliche Verjährungsfristen. Mehr kann ich dazu nicht sagen.
Und wer entscheidet dann darüber, welche Vergehen (bis jetzt ist z.B. bei Intel der letzte Status immernoch, dass sie freigesprochen bzw. das Urteil durch den EuGH aufgehoben wurde und neu geprüft werden muss) dann wie lange nachwirken dürfen?

Bei den Amis hat Intel mal eins auf den Deckel bekommen. Da musste allerdings auch AMD schon bluten.
Herrscht jetzt gleichstand bezüglich der bösen Absichten der Firmen?

Ist es sinnvoll da aufzurechnen?
Ist es überhaupt sinnvoll ohne eingehendes Hintergrundwissen bezüglich einiger Firmen moralisieren zu wollen?
Ist es weniger böse wenn AMD die Börsenkurse manipuliert und die Kunden anschwindelt, weil das Unternehmen das finanziell schwächere ist?

Ohne wirklich umfassendes Wissen bezüglich der Machenschaften der Firmen halte ich eine Einnordnung in Gut und Böse diesbezüglich für äußerst fahrlässig. Und ich weiss, dass ich mit dieser Meinung einsam auf weiter Flur stehe :)

Es kann nämlich auch Taktik sein, dass man vorne rum den Saubermann gibt und hinten rum dann schmutzige Wäsche wäscht.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Interessant ist es nur immer, wie schnell die User vergessen, wer dieses ganze "glued together" Zeug überhaupt angefangen hat, obgleich es nichts über ein Leistungsmerkmal aussagt.
Der Zusammenhang war halt etwas anders. Der Q6600 ist eben tatsächlich nur ein Dual-Dualcore weil alles über den FSB muss. Die Nachteile sind dann zum Teil erheblich. AMD hat für den ersten Quad dann auch ewig gebraucht.
Der Erfolg von AMD bei ZEN ist es ja es (fast) ohne Leistungseinbußen sich schaffen.
 
Im Artikel wird erwähnt das die Verdopplung sich auf Ampere bezieht, bei ca. 20TFlops FP32.
Offiziell sprach Koduri nicht von Nvidia, doch die Erwähnung, dass bisherige Produkte rund 20 TFLOPS FP32-Leistung liefern, ist ganz klar ein Fingerzeig zu Ampere.

Sieht man sich nun den verlinkten Artikel von Ampere an, dann sticht als erstes ins Auge, das Ampere zwar nur 20 TFlops erreicht, wie bereits beschrieben, aber das geschieht über CUDA.
Dann wird erwähnt das Ampere stärker auf die Tensor Cores und ein spezielles Zahlenformat (TF32) setzt, wodurch eine 20x höhere Leistung erzielt wird.
Für FP32 wird eine Rechenleistung von in der Spitze 312 TFLOPS angegeben,

Keine Ahnung ob sich der Vergleich tatsächlich so einfach gestaltet. Vielleicht kann ein Kenner der Materie mal was dazu schreiben?
Andernfalls wirkt der 'Fortschritt' bei Intel doch eher mickrig.
 
Zuletzt bearbeitet:
Zurück
Oben