News Diskrete Intel-Grafik DG1: Iris Xe Max mit 96 EUs und 4 GByte LPDDR4X bei 25 Watt

Vulture schrieb:
Damit könntest du die Leistung eines dedizierten Grafikchips in eine APU packen ohne vom lahmen Systemspeicher ausgebremst zu werden. Das meinte ich.

Intel hat mit eDRAM vor Jahren mal experimentiert, mit gemischten Erfolg und auch AMD verkauft den bereits bei der Xbox One eingesetzten eSRAM nun unter einem marketingwirksamen Namen mit veränderter Technik.

On-chip caches for GPU usage are not a new idea, especially for AMD. The company included a 32MB eSRAM cache for the Xbox One (and Xbox One S) SoC, and even before that the Xbox 360 had an on-package eDRAM as well. But this is the first time we’ve seen a large cache on a PC GPU.
https://www.anandtech.com/show/1620...-starts-at-the-highend-coming-november-18th/2

Crystal Well is a true 128MB L4$ which could be utilized by the core itself, not just by the Iris Pro's framebuffer. I.E. L3$ values that gets evicted go into L4$. The L4$ caches serve GPU and CPU memory accesses; memory is partitioned between the two. If the GPU is disabled, such as when a discrete GPU is installed, the L4$ will be used exclusively by the CPU.
https://en.wikichip.org/wiki/intel/crystal_well


Eines haben solche Lösungen gemeinsam, sie können hier und dort was abfedern, wenn allerdings viele Daten aus dem RAM angefordert werden, sind sie letztlich nutzlos.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco und konkretor
janer77 schrieb:
Meine Güte, der Chip macht ja mal so richtig Sinn... Scheinen ja nur Spezial-Anwendungen zu sein, ansonsten ziemlicher Quatsch, falls ich da nicht was missverstanden habe.
Quatch ist es bei Notebooks immer mehr Grafikleistung herausholen zu wollen. Notebooks sind nicht zum Spielen da.
KI hingegen wird in Zukunft für alle Möglichen Sachen benötigt, die man auch auf Notebooks einsetzt.
Zum Beispiel kommt demnächst ja schon die Sichtkorrektur für Videokonferenzen, die nur mit KI-Prozessorunterstützung funktioniert.
https://venturebeat.com/2019/10/03/...-gaze-tech-is-exclusive-to-the-surface-pro-x/

Auch so etwas wie DLSS für Videokonferenzen gibt es von Nvidia um die genutzte Bandbreite zu reduzieren oder um Avatare nutzen zu können.
https://developer.nvidia.com/maxine
Rauschunterdrückung ist mit KI ebenfalls deutlich besser möglich.

Anwendungen, die solche Funktionen über DirectML implementieren werden diese Dinge dann auf Intels Xe, Nvidias RTX und Microsofts SQ1 Prozessor ausführen können.

All sowas ist auf Notebooks deutlich wichtiger, als immer mehr GPU Leistung zu besitzen.
 
  • Gefällt mir
Reaktionen: andi_sco
Ich find es etwas verwunderlich, das der Chip bei 25W so schlecht dasteht.

Wenn man das mal mit der iGP Variante, oder ner Vega 6/8 vergleicht... sieht der Chip auf den ersten Blick schwach aus...

und die Kombination beider (iGP und dGP) erhöht zwar die Leistung (je nach Software), aber ja auch den Bedarf an Energie entsprechend...
 
@noxon :

Das mag schon alles sein, aber sowas als extra Chip? Für die reine Grafik-Leistung scheint der Chip, wie geschrieben, nicht sonderlich sinnvoll zu sein.

Über die Spezial-Anwendungen für die der Chip genutzt werden kann, kann ich mir mangels ausreichendem Wissen keine Meinung bilden. Aber sowas extra in einen Chip zu gießen...
Wenn, dann macht es doch mehr Sinn die entsprechenden Einheiten in den CPUs mit Xe-Grafik zu erweitern, oder?
 
@janer77 Ich kann dir zum besseren Verständnis nur den Anandtech Artikel ans Herz legen, teile aber gleichzeitig deine Meinung, dass ein separater Chip, obwohl er ganz offensichtliche Vorteile wie ein höheres Power Budget und eigenen Speicher bietet, einige Fragen auswirft.

Hier will Intel wohl ein attraktives Paket schnüren und die MX350 aus dem Markt verdrängen. Je nachdem, wie die Geräte bepreist werden, kann das mMn funktionieren.

Vlt. hängt das Release aber auch mit fehlenden (auch für mich auf den ersten Blick sinnvolleren) weiteren Tiger Lake Varianten zusammen.

Ein 6 Kern/48 EU Tiger Lake CPU (50% mehr CPU Kerne, 50% weniger EUs für die iGPU) kombiniert mit einer dedizierten 144 EU (50% mehr EUs) würde auf mich z.B. wesentlich attraktiver wirken.
Um das beurteilen zu können, hat man aber zu wenig Einblick in die Abläufe bei Intel und muss wohl einfach Tests abwarten und dann urteilen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und andi_sco
charly_ schrieb:
Wie zum Teufel wollen die eine halbwegs konkurrenzfähige Karte auf den Markt bringen?
Sie haben die finanziellen Resourcen und sie haben Manpower. Sie starten weit hinten, aber wenn sie Entwicklungstechnisch konstant Fortschritte bringen, dann kann das was werden. Kaduri wird meines Erachtens zu unrecht unterschätzt, weil er mit dem Vega-"Debakel" verbunden wird.
Wenn ich richtig informiert bin, dann hatte er aber mit Vega relativ wenig zu tun, sondern ist eher der Vater von (Big) Navi.
 
mgutt schrieb:
Mich wundert, dass diese Ressource einfach ungenutzt bleibt.
Wird kommen - von Intel … OneAPI unter dem Motto "No Transistor left behind".
Ziel von OneAPI ist es, einen plattformübergreifenden und offenen Programmieransatz zu liefern, der über alle derzeit verfügbaren Beschleuniger-Architekturen (CPUs, GPUs, FPGAs oder spezielle ASICs) abstrahiert. Grundlage dafür ist mit Data Parallel C++ ein eigens erstellter C++-Dialekt, der auf den Sycl-Standards des Khronos-Konsortiums aufbaut. Sycl wiederum war ursprünglich für OpenCL gedacht, lässt sich inzwischen aber auch mit anderen Frameworks zur Beschleunigung von Anwendungen nutzen. Hinzu kommt mit OneDPL noch eine Abwandlung der C++-Standardbibliothek für die speziellen Bedürfnisse der Beschleuniger-Systeme und natürlich ein Compiler für die Sprache.

Sowas war längst überfällig … ist aber (leider) noch Zukunftsmusik.
 
Jetzt bitte noch ein Gerät mit guter Debian Unterstützung und ich würde als Kunde durchaus Interesse zeigen!

Die Hardware stimmt ja mit den neuen Intel Chips und Tiger Lake endlich wieder. Wurde auch Zeit, dass Intel endlich nachlegt und das Geschäft nicht ewig AMD und NVIDIA überlässt. Die Intel Hardware hatte auch nie die Treiberprobleme unter Debian, wie andere Kandidaten!
 
Zurück
Oben