News Diskrete Intel-Grafik DG1: Iris Xe Max mit 96 EUs und 4 GByte LPDDR4X bei 25 Watt

pipip schrieb:
Kurze Frage. Aber ist das nicht einfach nur ein Tiger Lake auf einem PCB, LPDDR4 Speicher und deaktiverter CPU?
Oder sprechen wir da wirklich von eine reinen GPU Chip?
Es ist ein eigens erstelltes Stück Silizium. Doch du hast schon recht, dass Intel sicherlich einfach die unnützen Funktionseinheiten von Tiger Lage (CPU-Kerne und Perepherie-I/O) weggelassen und den Rest per copy+paste zusammengesetzt hat. Beide haben einen L3-Cache, Speichercontroller, Encoder, Decoder, Displaycontroller und PCIe-4.0-Controller (und die eigentlichen Xe-Grafikkerne ^^).
 
Okay okay, es ist der first-shot von Intel, aber wirklich umhauen tut mich das nicht.
 
Klassikfan schrieb:
Eine diskrete Grafik auf dem Niveau der integrierten Grafik von Intel für das Notebooksegment, wo eh eine iGPU drin ist? :freak:
Hab ich jetzt auch nicht verstanden.

Und dann hat man außerdem wieder den Nachteil, dass man keinen Shared Memory hat.

Wozu soll das gut sein? :confused_alt:
 
Doch nicht immer ist die diskrete GPU dabei von Vorteil, aufgrund von Latenzen und anderen Umständen kann die integrierte Einheit schneller sein.
Das finde ich interessant... Und steigert nur die Hoffnung auf eine richtige Monster APU* bzw SoC, @Apple @AMD @intel @Qualcom

*Der Chip der Xbox Series X wäre für mich die Untergrenze aber haben will ich eigentlich 12 Zen 2 Kerne, 80 RDNA 2 Kerne, 32GB Unified HBM 2 RAM / L4 Cache oder etwas leistungsmässig vergleichbares, halt ein Chip der alles Zersägt. Mit Chiplets muss das doch machbar sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
Draco Nobilis schrieb:
Also Intel 25W CPU/GPU + Intel 25W ded GPU schaffen es Nvidia zu besiegen?

Nein, nur die einzelne dGPU "besiegt" Nvidia, da die iGPU beim Spielen ja gar nicht verwendet wird. Und beim Videorendering oder ähnlichen latenz-unkritischen Prozessen können sogar beide Intel GPUs benutzt werden und in der Disziplin dürfte das so einige Nvidia Modelle ausstechen.

Schade, dass man iGPU und dGPU nicht so verbinden kann, dass man beide zum Spielen verwenden kann. Oder gibt es heute bereits Spiele, die eine Nvidia dGPU und eine Intel iGPU nutzen? Vielleicht für eine "Nebenaufgabe" wie das Berechnen von Menüs und Karten oder so?!
 
  • Gefällt mir
Reaktionen: Mcr-King
IM Erika schrieb:
Intel greift in den Dreikampf ein, jetzt wirds spannend!
Nö, jetzt wird noch gar nix spannend. Aber wenn Intel am Ball bleibt, könnte es mittelfristig spannend werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Hallo,
weiß jemand mit welcher älteren Nvidia GTX Desktop Karte kann man die hier beschriebene größte Intel Lösung von dee Leistung her vergleichen kann?
GTX 680?
 
Für mich ist erstaunlich wie ähnlich die Technik Intels zu der AMD Kombilösung, Ryzen 5000 und Radeons 6000, ist.
Zur ähnlichen Zeit.
 
  • Gefällt mir
Reaktionen: Mcr-King und Chismon
So eine gegenseitige (propriertaere) Verknuepfung von GPU mit CPU zwecks Leistungsoptimierung scheint nach der AMD/RTG RDNA2 Big Navi21 Vorstellung (mit dem Smart Access Leistungsbonus im Falle von ebenso genutzten Zen3 Vermeer Desktop-Prozessoren oder spaeteren Zen-Reihen Desktop-Prozessoren) wohl jetzt auch mit der Iris Xe Max bei Intel zu etablieren im Zusammenspiel mit Tiger Lake (nur im Notebook-/Mobil-GPU-Bereich vorerst).

Daraus koennte man ableiten, dass die Idee schon vor Raja Koduris Weggang von der RTG AMDs zu Intel existiert haben koennte und er eben fuer die Konkurrenz jetzt die Idee ebenso umsetzt.

Die einzigen, die mangels X86 Lizenz da vermutlich aussen vor bleiben sind nVidia und wie relevant/leistungstraechtig so eine Verknuepfung von CPU und GPU in Zukunft wird, wird man abwarten muessen.

Die Media-Encoder Leistung dieser Tiger Lake Iris Xe Max Combo-Loesung als auch der Deep Link Loesung (letztere deutlich eine RTX 2080 "Super" mit gerne gehyptem NVENC abhaengend) waere jedenfalls schon sehr beachtlich bis beeindruckend.

1604219153412.png


Da wird man bei nVidia dann wohl jetzt auch schauen, dass man die GPU-Technik besser/proprietaer mit der ARM-CPU-Architektur verknuepfen wird (wie Apple das vermutlich auch schon tun wird), zumindest ist das anzunehmen, denn die MX 350 GPU hat sowieso jetzt ausgedient (auch wenn es weiterhin Modelle damit und von Nachfolgemodellen geben wird, die i.d.R. aber eher wenig sinnvoll sind im sich immer mehr vergoldenen Zeitalter von APUs und nun auch solchen verknuepften propriertaeren Loesungen).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
v_ossi schrieb:
Ist fraglich, ob sich das für NVidia noch lohnt. Intel und AMD haben jetzt beide recht potente iGPUs im Angebot. Zudem wird Intel das auch finanziell attraktiv gestalten.

Kann mir durchaus vorstellen, dass man zukünftig nur noch das margenreichere High End Segment bedient.
Nvidia bietet ja den Xavier an mit 15-30W inklusive ARM CPU und 1,4 Tflops an Leistung, ermöglicht
durch eine schmale Volta GPU: https://en.wikipedia.org/wiki/Tegra#Xavier . So eine Mini Volta o.ä scheint
sich integriert oder dediziert zu einer Intel CPU nicht zu lohnen. Man erinnere sich mit Entsetzen an
diese unheilige Intel APU Kaby Lake-G 8706G von damals 🤢 Mit Tegra oder Xavier SoCs verdienen die
nicht nur besser, sondern Sie können das Produkt ohne Einschränkung nach eigenem Wunsch designen.

Intel scheint hier gezielt Boden gut machen zu wollen im Marktsegment, das Apple mit seinem Macbook
(Pro) bedient. Vermutlich war eine solche CPU/GPU Kombi ursprünglich für diese Geräte geplant, ist aber
zu spät fertig geworden. Erst CPUs mit bigLITTLE und jetzt GPUs mit Render-exklusivem-SLI. Wohin führts?
 
„Cloud-Zugriff“ mööp
 
  • Gefällt mir
Reaktionen: Mcr-King, PS828, Hellsfoul und eine weitere Person
Opa Hermie schrieb:
Diskrete GPU? Kann man damit endlich anonym verbotene Videos streamen? :D

Ich fand diese Beschreibung früher auch sehr seltsam bis ich rausfand dass es vom Lateinischem "trennen" kommt
und nicht von der französischen Ableitung ("verschwiegen/unauffällig").
Ergänzung ()

firejohn schrieb:
„Cloud-Zugriff“ mööp
Wieso? Die meistverbreitetesten Gaming-GPUs haben doch auch Cloudzugriff(Geforce Experience)?
 
  • Gefällt mir
Reaktionen: Mcr-King
Jetzt kommt Intel mit einer Art SLI / Hybrid Crossfire was die beiden anderen Parteien aufgegeben haben, weil es Schrott ist und bleibt.
 
AlphaKaninchen schrieb:
... haben will ich eigentlich 12 Zen 2 Kerne, 80 RDNA 2 Kerne, 32GB Unified HBM 2 RAM / L4 Cache oder etwas leistungsmässig vergleichbares...

Und dann 500 Watt TDP auf engstem Raum?
Ergänzung ()

Ghostshield schrieb:
... mit einer Art SLI / Hybrid Crossfire...

Aber anscheinend nicht im Gaming Bereich
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Na eventuell kann hier gesagt werden : Konkurrenz belebt das Geschäft...
 
  • Gefällt mir
Reaktionen: andi_sco
daivdon schrieb:
Wieso? Die meistverbreitetesten Gaming-GPUs haben doch auch Cloudzugriff(Geforce Experience)?

Nicht jeder GeForce Besitzer installiert/nutzt Experience.

Wenn es sich vermeiden lässt, verzichte ich gutmöglichst auf Cloud Dienste.

Dieses Always Online ist meiner Meinung nach nichts positives.
Hat generell auch LAN Partys getötet..
 
  • Gefällt mir
Reaktionen: BernmanHH, Rassnahr, Ralf74 und 2 andere
Das wird für nvidia evtl eine Recht schmerzhafte Sache, sollte Intel entsprechend wieder Rabatte geben beim Kauf von CPU + diskr. GPU. Ob und was die Wettbewerbswächter da machen, sei dahingestellt.

AMD tangiert das eher überhaupt nicht, weil sie zwar im Notebook Markt im kommen sind, aber ihre APUs entweder solo lassen oder ihre eigenen GPUs holen und nvidia evtl den Herstellern die diskr. GPU preislich schmackhafter machen muss.

Verlierer ist in dem Fall mit Sicherheit nvidia im Notebook Bereich, abgesehen von sündhaft teuren Gaming Laptops.
 
  • Gefällt mir
Reaktionen: v_ossi
Makso schrieb:
Bis jetzt nur Papier Lakes nicht mehr nicht weniger. Ich/wir brauchen jetzt nicht das AMD & Intel dessen Positionen tauschen. 50% 50% Marktanteil wäre super.

Ich wünsche mir das AMD und Intel sich gegenseitig puschen und anspornen besseres zu erfinden. Momentan sieht es aus das Intel den Anschluß verloren hat und AMD denen gewaltig in den Arsch tritt. Meiner Meinung nach war das schon lange fällig.
 
Zuletzt bearbeitet:
Zurück
Oben