News Diskrete Intel-Grafik DG1: Iris Xe Max mit 96 EUs und 4 GByte LPDDR4X bei 25 Watt

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
  • Gefällt mir
Reaktionen: flo.murr, Mr.Seymour Buds, BrollyLSSJ und 15 andere
Naja, bin mal auf die Benchmarks gespannt.
 
  • Gefällt mir
Reaktionen: aid0nex, C4rp3di3m, R4fiqi und eine weitere Person
Meine Güte, der Chip macht ja mal so richtig Sinn... Scheinen ja nur Spezial-Anwendungen zu sein, ansonsten ziemlicher Quatsch, falls ich da nicht was missverstanden habe.
 
  • Gefällt mir
Reaktionen: Maxxx800, dersuperpro1337, Buchstabe_A und 10 andere
Auf diese Folien sollte Leonidas mal schauen. Das ist Unseriös. Nirgends Settings und unterschiedliche Powerbudgets.....

Diese Intelfolien haben leider 0 Aussagekraft :/
 
  • Gefällt mir
Reaktionen: SteeL1942, simosh, Buchstabe_A und 38 andere
Der Anfang vom Ende, von Nvidias unnützen und überteuerten MX-Gpus. Das Imperium schlägt endlich zurück. :D
 
  • Gefällt mir
Reaktionen: Edzard, flo.murr, FX-Multimedia und 23 andere
Nichts anderes war zunächst angekündigt als sich einige hier wieder den dritten Bewerber für die GPU Krone vorgestellt haben. Das hat man jetzt davon :D

Die DG2 braucht noch ein bisschen und liegt dann wohl im Bereich Turing Mittelklasse. Hier habt ihr es zuerst gehört :daumen:

Warum ich das Denke? Intel Sprach vor einiger Zeit von einer Karte (da waren RDNA2 und Ampere noch nicht draußen) die mit einer aktuellen Mittelklasse Karte mithalten können wird.

Nur kommt sie halt 1,5 Jahre später :D


Ich denke schon dass sich Intel in bestimmten Bereichen einen Platz erkämpfen wird aber dass sie ganz oben in den nächsten paar Jahren mitspielen glaube ich nicht
 
  • Gefällt mir
Reaktionen: moRphh, Mulciber, Rockstar85 und 2 andere
Strahltriebwerk schrieb:
Der Anfang vom Ende, von Nvidias unnützen und überteuerten MX-Gpus. Das Imperium schlägt endlich zurück. :D
Glaub ich nicht aber Nvidia wird in diesem Segment mehr Gas geben müssen, ich glaube es wird immer Nvidia GPUs geben die knapp über den iGPUs rangieren.
 
  • Gefällt mir
Reaktionen: fox40phil, icetom und CaptainCrazy
@Volker Verstehe ich das richtig, die Notebooks haben zwangsläufig immer ne TDP von 28 (CPU) + 25 (GPU) Watt?

Das dürfte für 13 Zoll Ultrabooks schon ne Herausforderung sein.

Prinzipiell stehe ich dem recht offen gegenüber und würde bei höherer TDP und damit mehr Takt sowie eigenem VRAM auch ne deutlich höhere Leistung, als bei der IGPU erwarten, aber so richtig logisch erscheint mir das auf den ersten Blick nicht.

Da würde ich eher einen Tiger Lake mit 40 Watt und VRAM auf dem Package erwarten. Aber vlt. ist das auch die erste 'halbwegs funktionierende Chiplet GPU'.

Da wäre ich sehr an Benchmarks interessiert.

MrNejo schrieb:
Glaub ich nicht aber Nvidia wird in diesem Segment mehr Gas geben müssen

Ist fraglich, ob sich das für NVidia noch lohnt. Intel und AMD haben jetzt beide recht potente iGPUs im Angebot. Zudem wird Intel das auch finanziell attraktiv gestalten.

Kann mir durchaus vorstellen, dass man zukünftig nur noch das margenreichere High End Segment bedient.
 
  • Gefällt mir
Reaktionen: Mcr-King
Was für Latenzen sind denn gemeint? Die vom LPDDR4x? Die Leistungswerte sehen schwach aus, wenn man bedenkt, das die Iris Max 300 Mhz höher taktet oder takten kann und über ein eigenes power budget verfügt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Eine diskrete Grafik auf dem Niveau der integrierten Grafik von Intel für das Notebooksegment, wo eh eine iGPU drin ist? :freak:
 
  • Gefällt mir
Reaktionen: mastakilla91, 24601, Taxxor und 46 andere
Die sollen mal diese auf dem Markt bringen damit CB & NBC mal diese richtig testen kann. Und dann sehen wir weiter wie was wann wo!
Bis jetzt nur Papier Lakes nicht mehr nicht weniger. Ich/wir brauchen jetzt nicht das AMD & Intel dessen Positionen tauschen. 50% 50% Marktanteil wäre super.
 
  • Gefällt mir
Reaktionen: Mcr-King, Benji18 und miagi
Der Grafiktreiber soll diese jedoch intelligent und über Cloud-Zugriff erkennen und dann je nach Bedarf die Xe Max auch einfach mal ausschalten.

Verstehe ich das richtig, nur in Verbindung mit dem Cloud-Zugriff ist der Treiber wirklich intelligent?
 
  • Gefällt mir
Reaktionen: stormi, telejunky, Gringoli und 3 andere
Kurze Frage. Aber ist das nicht einfach nur ein Tiger Lake auf einem PCB, LPDDR4 Speicher und deaktiverter CPU?

Oder sprechen wir da wirklich von eine reinen GPU Chip? Wenn man nämlich das Werbebild anschaut, sehen die Chips von der Optik gleich groß aus.
 
  • Gefällt mir
Reaktionen: alex0712, simosh, Nitschi66 und 2 andere
pipip schrieb:
Oder sprechen wir da wirklich von eine reinen GPU Chip? Wenn man nämlich das Werbebild anschaut, sehen die Chips von der Optik gleich groß aus.
Ist ein dedizierter Chip.
 
hm, jetzt eine 6800 kaufen oder auf intel 2021 warten? :daumen:
 
  • Gefällt mir
Reaktionen: Edzard, simosh, Holindarn und 10 andere
Wozu als dGPU, wenn das Ding trotz allein +300MHz gegenüber der iGPU teilweise langsamer ist? Hätte man sich dann auch gleich sparen können. Auf den ersten Blick ziemlich deplatziert.
 
  • Gefällt mir
Reaktionen: dersuperpro1337, Pjack und USB-Kabeljau
Könnte ein netter Ersatz für die überteuerte GT1030 werden
 
  • Gefällt mir
Reaktionen: DrSeltsam95, Mcr-King, Gtlng und 3 andere
Ich gebe zu, wir sind derzeit im Grafikkartenbereich etwas überhäuft worden mit hoch erregenden Sinnesreizen :D Aber dass Intel einen Grafikchip vorstellt, der es bei 25 Watt TDP schafft, gerade so eine im Speicherbus auf 64 Bit verkrüppelte GeForce GTX 1050 zu schlagen, ist für mich im Jahre 2020 nicht gerade der Auslöser eines "Wow!"-Moments ^^

Sorry Intel but you have to try much harder!
 
  • Gefällt mir
Reaktionen: dersuperpro1337, Celinna, Lutscher und 6 andere
Zurück
Oben