Notiz GDC 2020: Intel will über Xe-Architektur sprechen

SV3N schrieb:
dass ich trotz meiner Tätigkeit als freier Redakteur hier im Forum klipp und klar meine Meinung sage, nicht einverstanden ist, dann finde ich das vollkommen legitim
Natürlich darfst du deine Meinung äußern wie du lustig bist.
Ich fands halt nur kurios weil ich deinen Kommentar deutlich abwertender aufgefasst habe, was sich aber als falsch heraustellte.

Genug von mir.
 
  • Gefällt mir
Reaktionen: iron-man, Mcr-King, schiz0 und eine weitere Person
@schiz0 ich darf gar nichts und genau darin liegt der Reiz! :D

Ich danke dir für deinen Support und habe deine Beiträge exakt so aufgefasst, wie du sie gemeint hast.

Danke mein Freund!

r4yn3 schrieb:
Ich fands halt nur kurios weil ich deinen Kommentar deutlich abwertender aufgefasst habe, was sich aber als falsch heraustellte.

Und genau deshalb bin ich froh, dass du deine Meinung gesagt hast und wir beide das ausdiskutiert haben. Niemand kann erwarten, dass du meine Posting pro Intel-GPUs gelesen hast. Ich finde es richtig, dass du deinen Standpunkt vertreten hast und ich bin davon überzeugt, wir beide wissen nun, wie der jeweils andere seine Aussage gemeint hat. Genau darum geht es in Foren [oder sollte es gehen].

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man, konkretor und schiz0
Ist doch klar das intel den Gpu Markt betreten muss. Man ist doch bei Compute Cards seit Larrabee tot ist (das war die komische x86 karte) trotzdem was im Portfolio haben. Da ist Xe nur die logische Konsequenz.
 
  • Gefällt mir
Reaktionen: Mcr-King
SV3N schrieb:
Ich glaube wohl kaum, dass Intel den Markt für dedizierte GPUs betritt, um eine Low-Res-/Low-Detail-GPU anzubieten.
ich glaube genau das ist das ziel gewesen. gpu für notebooks um die mx200, rx550 bis zur 1050 herum zu ersetzen. einerseits für leute die auf der verpackung lesen "mit leistungsstarker dedizierter neuer intel xe gpu" und andererseits für leute, die zwischendurch esports titel spielen. notebooks mit dedizierter low end gpu werden in hohen stückzahlen verkauft und darauf zielt intel ab. die können dann cpu und gpu im bundle mit rabatten verkaufen und so low end nvidia und amd karten aus diesem markt drängen. wer da desktop gpus erwartet, die mit rx 5700 und abwärts konkurrieren wird noch lange warten müssen. darauf ist die architektur wahrscheinlich auch nicht ausgelegt, sondern auf hohe effizienz im notebook. ggf skaliert die gpu auch nicht so gut und die entsprechenden karten kommen gar nicht

was mich interessiert: sobald eine xe dg1 im notebook arbeitet, liegt die leistung der integrierten gpu brach. wenn man intel glauben schenkt und die integrierte xe im tigerlake die doppelte leistung der bisherigen integrierten grafikkarten bietet, ist die nicht genutzte leistung beachtlich. könnte man die leistung, da beide auf derselben architektur aufgebaut sind, nicht bündeln, bzw ist das physikalisch überhaupt möglich. also wirkt sich der örtliche abstand auf dem package sehr negativ auf latenzen aus? wäre auch für amd navi ab nächster apu generation interessant
 
  • Gefällt mir
Reaktionen: Mcr-King und directNix
Rikimaru schrieb:
was mich interessiert: sobald eine xe dg1 im notebook arbeitet, liegt die leistung der integrierten gpu brach. wenn man intel glauben schenkt und die integrierte Xe im tigerlake die doppelte leistung der bisherigen integrierten grafikkarten bietet, ist die nicht genutzte leistung beachtlich. könnte man die leistung, da beide auf derselben architektur aufgebaut sind, nicht bündeln, bzw ist das physikalisch überhaupt möglich. also wirkt sich der örtliche abstand auf dem package sehr negativ auf latenzen aus? wäre auch für amd navi ab nächster apu generation interessant
IMO wird DG1 so sowieso nicht für den Endanwender auf den Markt kommen, sondern lediglich als Entwicklerkarte dienen. Und wenn doch, dann gäbe es kaum Anlass, die zusätzlich in einen TGL Laptop einzubauen. Denn wie du schon sagst, soll sie die gleiche Leistung bieten.
Xe zielt eigentlich darauf ab Resourcen zu bündeln, insofern sollten auch 2 ähnlich starke GPUs damit "bündelbar" sein. Es ist allerdings fraglich, ob die anderen APIs, wie Direct-X damit umgehen können. Denn normalerweise steht unter DX12 mGPU zur Verfügung (bereitzustellen vom Spiele-, bzw. Programmhersteller, und unter DX11 ist SLI bzw. Crossfire praktisch tot. AFAIK bietet aber Vulkan immer noch die Möglichkeit GPUs zu bündeln. (korrigiert mich)
 
  • Gefällt mir
Reaktionen: Mcr-King, tunichgut und SVΞN
sollen ... signifikante Verbesserungen im Vergleich zu Gen9- und Gen11-Grafiklösungen bieten.
Das fällt dan wohl in die Kategorie "Unter den Blinden ist der Einäugige König", sonst hätte man wohl eher die Konkurrenz erwähnt.
 
  • Gefällt mir
Reaktionen: Tzk, Mcr-King und tunichgut
Ich erwarte erstmal nix vom blauen Riesen , einfach mal abwarten und Getränk der Wahl trinken.
Grundsätzlich bin ich für einen 3.Player , vllt dauert es noch 2-3Jahre bis was brauchbares bei rumkommt.
Aber ich bin leider skeptisch.
 
Venerell finde ich es seht gut wenn ein Redakteur den Artikel schön neutral und sachlich formuliert und seine eigene Meinung dann entweder in einem gesonderten Absatz oder als Kommi unter dem Artikel ausführt.

Der gute @SV3N macht das schon top, keine Frage. Finde sowieso gut das er nun dauerhaft Artikel und Notizen für CB schreibt, als sinnvolle Ergänzung zu den anderen Redakteuren :) /honig ums maul schmier ende :D
 
  • Gefällt mir
Reaktionen: Mcr-King
@r4yn3 Nur um meinen Senf dazuzugeben: Warum sollte sich meinetwegen nVidia auf der CES ins eigene Bein schießen und von tollen neuen Produkten oder Technologien erzählen? Es ist recht klar, dass Raytracing das große Thema bleiben wird und mit viel zu frühen Infos und Details zu Nachfolgeprodukten macht man sich am ehesten die aktuellen Geschäfte kaputt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Also wird Intel quasi nicht der kolportierte Heilsbringer für den grauenhaften GPU Markt. Muss man auch Mal festhalten, da gab's schon ne große Hoffnungs-Fraktion (inkl. mir).
 
  • Gefällt mir
Reaktionen: Mcr-King und Cpt.Willard
mal schauen was da kommt, bei Intel Produkten ist oft der Preis das Problem bzw. das dieser nicht der Leistung entspricht :(
aber mal abwarten...
 
  • Gefällt mir
Reaktionen: Mcr-King
SV3N schrieb:
.... zum anderen stellst du meine Meinung ohne Kontext dar ...

Tja, das ist leider der Zeitgeist.
Alles so hindrehen- / manipulieren, dass es einem in den Kram passt. :kotz:

Macht es mittlerweile vielfach einfach zwecklos, in Diskussionen einzusteigen.
 
  • Gefällt mir
Reaktionen: iron-man und Mcr-King
simosh schrieb:
da gab's schon ne große Hoffnungs-Fraktion
Das konnte ich nie verstehen. Warum sollte man Hoffnung haben das Intel auf einmal den GPU-Markt umkrempelt? Sie waren mit Ausnahme von C2D & Sandy-Bridge nie dafür bekannt kundenfreundliche Produkte mit guter Preis-Leistung anzubieten. Außerdem sollte man die die Patentprobleme bei den GPU Architekturen nicht unterschätzen. Einfach mal so Dinge von NVIDIA oder AMD kopieren wird es nicht spielen und selbst wenn sie etwas komplett neu entwickeln, müssen sie prüfen ob sie damit keine Patente verletzen.
Ob ihre bestehende GPU Architektur so super skalierbar ist muss sich auch noch beweisen.

Den schlechten Trackrecord was neue Produktesparten angeht sollte man auch nicht vergessen. Intel setzt da trotz Geld wie Heu genug in den Sand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh
Intel setzt da trotz Geld wie Heu genug in den Sand
Möglicherweise setzt Intel viel Geld in den Sand WEIL viel Geld da ist. Hat man wenig, geht man in der Regel effizienter damit um.
Dennoch hat es auch Vorteile wenn man die Leute einfach mal machen lässt. 9 von 10 Dinge klappen vielleicht nicht, aber wenn mal was hinhaut, dann kann es auch was großes werden!

Und ja, auch ich warte seit langem auf was brauchbares im Graka Sektor von Intel! Diese Ankündigung ist meiner Meinung nach lächerlich.
Unfaßbar das AMD in den Bereichen obere Mittelklasse bis High-End absolut nichts brauchbares aufbieten kann - seit Jahren!
Und auch wenn verständlich dank fehlendem Wettbewerb, die Preise für die nVidia Grakas in diesen Bereichen sind eine Unverschämtheit.
Ein Glück das ich quasi die Lust am gamen fast vollständig verloren habe und deshalb nicht unter Druck stehe jetzt was neues kaufen zu müssen.
 
Salutos schrieb:
Man darf sich schon fragen weshalb Intel die Informationen von März nicht bereits zur CES liefern konnte/wollte.

Weil erstens die GDC viel besser dazu passt, schon die Gen11 wurde letztes Jahr dort vorgestellt, und zweitens die GDC 2 Monate näher am launch liegt. Das ist mehr als logisch.
 
mkl1 schrieb:
Weil erstens die GDC viel besser dazu passt
Warum sollte eine Office Grafikkarte besser auf die Game Developer Conference passen? Zum Spielen ist die Karte eh zu schwach. Die Leistung bekommt jeder heute schon von NVIDIA oder AMD.
Man kann nur hoffen das sie mit anderen Features wie Codecs punkten können. Sonst macht das alles keine Sinn.
 
Steini1990 schrieb:
Warum sollte eine Office Grafikkarte besser auf die Game Developer Conference passen?


Es geht um die Architektur an sich. Die skaliert von der iGPU, zur low end Karte bis in den HPC Bereich. Es gibt Xe LP, Xe HP, Xe HPC. Das ist keine TGL oder DG1 Vorstellung, sondern eine Xe Vorstellung. So richtig verstehst du das nicht.
 
Steini1990 schrieb:
Warum sollte eine Office Grafikkarte besser auf die Game Developer Conference passen? Zum Spielen ist die Karte eh zu schwach. Die Leistung bekommt jeder heute schon von NVIDIA oder AMD.

Die vorgestellte Karte ist aber auch in der Form kaum für Spieler gedacht.
Unfortunately there’s not much I can tell you about the DG1 GPU or the card itself. The purpose of this unveil is to show that DG1 is here and it works; and little else. So Intel isn’t disclosing anything about the architecture, the chip, power requirements, performance, launch date, etc. All I know for sure on the GPU side of matters is that DG1 is based on what Intel is calling their Xe-LP (low power) microarchitecture, which is the same microarchitecture that is being used for Tiger Lake’s Xe-based iGPU. This is distinct from Xe-HP and Xe-HPC, which according to Intel are separate (but apparently similar) microarchitectures that are more optimized for workstations, servers, and the like.
https://www.anandtech.com/show/15364/intels-dg1-discrete-xe-gpu-working-teased-at-ces-2020

Demonstriert auf der Messe wurde der Chip übrigens im Notebook.
1579256162359.png


Man kann sich jetzt darüber lustig machen wie man will, aber mich würde es nicht wundern wenn der Chip letztlich nie in der Form auf einer GPU Karte landet!

Wieso also das ganze?

Es ist ein Entwicklerkit! Die Entwickler sollen die Möglichkeit haben die Lösung in beliebigen Geräten zu testen, sich mit den Features vertraut machen und die Kompatibilität überprüfen. In welcher Form und Leistung die jeweiligen Chips später auf den Markt kommen, ist an dieser Stelle noch nicht relevant.
 
  • Gefällt mir
Reaktionen: SVΞN und yummycandy
xexex schrieb:
Es ist ein Entwicklerkit! Die Entwickler sollen die Möglichkeit haben die Lösung in beliebigen Geräten zu testen, sich mit den Features vertraut machen und die Kompatibilität überprüfen. In welcher Form und Leistung die jeweiligen Chips später auf den Markt kommen, ist an dieser Stelle noch nicht relevant.
Und auf der GDC sollen eben die Spielentwickler mit der Architektur vertraut gemacht werden. Deshalb auch die Kritik über den Auftritt bei der CES.
 
Zurück
Oben