Notiz Xe HPG: Intels Gaming-Grafikkarte läuft im Labor

Bei der Leistung würde ich die Hoffnungen erstmal nicht allzu hoch schrauben. Wenn Intel längeren Atem zeigt als bei den letzten dGPU-Versuchen, kommen sie vielleicht mit einer ihrer nächsten Generationen an die High End-Modelle von AMD und Nvidia heran. Beim ersten Anlauf wird das sicher nicht klappen.

Wenn allerdings moderne Features an Bord sind (z.B. AV1-Beschleunigung, HDMI 2.1 inklusive VRR und Co. usw.), dann könnten es trotzdem interessante Karten für Mittelklasse und Low End werden.
 
  • Gefällt mir
Reaktionen: Zibbe, uli_2112 und Schaengel99
Sagen wir mal die neuen Grakas von Intel haben die Leistung einer 1070 GTX wenn diese dann einen Preis haben die der 1070 endspricht (alter Preis) warum nicht zuschlagen mir ist es doch egal ob ich eine Graka habe die Benchmark mäßig durch die Decke geht oder nicht wenn der Preis stimmt ist doch alles in Ordnung
 
  • Gefällt mir
Reaktionen: Sennox
@Zibbe du möchtest also für die Leistung einer Karte von vor fast 5 Jahren zu ihrem Preis von vor fast 5 Jahren kaufen?

Interessant. Damit wäre man PL technisch Sogar noch schlechter als Nvidia und AMD heute :D
 
  • Gefällt mir
Reaktionen: Col. Jessep und stevefrogs
Ich hoffe ja, bis dahin bekommen die die Treiber hin. Bei der DG1 soll es ja nicht so gut laufen - abgesehen von der Tatsache, dass es wohl zwingend einer Intel-Plattform zu bedürfen scheint und die Displayausgänge noch nicht richtig funktionieren, weshalb die Bildausgabe per iGPU erfolgen muss...
 
PS828@ das war nur ein gedachtes Beispiel nicht unbeding das was ich mir Wünsche und mit alter Preis ist nicht der Einstiegspreis der GTX 1070 Gemeint sondern der geglättete Preis der Später kam. Und wenn Intel es nicht schafft eine Graka zu Bauen die der RTX 3080 endspräche warum soll Intel nicht eine Graka Bauen die Genug Leistung hat allgemein zu spielen das war gemeint
 
  • Gefällt mir
Reaktionen: Sennox
DonConto schrieb:
Schönes Beispiel dafür, wie eine KI arbeitet und wie sie mir in Spielen NICHT hilft. Die Frage ist ja, wieso sollte eine GPU eine KI Einheit (was ist das überhaupt?) besitzen. Im Spiel erlebe ich eine Situation genau 1x. Was soll da eine KI machen? Antwort: Nix. Du kannst als Entwickler vielleicht verschiedene Situationen x-mal durchlaufen um deine Algorithmen zu trainieren (nichts anderes versteht man unter KI). Dazu brauche ich aber keine KI auf meiner GPU.

Ich hatte dich so verstanden, dass du KI auf der GPU, die in meinem Rechner steht, haben willst. Die Frage ist also was sie da machen soll? 1000x zwei Wassertropfen zusammenstoßen lassen?
Nee. Der Punkt von Berechnungen per neuronalem Netz ist eben, dass du nicht mehr 1000 Wassertropfen berechnen musst, wie bei der bisherigen Methode.

Ich glaube du Unterschätz das Potzenzial der moderner GPUs auch ein wenig. Da wird ja bei weitem nicht mehr nur Grafik drauf berechnet. Ein Großteil der Leistung wird mittlerweile für Compute Operationen unterschiedlichster Art verwendet.
Du kannst auf der GPU quasi alles berechnen was du willst und die CPU kann anschließend auch auf Ergebnisse im VRAM zugreifen um sie in der Gameengine zu nutzen. Der Hype um Smart Access Memory ist ja nicht umsonst so groß.

Den Größten Vorteil von neuronalen Netzen sehe ich aber überall dort, wo es um Interpolation geht.

Das fängt bei DLSS an, wo die Auflösung der Grafik anhand von mehreren vorher berechneten Bildern interpoliert und heraufskaliert wird.

Ebenso ließe sich die Framerate interpolieren und aus 60 fps 120 fps machen indem man Zwischenbilder generiert. Das wäre besonders für VR sehr wichtig. Stichwort: Asynchronous Reprojection.

Das man Animationen wunderbar interpolieren kann hat Ubisoft in dem Beispiel gezeigt, dass ich in meinem ersten Beitrag geposted habe.

Interpolation ist quasi die Paradedisziplin neuronaler Netze. Gib dem Netz zwei Zustände und frag es, wie wie die Zwischenzustände aussehen würden. Dafür sind die perfekt.

Wir sollten hier übrigens auch aufhören von KI zu sprechen, sondern sollten es neuronale Netze nennen.
Damit wird vielleicht etwas klarer, wofür man die Hardware in der GPU tatsächlich nutzen kann.
Wie wir wissen kann das auch wunderbar zur Rauschunterdrückung und ähnlichen Dingen genutzt werden.
Sowas fällt schwer unter den Begriff KI. Und genau wie bei der Rauschunterdrückung im Audiobereich kann all das natürlich auch super zu diversen Bildbearbeitungs- und Grafikberechnungen genutzt werden.

Ich sehe da also unendlich viele Möglichkeiten wie neuronale Netze (KI) in Computerspielen genutzt werden kann, selbst wenn du es auf den Grafikbereich beschränken würdest.

Von daher hoffe ich sehr, dass die KI Kerne, die in allen anderen Versionen des Xe Chips enthalten sind, beim HPG Chip nicht entfernt werden. Ich meine jedenfalls mal sowas gelesen haben, dass man die dort eventuell nicht für nötig hält und die Transistoren lieber für Shader nutzt. Das kann ich zwar auch verstehen, fände ich aber dennoch schade.
 
noxon schrieb:
Nee. Der Punkt von Berechnungen per neuronalem Netz ist eben, dass du nicht mehr 1000 Wassertropfen berechnen musst, wie bei der bisherigen Methode.

Genau das aber ist der Hintergrund von dem Begriff KI. Den du übrigens ins Spiel gebracht hast.

Ich glaube du Unterschätz das Potzenzial der moderner GPUs auch ein wenig.

Nö, für mich ist der Begriff KI total überbewertet. Das ist nämlich nix besonderes. Der Trick an KI ist die Millionen von Daten sinnvoll (!) auszuwerten und geeignete Schlüsse daraus zu ziehen. Sonst nix. KI gehört also eher auf die Bullshit Bingo Liste zusammen mit Blockchain.
 
  • Gefällt mir
Reaktionen: Tzk
@DonConto Naja, aber das wird nunmal als KI bezeichnet.
Was deine Definition davon ist spielt hier ehrlich gesagt keine Rolle.
KI ist im Grunde genommen sogar schon viel simpler definiert. Selbst die Lemming in Lemmings enhalten eine KI auch wenn sie nur von links nach rechts laufen.
Mit dem Level der Komplexität hat der Begriff nichts zu tun. Die Intelligenz muss nicht generalisiert oder Menschenähnlich sein um als KI bezeichnet werden zu können.

Im Übrigen sind auch wir nichts anderes als Rechner die Millionen von Daten sinnvoll auswerten. So beachtlich ist das dann also auch nicht, wenn du das als Maßstab nimmst.
 
noxon schrieb:
Im Übrigen sind auch wir nichts anderes als Rechner die Millionen von Daten sinnvoll auswerten. So beachtlich ist das dann also auch nicht, wenn du das als Maßstab nimmst.

Alles klar. Ich drück dir die Daumen für deine KI Unit. :rolleyes:
 
Irgendwie find ich die momentane Situation gar nicht so schlecht. Lieber zu wenig und Bedarf ist da, statt Marktüberflutung und somit Ressourcenverschwendung.
Mir ist außerdem bewusst dass ich für diesen Kommentar verflucht werde ;)
 
Bei der aktuellen Situation wäre sogar eine Intel Xe HPG mit Leistung einer 1070 für 250€ ein Verkaufsschlager.
 
Hauptsache es kommen mehr Karten auf den Markt... Laut TYC baut NV nun sogar wieder 1050ti um für den Einstiegsbereich Karten verfügbar zu machen. Dank GDDR5 gibt es da dann auch keine Verfügbarkeitsprobleme beim Speicher und die Miner machen um die Karten einen Bogen :) Besser als nichts...
 
Raptor85 schrieb:
Ja. Und diese DG1 konnte ja noch nicht mal an den eigenen Ports eine Bildschirm ordentlich betreiben, sodass das nur durchgeschliffen über die integrierte GPU in der CPU ging. Und das natürlich auch nur auf einem speziellen Mainboard.

Das Teil konnte praktisch gar nichts, außer dass es nicht heiß lief und einigermaßen leise war.

Also wenn DAS das Ergebnis einer Karte ist, die seit einem Jahr Entwicklern zur Verfügung steht, dann hat Intel noch einen sehr langen Weg vor sich, bis GPU und v. a. Treiber laufen und auch für Spieler interessant werden.

Die DG1 kann man überhaupt nicht mit der DG2 vergleichen. Die DG1 ist eine Tigerlake iGPU, die notdürftig auf eine separate Karte gebracht wurde. Im übrigen konnte Igor nicht einmal die Treiberversion mitteilen, deswegen ist das auch ziemlich wertlos. Die DG1 wird überhaupt erst seit dem letzten oder vorletzten Treiber offiziell unterstützt, die mobile DG1 wohlgemerkt. Die dedizierte DG1 Karte offiziell noch gar nicht. Wenn ein Tester nichtmal die Treiberversion verraten kann, legt er darauf keinen wert und dann ist das ganze ziemlich wertlos.
Ergänzung ()

Naesh schrieb:
Das wird doch sowieso nur eine Low End Karte.

Ich denke da wird so ca. die gtx 960 oder 970 erreicht.

Für leichte Spiele in FullHD.

Lass mich nachsehen....die GTX 970 kommt auf 4 Tflop und basiert auf der alten Maxwell Architektur. Eine 512 EU Version von Xe HPG mit 1,5 Ghz würde auf 12 Tflop kommen, bei 2000 Mhz sind es 16 Tflop. Jetzt kann sich jeder selber ausmalen, ob das eine gute Einschätzung war.
Ergänzung ()

Botcruscher schrieb:
Im Labor von Intel...wtf. Das Ding kommt realistisch also in 1,5 Jahren.


Was ist daran wtf? Meinst Du die Partner haben voll funktionstüchtige Karten 1,5 Jahre vor der Marktverfügbarkeit? Normalerweise dauerte es vom tapeout bis zur Markteinführung ein Jahr. Es ist völlig normal, dass Hardware zuerst im Labor getestet wird. Wenn die Partner 4-6 Monate vorher Testsamples bekommen, ist das auch noch ok. Du hast falsche Vorstellungen vom Zeitrahmen.
 
  • Gefällt mir
Reaktionen: Sennox, Evil_Owl und konkretor
cypeak schrieb:
wer kennt z.b. noch "powervr3 kryo II"? die haben seinerzeit der geforce2 und ati radeon durchaus paroli geboten auch wenn sie kein hardware t&l konnten (was am ende den untergang besiegelte), aber die probleme und damit das schlechte image der chips kam vor allem durch treiber...

Gewagtes Beispiel hier die Kyro Serie zu nennen, welche nur PowerVR Lizenzbauten waren, von nem Hersteller der sich dachte ich probiere mich mal im Grafikkarten Geschäft.

Intel hat da schon deutlich mehr auf dem Kasten durch die jahrelange Erfahrung mit ihren iGPUs.

Nur weil irgend ein engineering sample nicht richtig läuft heißt das nicht das am Ende nichts dabei raus kommt. Gebe da nicht allzuviel auf den Test bei Igor.

Für den Einstieg Karten im Bereich von ner GeForce GTX 1650 / RX 570 wäre mal ein guter Anfang. Mehr würde ich auch erst mal nicht erwarten.
 
mkl1 schrieb:
Wenn ein Tester nichtmal die Treiberversion verraten kann, legt er darauf keinen wert und dann ist das ganze ziemlich wertlos.
Oder nicht verraten will. Ich fand seinen artikel aber auch sehr reißerisch geschrieben.

Insgesamt stelle ich mir auch die frage ob die dg1 derzeit absichtlich nur auf wenigen systemen läuft und ob die ausgabe via igpu einfach bedingt durch den entwicklungsstand des treibers erfolgen muss.

Ist ja noch immer ein entwicklungskit und keine fertige karte...
 
  • Gefällt mir
Reaktionen: Sennox
Evil_Owl schrieb:
Für den Einstieg Karten im Bereich von ner GeForce GTX 1650 / RX 570 wäre mal ein guter Anfang. Mehr würde ich auch erst mal nicht erwarten.


Das ist doch Quark. Wenn sie mit einer 512 EU Version und ca 10 Tflop nur an eine 4GB GTX1650 mit ca 3 Tflop rankommen, brauchen sie erst gar nicht antreten. Das als guter Anfang zu bezeichnen ist schon ein Witz für sich.

@Tzk, ja aber wo ist das Problem, die Grafiktreiberversion zu verraten? Für die Transparenz darf die nie fehlen. Oder wäre dann zum Vorschein gekommen, das sein Test keine Aussagekraft hat? Die Treiberversion von der Skylake iGPU im Test war ja auch veraltet.
 
  • Gefällt mir
Reaktionen: Tzk und Sennox
Evil_Owl schrieb:
Für den Einstieg Karten im Bereich von ner GeForce GTX 1650 / RX 570 wäre mal ein guter Anfang. Mehr würde ich auch erst mal nicht erwarten.

je nachdem wann intel gedenkt auf den markt zu kommen, müssen sie schon konkurenzfähig sein zu den einstiegs und möglichst auch mainstream lösungen; wenn sie noch keine enthusiasten oder perfromance ebene attackieren können, wird man das durchaus verzeihen.
aber trotzdem muss man dann auch in diesem einstiegsbereich ein attraktives paket anbeiten welches auch halbwegs problemlos läuft; gerade die einsteiger die für grafikkarten selten und wenig geld in die hand nehmen, verzeihen treiberprobleme nur schwer...
 
  • Gefällt mir
Reaktionen: uli_2112
Steini1990 schrieb:
... Intel bald ihre Karten auf den Markt bringen würden, dann würde sie sich extrem gut verkaufen. Einfach deshalb weil sie verfügbar wären. Derzeit gibt es ja keine anderen relevanten Punkte die bei einem Grafikkartenkauf wirklich wichtig sind.
Im Prinzip richtig, aber wenn die GPUs sich halbwegs gut zum Krypto-Mining eignen sollten (Sammlerwert haben diese ohnehin), dann dürften auch diese Xe HPG Modelle schnell vergriffen oder kaum erhältlich sein ;).

Angeblich soll mit diesen auch eher Leistung im RTX 3060(Ti) Bereich angestrebt werden und keine Asbach-Uralt GTX 960/970 Leistung wie hier im Thread angedeutet/spekuliert (so genau weiss das ausserhalb von Intel aber natürlich auch keiner ;) ).
 
Zurück
Oben