Notiz Intel DG1 SDV: Erste Samples von Intels diskreter GPU für Entwickler

Ich bin gespannt. Für kleine günstige GPUs (unter 100€) ist, denke ich, noch durchaus Platz im Markt. AMD hat da ja bis auf die RX550 nichts einigermaßen aktuelles anzubieten. Bei nVidia sieht es ähnlich aus: nur die einigermaßen aktuelle GT-1030 wildert in diesem Bereich. Alle anderen Produkte sind im Preisbereich bis 100€ hoffnungslos veraltet. Vielleicht schafft es Intel sich in diesem Preisbereich, mit diesem Modell, einen guten Platz zu sichern.

Was dann noch kommt, kann man jetzt noch nicht voraussehen. Kann mir aber vorstellen das Intel bis Ende 2020 von 80€ bis 200€ diverse Modelle anbieten könnte. Die höheren Leistungsklassen halte ich in 2020 für utopisch.
 
  • Gefällt mir
Reaktionen: just_fre@kin
Bin echt schon gespannt was da in den nächsten Monaten von Intel kommt. Im OEM Segment wird Intel auch 2020 dank der vielen Partnerprogramme unangefochtener Marktführer bleiben. Dass das Enthusiastensegment aufgrund der kleinen Marktanteile als letztes bedient wird war irgendwie schon abzusehen.
Apple scheint man dieses Jahr zum Großteil an ARM zu verlieren. Microsoft/Samsung haben ja ebenfalls schon erste Arm basierte Geräte rausgebracht. Ob sich Windows on Arm durchsetzen wird ist aber eher stark zu bezweifeln. Im Konsolensegment konnte man noch nie mit AMD/NVidia konkurrieren.. Im, kleinen, Enthusiastensegment verliert man zusehends Marktanteile an AMD.
Am meisten Sorgen sollte man sich aber um Nvidia machen. Versuche Standards wie RTX und Gsync zu etablieren sind kläglich gescheitert; der Stand PC Markt ist seit Jahren rückläufig. Dort wo im Notebooksektor mit kleinen diskreten Grafikkarten aktuell Mengen gemacht werden, wird Intel mit dem DG Programm voll einschlagen.
 
Ich glaube wer auf Preiskampf bei dGPUs hofft ist ein paar Jahre zu früh dran oder vergisst dass es Intel finanziell aktuell viel zu gut Geht als dass sie mit Preisbrechern in den Markt drücken. Die werden von Anfang an stattliche Preise haben.

Aber wenn es tatsächlich so kommt und im unwahrscheinlichsten Fall Nvidia und AMD fusionieren (und damit alle Kartellbehörden weltweit geschlafen haben) käme für diesen Konzern von allem das beste zusammen und hätte Konsolen SoCs aus der Hölle zur Folge :D

Aber ist nur ein Gedankenspiel. Die jetzt vorgestellte Karte hat eine sehr ähnliche TDP wie die iGPU von Tiger Lake (so klingt es zumindest) und erstmal ein herantasten. Die großen Lösungen bekommen wir evtl außerhalb vom HPC nicht zu sehen.

Und selbst so ein kleines Ding mit modernen Codecs bis 8k ist ne feine Sache wenn man einen Ryzen hat und keine gpu Power braucht außer für grundlegende Sachen.
 
Ich persönlich habe den Glauben an Intel verloren. Nachdem AMD nicht mehr hinterher kam, haben auch die sich mächtig hängen lassen. Wenn ich jetzt mal nur an die mangelnde Unterstützung für meinen Nuc denke, den Innovationsstau und die Unfähigkeit in der Fertigung von kleineren Prozessorstrukturen...und wer da verliert, der verliert auf ganzer Linie!
 
Ich bin sehr gespannt was da noch auf uns zukommt, mit ein paar Jahren Zeit könnten sich da durchaus interessante Produkte entwickeln. Jedoch schläft die Konkurrenz nicht und Intel muss jetzt an ihr Milliarden-Polster rangehen und investieren, das betrifft den GPU und CPU Markt (und ihre Fertigung).
shysdrag schrieb:
Am meisten Sorgen sollte man sich aber um Nvidia machen. Versuche Standards wie RTX und Gsync zu etablieren sind kläglich gescheitert; der Stand PC Markt ist seit Jahren rückläufig. Dort wo im Notebooksektor mit kleinen diskreten Grafikkarten aktuell Mengen gemacht werden, wird Intel mit dem DG Programm voll einschlagen.
So schwarz würde ich das jetzt nicht sehen:
RTX basiert auf DXR und profitiert somit von zukünftigen Entwicklungen mit dieser Schnittstelle und stand jetzt ist Nvidia seit Ende 2018(!) alleine am Markt. Natürlich war die Turing Generation was das Preis-Leistungs-Verhältnis betrifft eher enttäuschend, man darf aber nicht vergessen, dass man sich hier den Luxus erlaubt hat und mit Tensor und Raytracing Kernen experimentiert hat. Aber zurück zum Sorgen machen, Nvidia ist breit aufgestellt und vor allem im HPC Markt sehr gut dabei, dann kommen noch Produkte für das autonome Fahren und weitere Standbeine dazu, sollte es also zum (meiner Meinung nach) unwahrscheinlichen Fall kommen das der Endkunden-Markt für diskrete Grafikkarten einbricht, dann sehe ich Nvidia als gut aufgestellt.
 
  • Gefällt mir
Reaktionen: xexex, AirForce und shysdrag
Nvidia hatte jahrelang einen Höhenflug im HPC-Bereich, der aber schon vorletztes Quartal endete, mit negativen Wachstum. Genau zu dem Zeitpunkt schlug AMDs Stadia-Deal ein, mit vielen Vega-GPUs. Es war also richtig von Koduri bei Vega den Schwerpunkt auf HPC zu legen. Und obwohl Koduri schon lange weg ist, profitiert AMD noch heute von seinen Entscheidungen.

Für Nvidia ist/war/bleibt die Geforce-Sparte die wichtigste Sparte. Und egal was sie machen, die Bedeutung der Geforce-Sparte ist nach wie vor entscheidend für Nvidia.
 
  • Gefällt mir
Reaktionen: Rockstar85
matty2580 schrieb:
Nvidia hatte jahrelang einen Höhenflug im HPC-Bereich, der aber schon vorletztes Quartal endete, mit negativen Wachstum.
Entschuldigung, das ist eine doch sehr oberflächliche Aussage. Im letzten Quartal waren die Zahlen bereits wieder höher als im Quartal davor. Es gab in allen Bereichen einen Rückgang von welchem sich Nvidia nun langsam erholt und die Zeit wird zeigen, ob sie ihr ehemaliges Hoch noch übersteigen (wovon ich stand jetzt mal ausgehen würde). Zudem gibt es noch keine 7nm Produkte von Nvidia nicht mal im HPC Segment.
matty2580 schrieb:
Für Nvidia ist/war/bleibt die Geforce-Sparte die wichtigste Sparte. Und egal was sie machen, die Bedeutung der Geforce-Sparte ist nach wie vor entscheidend für Nvidia.
Da stimme ich voll zu, jedoch sollte man schon bemerken das Nvidia sich derzeit versucht breiter aufzustellen.
 
Bei Nvidia dachte man, dass man den HPC-Bereich längst in Griff hat, und AMD da aufgibt.
AMD gibt aber nicht auf, und hat mit Vega attraktive Produkte am Start.
Genau deshalb hat man sich bei Google bei Stadia für AMD entschieden.
Und bald kommt ja noch Intel dazu, die auch "mitspielen" wollen.

Natürlich versucht man bei Nvidia die anderen Sparten zu stärken, weil man sonst zu große Schwankungen durch die Geforce-Sparte nicht abpuffern kann.

Die Tegra-Sparte stand kurz vor dem Ende, wenn es nicht den Nintendo-Deal gegeben hätte.

D.h. die Konkurrenz ist aktiv, und setzt Nvidia in allen Bereichen weiter unter Druck.
Was auch gut so ist, bevor Mitteklasse Consumer-GPUs bald 600€ kosten. ^^
 
tunichgut schrieb:
Know-How haben sie eig genug eingekauft und bei den finanziellen Möglichkeiten kann man auch doch etwas mehr erwarten als das präsentierte im YT-Video.
Sie haben sich ein paar "Namen" eingekauft, die Frage ist aber auch, ob die Namen auch wirklich das halten, was man sich von diesen verspricht.

Gerade Koduri hat sich über all die Jahre hinweg für mich eher als Maulheld bewiesen, als wirklich guter Ingenieur oder gar Architekt von entsprechenden GPUs. Die Stationen, die er als leitender Hardware-Architekt hatte, sind fast alle durchgängig eher als durchwachsen zu beschreiben. Bei der HD 2x00-Serie soll er das erste mal wirklich leitend als Hardwarearchitekt gearbeitet haben, was daraus wurde, kann man sehen. Entsprechend mussten die Ingenieure wieder viel zurecht biegen, wenigsten bot die HD 2x00-Serie aber brauchbaren Grundstein. Wirklich "gut" wurde die VLIW-Architektur (TeraScale) auch erst, als Koduri AMD zu Apple hin verlassen hatte.

Anschließend hat Koduri nach seiner Rückkehr eine damals durchaus brauchbare Architektur vorgefunden, statt aber wirklich deren "Schwächen" anzugehen und dort Probleme zu beseitigen, hat er versucht mir revolutionären Theorien zu Punkten, während es bei Polaris noch halbwegs klappte, ist er bei Vega wieder gnadenlos gescheitert. Wie damals die HD 2x00-Serie ist Vega im oberen Bereich alles andere als "effizient". Das man keine Revolutionen braucht, sondern kluge Weiterentwicklung hat AMD gleichzeitig mit Navi nun gezeigt und da munkelt man ja auch, dass das nicht Koduris Werk war, der sich auf Vega gestürzt hat.

Und bei Apple ist seine größte Leistung die Einführung der Retina-Displays gewesen. Was Koduri wirklich kann wird sich nun mit Xe zeigen müssen, nur wenn man mal über alle News und Gerüchte hinweg ließt und auch so ein paar angebliche "Insider" so lauscht, scheint bei Intel auch ein wenig Ernüchterung eingesetzt zu haben, was Koduri angeht, was mich persönlich jetzt nicht wunder würde.

Namen wie Jim Keller, Koduri und Co machen sich Anfangs zwar immer sehr gut, aber nur die wenigsten solcher großen Namen halten am Ende auch wirklich das, was sie versprechen. Keller ist durchaus so ein Name, der halten kann, was er verspricht. Koduri wird jetzt bei Intel wirklich beweisen müssen, ob er nur ein großen Namen hat, oder ob dahinter auch wirklich was steckt.

Manchmal ist es klüger, man holt sich die Entwickler und Männer aus den 2. und 3. Reihen hinter den großen Namen. ;) (Was AMD jetzt im gewissen Sinn bei nVidia gemacht hat, die haben sich da ja ein paar Igenieure eingekauft. ;))
 
  • Gefällt mir
Reaktionen: tunichgut und Duffy Duck
Als Leiter der RTG war Koduri eher dafür verantwortlich sein großes Team zu motivieren, kontrollieren, und dass Maximum aus dem Ressourcen heraus zu holen, und weniger selbst zu entwickeln.

Schon zu dem Zeitpunkt als Koduri AMD verlassen hatte, war Navi großteils fertig, da eine neue Gen immer viel Vorlaufzeit braucht.

Und technisch bezeichnet niemand Navi als schlecht.
Ganz im Gegenteil, die Presse ist sehr beeindruckt wie Navi aufgeholt hat bei der Performance und besonders bei der Effizienz.

Wenn Koduri sein neues Team so leiten und motivieren kann bei Intel wie bei AMD, dann auch noch mit fast unbegrenzten Mitteln, wird Intel bald eine neue Größe im GPU-Bereich sein.

Und darüber freue selbst ich mich als AMD-Fan.....
 
Das ist nur der Anfang. Vielleicht wissen wir es noch mehr in ein paar Monaten, vielleicht mit mehr unterschiedlichen Grafikkarten aus dem Hause Intel.
 
Ziemlich mager.

Entweder das Ding regelt über Preis und Verbrauch, sowie Low Profile für kleine PC's oder aber es landet in Fertig PC's für DAU und bringt über große Vertriebspartner wie Dell Kohle.

Ich glaube an Letzteres und bin mir ziemlich sicher, das Intel über irgendwelche Vertragsklauseln die GPU in Fertig PC's klatschen lässt und so den den Umsatz generiert.
 
Nero2019 schrieb:
Welche Leistung? Eines GT1030?

Jo - gut geraten!

Hab erstmal gedacht, dass es vielleicht an die GTX 1050 herankäme, aber von den Benchmarks ist die schon weit drüber. Aber die Benchmarks von der GT 1030 (die fast 50% weniger Leistung bietet als die GTX 1050) kommen tatsächlich ziemlich genau an jene Framerate hin, die im Video von Gamers Nexus erwähnt wird.
 
  • Gefällt mir
Reaktionen: Tzk
Intel bringt auch viel Ramsch raus, wie die 660p SSDs die bei 60% Belegung langsamer werden als Festplatten :D
Vielleicht löten die eine CPU drauf und verkaufen es als iGPU
 
Balikon schrieb:
Wieso nicht das Feld von unten aufrollen?

Hat doch S3 damals versucht. Deren S430 (wenn ich mich recht erinnere) kann man nicht mal mehr bei Ebay finden....
 
Soweit ich weiß, sind die nie auf dem Europäischen Markt gekommen.
 
Qualla schrieb:
Das halte ich kartellrechtlich für ziemlich bedenklich. Wird so bestimmt nicht zustande kommen.
wenn intel im grafikkartensektor erfolg hat, wird das wahrscheinlicher. wenns wirklich so weit käme, dann hätte intel durch nen eigenen erfolg ironischerweise nen noch stärkeren konkurrenten geschaffen.
 
Steini1990 schrieb:
Aber nicht sehr viel. Der Chip ist ja der gleiche wie in der iGPU. Nur hat er hier sein eigenes Powerbudget und schnellen Speicher.

Eine Intel iGPU deklassiert in puncto Effizienz, d.h. Performance pro Watt, jede Nvidia GPU um Längen. Darauf aufzubauen und diese hochzuskalieren ist also eine äußerst gute Idee.

Wenn man bedenkt, was die iGPUs aus einer einstelligen Wattzahl für fps rausholen und das mal hundert multipliziert, womit man dann auf den Verbrauch einer typischen Nvidia oder AMD - Karte kommt, sieht man was theoretisch möglich wäre, könnte man das entsprechend hochskalieren.
 
tox1c90 schrieb:
Eine Intel iGPU deklassiert in puncto Effizienz, d.h. Performance pro Watt, jede Nvidia GPU um Längen. Darauf aufzubauen und diese hochzuskalieren ist also eine äußerst gute Idee.

Wenn man bedenkt, was die iGPUs aus einer einstelligen Wattzahl für fps rausholen und das mal hundert multipliziert, womit man dann auf den Verbrauch einer typischen Nvidia oder AMD - Karte kommt, sieht man was theoretisch möglich wäre, könnte man das entsprechend hochskalieren.
Da möchte ich mal einen Beleg dafür sehen. NV hat z.B. ziemlich effiziente LowPower-GPUs in den Tegras (siehe Switch). Nicht alles lässt sich einfach durch Multiplikation skalieren.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben