News Arctic Sound: Details zu Intels diskreter GPU angeblich noch im Dezember

Klar läuft das schon einige Zeit. Wie gesagt, sie haben selbst IP und auch noch Zugriff auf das Abkommen. Und sicherlich werden sie in der Zwischenzeit einiges probiert haben. Dennoch ist es illusorisch jetzt von Intel zu erwarten, daß sie eine komplette GPU-Plattform auf den Markt bringen, die auch noch direkt um die Spitze mit AMD und nVidia kämpfen kann. Wenn sie clever waren (und das sind sie) fangen sie im HPC-Bereich an und breiten sich dann in dem Bereich weiter aus.

Sie haben eigentlich nur einen Versuch. Wenn die Erwartungshaltung bei der Vorstellung nicht erfüllt werden kann, haben sie die psychologische Schlacht um Marktanteile verloren. i740 ist zum Glück lange her, so daß das keinen mehr interessiert.
 
Ja, das bei einer neuen Architektur kein Top to Bottom Portfolio mit der ersten Generation kommt versteht sich von selbst. Clever ist hier aber nicht mit einem fetten HPC Design zu starten sondern mit einer kleinen dGPU. Also ein Chip welcher zum einen Vega M auf einem KBL/CFL-G Nachfolger ersetzt und zum anderen als Entry/Mainstream PCIe dGPU (bis 75W) eingesetzt werden kann. Für HPC und Virtualisierung beispielsweise als Single Slot Dual GPU Karte.
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Oh Gott, was passiert nur jetzt?

Nun unterstützt Intel den offenen Standard "Adaptive Sync" und positioniert sich gegen Nvidia und eher auf die Seite von AMD. Aber ist Intel nicht der böse Abzockerverein der seit Jahren nichts gebacken bekommt und zusammen mit der Lederjacke Einhörner umbringt?

AMD wäre genauso ein böser Abzockerverein wen sie könnten und wie es nvidia auch ist. Intel hat sich mit Jim Keller (CPU) aber Raja Kodori (GPU) vermutlich keine unfähigen Leute an Bord geholt. Zumindest mit Jim Keller dem schöpfer von Zen könnte es durchaus möglich sein das in paar Jahren AMD wohl leider wieder in seine schranken verwiesen wird. Die haben halt so unglaublich viel Geld. Raja Kodori gilt als Vater von Vega, welches ja bekanntlich für Sony und Navi geopfert wurde. Durchaus möglich das jetzt mit dem finanziellen Möglichkeiten von Intel und dem Know How von Kodori eine GPU rauskommt wie man es sich eigentlich für VEGA gewünscht hätte. AMD musste für Sony seine kapazitäten von VEGA abziehen, das würde auch erklären warum Kodori gewechselt ist.

Ich freue mich darauf und hoffe auch das mal etwas anständiges kommt. Insbeonderes da AMD den Highendbereich nicht mehr ausreichend beliefert, würde etwas druck auf nvidia gerade im oberen Bereich uns allen gut tun.
Ergänzung ()

pgene schrieb:
Bei den Preisen am GPU Markt, auch wenn sie sich inzwischen etwas enspannt haben, kann man es ja mal versuchen. Wenn Ihnen was in eine Leistungsklasse einer 1050 gelingt halte ich einen Einstieg für durchaus machbar.
Also eine Highendlösung mit der Leistung einer 1050 wäre aber vermutlich als fehlschlag zu werden. xD
Ergänzung ()

xexex schrieb:
Man kann letztendlich nur gespannt sein, welchen Konzept Intel verfolgen wird. Die Frage wir mit Sicherheit sein, ob man mit neuen Ideen dieses Projekt weiter entwickelt hat, oder ob man schlichtweg die GMA Architektur genommen hat und diese aufbohrt.


Tom Forsyth soll ja wieder mit von der Partie sein.
 
Zuletzt bearbeitet:
YforU schrieb:
Ja, das bei einer neuen Architektur kein Top to Bottom Portfolio mit der ersten Generation kommt versteht sich von selbst. Clever ist hier aber nicht mit einem fetten HPC Design zu starten sondern mit einer kleinen dGPU. Also ein Chip welcher zum einen Vega M auf einem KBL/CFL-G Nachfolger ersetzt und zum anderen als Entry/Mainstream PCIe dGPU (bis 75W) eingesetzt werden kann. Für HPC und Virtualisierung beispielsweise als Single Slot Dual GPU Karte.
Das würde nicht zum derzeiten Fahrplan passen. Es sei denn, auf dem Präsentationstag wird eine komplette Kehrtwende oder Abkehr von der bisherigen Strategie vorgestellt werden.
 
YforU schrieb:
Siehe dazu: https://www.heise.de/newsticker/mel...ser-fuer-seine-erste-Grafikkarte-4140227.html

Intel hat im August kein HPC Design für 2020 geteasert sondern explizit eine dedizierte Consumer GPU. Im gesamten Teaser fällt kein einziger Querverweis Richtung HPC.
Dann wirds vielleicht doch spannend, mal schauen. :D

Btw. Obwohl schon ein bissl älter, ists interessant -> https://forums.anandtech.com/thread...raja-wants-to-enter-dgpu-with-a-bang.2542652/
 
  • Gefällt mir
Reaktionen: xexex
@yummycandy

Danke für den Link! Vor allem dieser Abschnitt gibt viel Raum für Spekulationen.
Arctic Sound is targeted for PRQ in H1'20 (which in any case implies a 2020 launch). He also says it will consist of an MCP with up to 4 dies. (I assume these chiplets will be connected via EMIB, since that's the only thing that would be feasible.)

Now, the interesting bit here is that he says they're targeting Jupiter Sound to have leadership (i.e. >NVIDIA) performance/watt "under 60W". Now, 60W doesn't sound very high-end to me, but given that they're going the MCP route, I'd presume the 60W is for just one chiplet. So if one extrapolates to 4 chiplets, that makes for a high-end (leadership) product of 240W of 7nm Gen13 goodiness in 2021.

Multichip würde wirklich endlich mal wieder etwas bewegen.
 
xexex schrieb:
@yummycandy

Multichip würde wirklich endlich mal wieder etwas bewegen.
Japp, würde bei Gaming allerdings Probleme bringen. Es sei denn, Intel hat vor nVidia und AMD das Chipletproblem gelöst.
 
Benji18 schrieb:
das Problem ist aber das GPU Design von AMD selbst, wenn man die GPU chips betrachtet hat AMD gcn schon immer mehr "TFLOP" Leistung benötigt um mit Nvidia gleichzuziehen.

Mal abgesehen davon das AMDs ressourcen deutlich geringer sind, weshalb Sie auch nicht wirklich sauber ein 2 Projekten gleichzeitig Arbeiten konnten. VEGA ist eine weiterentwicklung von Fiji nicht mehr und nicht weniger. Warten wir NAVI ab und schauen wir was sich dann wirklich ändert.

Absolut. Raja war ja sehr unzufrieden mit dem "Mangel" an Autonomität und den verfügbaren Ressourcen bei AMD. Jetzt muss er bei Intel zeigen, dass er ein echter Jim Keller des GPU Designs ist und nicht nur ein schlechter Verlierer. Aus viel etwas zu machen ist keine Leistung.
 
  • Gefällt mir
Reaktionen: Benji18
yummycandy schrieb:
Japp, würde bei Gaming allerdings Probleme bringen.

Das war bei der bisherigen Lösungen so. Wenn man den Chip so aufbaut wie AMD die Rome CPU, gibt es auch die bisherigen Probleme nicht.
 
  • Gefällt mir
Reaktionen: yummycandy
Volkimann schrieb:
Als ob er ganz alleine die Entscheidungen getroffen hat. Das ist ein Ergebnis aus einer Teamarbeit.

Und mal ganz doof gesagt, er ist auch verantwortlich gewesen für die 9700/9800 Serie.

Als Führungskraft hält man den Kopf hin, wenn die Leistung des Teams nicht stimmt. Das gehört dazu. Das ist Aufgabe.

Und Raja war derjenige der den einen Tag sein Team noch anfeuert "make me proud" und direkt am nächsten Tag bekannt gibt jetzt bei Intel zu arbeiten. Wirkt auf mich sehr unpassend und geradewegs zynisch und entsprechend zynisch habe ich meine Bemerkung auch formuliert.
 
xexex schrieb:
Das war bei der bisherigen Lösungen so. Wenn man den Chip so aufbaut wie AMD die Rome CPU, gibt es auch die bisherigen Probleme nicht.
Ich zweifel irgendwie daran, daß man das so 1:1 übertragen kann. Aber ich lasse mich gern überraschen. :)
 
yummycandy schrieb:
Ich zweifel irgendwie daran, daß man das so 1:1 übertragen kann. Aber ich lasse mich gern überraschen.

Ohne mir das gesamte Konzept jetzt durch den Kopf gehen lassen, denke ich schon, dass es möglich sein müsste. Du machst Dies mit Shadereinheiten (und anderem) und einen Controllerchip, der sich alleine um die Bildausgabe und die "Arbeitsaufteilung" kümmert. So liessen sich verschiedene Ausbaustufen realisieren ohne Chips zu beschneiden oder riesige Chips herstellen zu müssen.

Natürlich ist dies jetzt leichter gesagt als getan, der Ansatz an sich würde aber eine fast unbegrenzte Skalierung ermöglichen. Dies wiederrum würde diese Lösung auch im professionellen Bereich attraktiv machen.

Intel hat mit Mesh und Phi mit Sicherheit auch einige Erfahrungen sammeln können, die man auf so eine Grafiklösung übertragen könnte.
 
  • Gefällt mir
Reaktionen: aldaric und yummycandy
xexex schrieb:
Natürlich ist dies jetzt leichter gesagt als getan, der Ansatz an sich würde aber eine fast unbegrenzte Skalierung ermöglichen. Dies wiederrum würde diese Lösung auch im professionellen Bereich attraktiv machen.

Genau dieser Ansatz wird ja Gerüchteweise schon länger bei AMD verfolgt für zukünftige GPU's. Das die Hersteller alle in der Lage sind sowas zu entwickeln, steht außer Frage. Die Frage ist ja eher ob Intel's Architektur bei AMD/nVidia mithalten kann im professionellen Bereich.

Die Gerüchte über eine Voll-Modulare GPU Architektur als Nachfolger von Navi gibt es ja schon länger. Ab und an kommt ja auch das Gerücht auf das Navi selbst schon diese Modularität hätte, aber ich vermute das wir dazu erst nächstes Jahr Infos kriegen.

Wenn jetzt Intel und AMD im GPU Bereich einen ähnlichen Ansatz von kleinen "Chiplets mit Controller-DIE" verfolgen, ist es bekannt ob nVidia etwas ähnliches in Entwicklung hat bzw. anbieten wird in Zukunft ?
 
  • Gefällt mir
Reaktionen: yummycandy
Soweit ich weiß war nVidias Stand dazu, daß die Bandbreite überhaupt kein Problem ist. Vielmehr ist es die Latenz zwischen den einzelnen Bausteinen, die Kopfschmerzen bereitet. Von AMD hab ich dazu noch nichts gelesen. Denke aber mal, daß die zu ähnlichen Schlüssen kamen.

Der Einsatz der IF bei GPUs war ja kein Versehen sondern ein Anfang hin zu modulareren Systemen.

Wäre aber cool, ob Intel das Lösen konnte. Wobei QPI oder UPI dafür nicht geeignet sein werden.
Ergänzung ()

Aldaric87 schrieb:
Wenn jetzt Intel und AMD im GPU Bereich einen ähnlichen Ansatz von kleinen "Chiplets mit Controller-DIE" verfolgen, ist es bekannt ob nVidia etwas ähnliches in Entwicklung hat bzw. anbieten wird in Zukunft ?
https://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf
 
  • Gefällt mir
Reaktionen: aldaric
Aldaric87 schrieb:
Die Frage ist ja eher ob Intel's Architektur bei AMD/nVidia mithalten kann im professionellen Bereich.

Ich stelle mir bei Intel weniger das Problem bei der Hardware vor, sondern eher bei der Software. Heute gehört zu einer Grafiklösung nun mal sehr viel Softwareoptimierung dazu und für praktisch jedes Spiel müssen Sachen am Treiber angepasst werden. Intel hat es bislang zwar auch gemacht, jedoch war dies ja nur auf eine begrenzte Anzahl Spiele berschränkt.

Zum Thema passt aber natürlich ein wenig, dass Intel heute UWD Treiber für die bisherigen Grafiklösungen veröffentlicht hat.
https://mspoweruser.com/intel-releases-new-windows-modern-drivers-for-windows-10/
 
  • Gefällt mir
Reaktionen: yummycandy und aldaric
In dem Kontext: Intel plans new development center in India to boost graphics development efforts
https://www.notebookcheck.net/Intel...st-graphics-development-efforts.361791.0.html

Was man bei Intel vor hat bewegt sich in einer anderen Größenordnung als zu Zeiten von i740 oder Larrabee. Das ist halt auch einer der Hauptgründe weshalb viel Personal zu Intel geht. Solche großen Projekte welche schlussendlich mehrjährige evolutionäre Roadmaps ergeben sind in der Branche selten. War beispielsweise bei Apple auch so als die Entscheidung getroffen wurde SoCs mit eigener CPU Architektur zu entwickeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy und xexex
Müslimann schrieb:
Also eigentlich dürfte es doch für Intel nicht unmöglich sein eine GPU mit ordentlicher Leistung rauszuhauen.

Die Hardware dürfte für Intel nicht das Problem sein. Aber die Zeit generischer Treiber für Grafikkarten ist vorbei, gefragt ist massive Entwicklungsarbeit, Unterstützung der Entwicklerstudios und Optimierung der Treiber für einzelne Spiele.

Beim letzten Versuch, Larrabee, ist Intel meines Wissens auch daran gescheitert. Ich halte es für eine reale Möglichkeit dass Intel massiv genug reinbuttert um auch hier die Konkurrenz vom Platz zu fegen (das Geld haben sie), aber persönlich setze ich darauf dass es auch diesmal einen Rohrkrepierer gibt. Schlipsträger wollen Erfolge in kurzer Zeit sehen, der Einstieg in ein neues Business fordert aber eine langfristige Investition. Und das wissen auch die potentiellen Partner (Studios). Die werden sich anschauen sich wie dauerhaft engagiert Intel seine IoT-Plattform gepflegt hat und dankend abwinken.
Ergänzung ()

yummycandy schrieb:
Wie gesagt, sie haben selbst IP und auch noch Zugriff auf das Abkommen.

Sie haben Zugriff auf die Patente, nicht auf die Implementierung. Sie haben Zugriff auf die Erlaubnis etwas zu entwickeln, nicht auf das was entwickelt wurde.
 
Zurück
Oben