News Multi-Chip-Prozessor: Intel stellt Kaby Lake-G mit AMD-GPU ein

icetom schrieb:
Die Modelle mit dem Chiplets waren einfach zu teuer verglichen mit einer dedizierten Lösung.

Wenn ich mir anschaue, wie sich die neuen Ryzen mit ihrem Chiplet-Design schlagen und dass sie auch preislich vollauf konkurenzfähig sind, scheint mir das nicht das Problem zu sein.
Eher scheint es problematisch zu werden, immer größere und komplexere Einzel-Chips in den aktuellen Fertigungsprozessen herzustellen. Würde mich deshalb nicht überraschen, wenn wir von Intel bald auch mehr Chiplet-CPUs sehen. (Wobei sie da ja eh schon lange nutzen, bei den Mobil-CPUs.)

Was die Kaby-Lake-G angeht, ist das Zeitfenster dafür wohl einfach vorüber. AMD mangelte es an starken/effizienten CPUs und Intel hinkte im iGPU-Bereich weit hinterher.
Inzwischen hat AMD bei den CPUs mehr als aufgeholt und Intels kommende iGPUs scheinen auch ordentlich zuzulegen. Man braucht sich also nicht mehr gegenseitig.
 
  • Gefällt mir
Reaktionen: just_fre@kin und iron-man
Der Vorteil bestand darin, das man es in sehr kleinen Gehäusen unterbringen konnte. Aber wenn die Gamer lieber mit 17"+ herum rennen und im Business die Intel HD Grafik reicht, was ja kein Geheimnis ist, war es ein Scheitern mit Ansage.
Und beim bekannt, guten :rolleyes: Treibersupport bei Intel, konnte man erwarten, dass man bei neuen Spielen monatelang auf einen angepassten Treiber warten kann.
 
v_ossi schrieb:
Warum soll ich mir z.B. ein XPS 15 Zoll 2 in 1 mit Kaby Lake G kaufen, wenn das normale XPS billiger und leistungsstärker ist?

Die 2-1 Geräte der XPS-Reihe sind immer deutlich teurer gewesen. Hier hat Dell zur damaligen Zeit das teuereste und feinste verbaut. 4 USB-C Schnittstellen, laminierter 4K-Bildschirm mit Wacom-Stift-Support, neue Maglev-Tastatur, bessere Kühlung, Fingerabdrucksensor und auch noch eine Windows Hello-Kamera.

Die CPU lässt sich auch noch übertakten, alle Kerne bis 4.1 GHz sind freischaltbar.
 
  • Gefällt mir
Reaktionen: psychotoxic, -Ps-Y-cO- und SilvanV
Undervolting klappt ebenso gut @mironicus
Also Intel-XTU ist voll einsetzbar.
 
@v_ossi
du beantwortest dir die frage doch selbst -"interessante" produktlinie, aber es gibt schlicht sinnvollere kombinationen..
zudem der einzige wirkliche vorteil die platzersparnis ist, welche man sich durch unflexibilität erkauft - cpu/gpu aufrüsten ist nicht.

65w in einem 13-zoll notebooks? wie dick darf das teil sein? 4cm? 6cm?
 
  • Gefällt mir
Reaktionen: Three of Nine
mironicus schrieb:
Die 2-1 Geräte der XPS-Reihe sind immer deutlich teurer gewesen. Hier hat Dell zur damaligen Zeit das teuereste und feinste verbaut. 4 USB-C Schnittstellen, laminierter 4K-Bildschirm mit Wacom-Stift-Support, neue Maglev-Tastatur, bessere Kühlung, Fingerabdrucksensor und auch noch eine Windows Hello-Kamera.

Die CPU lässt sich auch noch übertakten, alle Kerne bis 4.1 GHz sind freischaltbar.

Das stimmt, zwingt das Produkt aber nur noch tiefer in die ohnehin schon kleine Nische.
Mal ehrlich, 2 in 1 Geräte sind vom Gedanken her ganz cool, aber auf 15 Zoll auch wieder kompliziert in der Handhabung. Als Zeichentablet auf dem Schreibtisch ist der Formfaktor in Ordnung, als Tablet für Medienkonsum etc. aber tendenziell zu groß. Das hält man ja nicht -mal eben- in einer Hand.
Zudem ist es immer noch ein Nachteil keinen normaler USB Typ A Anschluss zu haben und exklusiv auf Typ C zu setzen; die Tastatur ist darüber hinaus eine Sache des persönlichen Geschmacks.

Manuelles Übertakten ist dann wie auch am Desktop mMn kein relevantes Kriterium, weil die Geräte im Auslieferungszustand überzeugen müssen.

cypeak schrieb:
@v_ossi
du beantwortest dir die frage doch selbst -"interessante" produktlinie, aber es gibt schlicht sinnvollere kombinationen..

Das aus der interessanten Produktlinie keine interessanten Produkte entstanden sind, ist aber den OEMs und nicht Intel anzukreiden. In wie fern die Bepreisung von Kaby Lake G sein übriges getan hat, vermag ich aber nicht zu beurteilen.

zudem der einzige wirkliche vorteil die platzersparnis ist, welche man sich durch unflexibilität erkauft - cpu/gpu aufrüsten ist nicht.

Was bei quasi jedem Notebook der Fall ist.

65w in einem 13-zoll notebooks? wie dick darf das teil sein? 4cm? 6cm?

Das ist nun wirklich kein Hexenwerk. Alienware und Razer hatten mal entsprechende Angebote mit 7700HQ und GTX 1060, da ist man kombiniert bei rund 100 Watt und das war auch zu kühlen.
 
Herdware schrieb:
Wenn ich mir anschaue, wie sich die neuen Ryzen mit ihrem Chiplet-Design schlagen und dass sie auch preislich vollauf konkurenzfähig sind, scheint mir das nicht das Problem zu sein.
Eher scheint es problematisch zu werden, immer größere und komplexere Einzel-Chips in den aktuellen Fertigungsprozessen herzustellen. Würde mich deshalb nicht überraschen, wenn wir von Intel bald auch mehr Chiplet-CPUs sehen. (Wobei sie da ja eh schon lange nutzen, bei den Mobil-CPUs.)

Was die Kaby-Lake-G angeht, ist das Zeitfenster dafür wohl einfach vorüber. AMD mangelte es an starken/effizienten CPUs und Intel hinkte im iGPU-Bereich weit hinterher.
Inzwischen hat AMD bei den CPUs mehr als aufgeholt und Intels kommende iGPUs scheinen auch ordentlich zuzulegen. Man braucht sich also nicht mehr gegenseitig.
Intel kündigt an mit Chiplets arbeiten zu wollen und du rechnest damit das sie es auch machen? Du Fuchs :D

Auch warum AMD jetzt mit Ryzen weniger Interesse haben sollte weitere custom GPUs zu basteln versteh ich nicht ganz.
Das gerade Intel Kunde war kam ja was überraschend, aber ich kann mir nicht vorstellen das die momentane Überlegenheit der Ryzens groß damit zu tun hat.

Aber unterm Strich schade, fand die Kombi eigentlich ganz gut.. So still wie es um die jedoch geworden ist, war das Ende abzusehen...
Ergänzung ()

andi_sco schrieb:
Hatten die jemals konstante Updates?
Intel wollte halt die klassische Intel gpu User experience bieten :D
 
Zuletzt bearbeitet:
Was soll das auch? Wie soll sowas preis/leistungsmäßig mit einer Ryzen APU konkurrieren?
 
v_ossi schrieb:
Das ist nun wirklich kein Hexenwerk. Alienware und Razer hatten mal entsprechende Angebote mit 7700HQ und GTX 1060, da ist man kombiniert bei rund 100 Watt und das war auch zu kühlen.

ja, es ist zu kühlen - aber kein vergnügen und wieder muss man dabei wie beim kaby-g auch auf den preis schauen; attraktiv ist das nicht....
 
Ich bin stolzer Besitzer eines XPS 9575 (eben das 2 in 1), mit Kaby Lake G. Mein Kaufgrund war die Stift Funktionalität - so kann ich während den Vorlesungen Notizen in das Script machen und diese meinen Studenten direkt als pdf zur Verfügung stellen. Ein Surface wäre mir da zu klein gewesen & die Leistung wäre auch zu niedrig gewesen. Das XPS befeuert problemlos eine Samsung Odyssey WMR Brille - somit geht auch forschen mit dem Teil - obwohl ich da immer noch den Desktop bevorzuge.

Und bezüglich Treibern, man kann einfach die aktuelle Version des AMD Desktop Treibers draufbügeln :)
 
  • Gefällt mir
Reaktionen: sonny_mv und SilvanV
Chillaholic schrieb:
Man hat ja auch die halbe RTG danach eingekauft.
Kein Wunder, Intel sollte mittlerweile ne Alternative am Start haben.
Nachher ist es ne GCN Lizenz oder RDNA by Intel xD

Aber war klar, dass diese Kaby G Modelle nicht lange leben
 
  • Gefällt mir
Reaktionen: Chillaholic
Das Problem war halt auch, das es diese Prozessoren nur in Notebooks gab. Als Desktop-CPU wäre dieser Prozessor sicher interessant geworden.
 
Dark Soul schrieb:
Und bezüglich Treibern, man kann einfach die aktuelle Version des AMD Desktop Treibers draufbügeln :)

warte mal...
das Teste Ich jetzt! (glaube das kaum!)
 
Das erklärt wohl auch, warum seit Januar keine Treiber mehr erschienen sind.

Davor gab es immerhin noch gelegentlich einen Betatreiber, um aufzuholen.

Die AMD Treiber zu nützen würde mich auch interessieren. Einfach die Installation starten? Oder entpacken und mit dem Geräte-Manager installieren? Nachteile?

EDIT: Ok, einfach installieren... interesant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SilvanV und teufelernie
icetom schrieb:
Die Modelle mit dem Chiplets waren einfach zu teuer verglichen mit einer dedizierten Lösung.
Teuer macht die Kaby Lake-G vor allem das HBM und der damit nötige Interposer, auch wenn Intel dafür die günstigere EMIB Lösung hat.

Generell ist der einzige Vorteil so eine Kombination der Platzvorteil, in allen anderen Fälle ist es günstiger die GPU auf eine getrennte Platine zu packen, also eine Graka wie es sie ja auch für Notebooks gibt. Wobei bei der TDP der Kombination die Kühlung dann sowieso so groß ausfällt, dass man auch gleich CPU und GPU hätte trennen können. CPUs mit iGPU bzw. bei AMD APU genannt, mit einen leistungsstarken iGPU sind einfach nur Unsinn, denn um so viel Leistung der GPU zu erzielen, muss man der einen eigenes RAM spendieren da GPUs einen hohen RAM Durchsatz brauchen. Damit kommt eigentlich nur HBM in Frage, aber HBM geht nur mit Interpose/EMIB und treibt die Kosten gewaltig. Außerdem bekommt man bei entsprechend leistungsfähigen Komponenten dann auch eine hohe Abwärme und um die zu kühlen braucht man wieder so große Kühler, dass der Platzbedarf für den Kühler den Vorteil der kompakten Bauweise vernichtet.

Die Nachteile sind dafür gewaltig, die möglichen Kombinationen von CPU und GPU sind vom Hersteller vordefiniert und außerdem war zumindest bisher die Leistungssteigerung bei den GPUs weit höher als bei den CPUs und wenn beides zusammen ist, muss man auch beides zusammen tauschen.
 
Also 19.10.1 Installiert.
Rechtsklick Desktop, Keine Radeon Vega M Einstellungen mehr...
(hat vorher sowieso nichts gebracht, man kam ja nicht in den Wattman (nur M GH und M GL über NUC!))
Naja nun habe ich den M GH - Unlocked per .inf Installiert. Läuft auch. Taktet auf 985MHz.

Würde aber gerne Wattman haben um das ding auf 1025MHz zu bekommen + vll. von 700MHz HBM auf 750 oder gar 800 zu gehen!
Versuche grade den Radeon-NUC Treiber zu Installieren. Vielleicht kann Ich ihn überlisten diesen zu Installieren (mit Wattman!)

Edith: keine Chance... Wattman bleibt den kleinen bis auf weiteres verwehrt.
Lösungsansätze sind gerne gesehen.
 
Zuletzt bearbeitet:
just_fre@kin schrieb:
Kann die Einstellung des "Projects" aber nachvollziehen: Intel bastelt massiv an leistungsstärkeren Grafikkarten für ihre CPUs und umgekehrt braucht AMD wohl in Zukunft keine Intelprozessoren mehr im Mobilsegment, wenn Zen2 dann endlich auch dort Einzug hält.
Ach wer weiß. Vllt sehen wir in Zukunft auch mal eine Zen APU mit Intel GPU und HBM :D
in modernen 7nm... von Intel hust*
 
Herdware schrieb:
Eher scheint es problematisch zu werden, immer größere und komplexere Einzel-Chips in den aktuellen Fertigungsprozessen herzustellen. Würde mich deshalb nicht überraschen, wenn wir von Intel bald auch mehr Chiplet-CPUs sehen. (Wobei sie da ja eh schon lange nutzen, bei den Mobil-CPUs.)

Was du meinst Intel und billige zusammenkleben? Was ist mit der monolithischen Multicore Arch passiert? Für die AMD angeblich zu dumm ist. Immerhin kommt bei AMD der native 8 Core CCX erst ab Zen3.
Und vom NUMA Problem wollen wir erst gar nicht anfangen!

Und dass Intel verschiedene Chips bereitd zu einem SoC kombiniert hat, stimmt. Aber AMD geht ja dahin, Teile einer CPU in Chips zu verteilen. Eben CPU Cluster 1, 2...8 und I/O Chip, der SI und Co beinhaltet. Das ist doch eine etwas tiefere Abstraktionsebene, oder?

Sry, aber musste sein, war ja Zen anfangs so n schei...


PS: Ich bin schon gespannt auf die ONE-API. Hoffentlich verschreiben sie sich dann nicht auf der Folie und schreiben dann HSA hin :D

Groß und ganzen zum Thema noch. Es würde AMD, NV und Intel nicht schaden, würden sie öfters solche gemeinsame Projekte machen. Das würde vermutlich x86 und GPUs mehr Schub bringen.
Somit ist dieser Chip für mich ein paradebsp gewesen, welche Performance man bereits haben konnte und wenn wir ehrlich sind, erst bei den APUs bekommen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Zurück
Oben