News Intel Gen11 Graphics: Ice Lake mit 60 Prozent mehr EUs als Cannon Lake GT2

Naja 60% mehr Einheiten und evtl Taktung von 1500MHZ oder Turbo wie bei AMD/NV könnte die Leistung schon auf 75% + anheben.Das würde zumindest dafür sorgen das man damit in Notebooks dann Hots und co in 1080p spielen kann.
Das Problem an der Intel Igpu als Gamingersatz ist , dass AMD jetzt mit RR einfach ein tolles gesamtpacket hat.
 
stormi schrieb:
Man kann mit den höheren Intel iGPU-Ausbaustufen schon ganz gut anspruchslosere Titel in 1080p zocken. Eine größere Baustelle sind hier vll. eher noch die Treiber...

Bei den sogenannten höheren iGPU Ausbaustufen sind die Prozessoren so teuer, dass die alle eine dezidierte Grafikkarte haben, wo folglich die iGPU keine Rolle spielt.

Bis dahin ist die Zen 2 APU auch draußen, und die ist unstreitig schneller als die Ice Lake iGPU, von daher wird der Abstand zwischen AMD und INTEL bleiben, so schnell wird Intel nicht aufholen können.
 
@FirstJune Wenn es darum geht, möglichst viel Leistung in möglichst kleine Geräte unter zu bekommen und für eine dGPU kein Platz ist oder suboptimal für die Akku-Laufzeit/Leistungsaufnahme wäre, sind solche Lösungen aber optimal.
Natürlich würe ich eine AMD-APU in jedem Fall bevorzugen. Ich hoffe AMD kann hier in Zukunft Fuß fassen, sprich die Hersteller schaffen es mal vernünftige Geräte auf den Markt zu bringen.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Für so Basiskram wie Browsen oder bissl Office reicht die Intel iGPU allemal. Es reicht sogar für UHD-Videos und diverse Retro-Titel. Wir spielen auf LAN immer CounterStrike, Flatout 2 und andere Titel aus dieser Zeit.
 
Frag mich auch wieso hier Intel die iGPU so pushed. Wenn das nicht gerade für sowas wie Endode / Decode herhalten kann muss sie nicht viel mehr können als ein Bild auf den Schirm bringen ink. MultiHead 4K. Wüsste nicht wann mich die letzten Jahre die normale iGPU da ausgebremst hätte.

So verschwend man doch nur 70% der Die Fläche für den GPU Anteil und die passenden Treiber für Games hat man erst nicht. Ich bezweifle dass man da je AMD ernsthaft Konkurrenz machen wird und dass das auch Sinn machen würde.

Intel /AMD sollten bei den APU eher mal Fokus auf CAD Support legen anstelle Games.
 
Zuletzt bearbeitet:
Whiskey Lake schrieb:
Wofür genau sollte man da in Zukunft mehr GPU-Leistung benötigen?

Weil auch immer mehr kleine Anwendungen gebrauch davon machen (wie schon erwähnt z.B. Browser). Und es finden sich bei genauer Grübelei sicher noch zig andere Programme die heimlich die Beschleunigung durch den 3D-Teil nutzen.


DerHechtangler schrieb:
LAN...das waren noch Zeiten....:smokin:

GUTE Zeiten :daumen:
 
Shoryuken94 schrieb:
Was ein Müll... GPUs beschleunigen heute viele Anwendungen am Rechner. Vom Browser übers Streamen bis hin zum Encoden. Eine starke GPU nützt nicht nur beim spielen.

Zum Thema spielen, dass wird immer etwas übertrieben. Die meisten E-Sport Titel laufen auf den Teilen relativ okay.

Erzähl das mal den ganzen Leuten, die in den Raven-Ridge-Threads schreiben, dass die ja völlig überflüssig sind. Für Office recht ja jede Intel-Grafik und wer spielt, greift ja sowieso zu dedizierten Grafikkarten, so die häufigen Aussagen da...
 
Whiskey Lake schrieb:
Wofür genau sollte man da in Zukunft mehr GPU-Leistung benötigen?
Die CPU soll erst 2019 auf den Markt kommen und von da an soll ein gekaufter CPU zumindest für "Non Gaming" 5 Jahre ausreichen, also bis in das Jahr 2024 hinein. Obendrein ist das ja nur die größte Ausbaustufe, es gibt ja auch kleinere Varianten mit weniger Ausführungseinheiten. Da halte ich eine Anpassung nach oben für den richtigen Schritt, ansonsten ist man irgendwann bei einer Situation wie bei CPUs letztes Jahr angelangt: Jahrelang hieß es "wofür mehr als 4 Kerne, braucht man nicht" und dann kam Ryzen mit 8 und von heute auf morgen rennt Intel hinterher und muss irgendwelche Flickschusterei betreiben, um irgendwie wieder Anschluss zu bekommen
 
Also ich früher immer wieder mal wow,wot oder wows auf meinem 2015 MacBook Pro gespielt und das ging (nicht hübsch aber es ging).
Roche schrieb:
Auch mit 64 EUs bleibt die Intel Grafik einfach nur ne Gurke, die nicht zu mehr als dem Anzeigen eines Bildes taugt.
 
Krautmaster schrieb:
Frag mich auch wieso hier Intel die iGPU so pushed. Wenn das nicht gerade für sowas wie Endode / Decode herhalten kann muss sie nicht viel mehr können als ein Bild auf den Schirm bringen ink. MultiHead 4K. Wüsste nicht wann mich die letzten Jahre die normale iGPU da ausgebremst hätte.

So verschwend man doch nur 70% der Die Fläche für den GPU Anteil und die passenden Treiber für Games hat man erst nicht. Ich bezweifle dass man da je AMD ernsthaft Konkurrenz machen wird und dass das auch Sinn machen würde.

Die Chips werden trotzdem etwas kleiner und nicht größer als heute (siehe Cannonlake 2+2). Das Transistorbudget (14 -> 10nm) lässt reichlich Spielraum um die IGP weiter zu skalieren. Daran führt auch kein Weg vorbei wenn man das Gesamtbild betrachtet. Die Mehrzahl der "PCs" sind heute Notebooks. Ein signifikanter Teil davon sind Sub/Ultrabooks, Convertibles etc. Da ist oft weder Platz noch das notwendige Budget für die Kühlung einer dGPU vorhanden.

Einfach nur "2D", Video und Browserbeschleunigung reicht da nicht. Selbst auf einem Surface muss unterwegs oder auch im Dock ein 3D Viewer, Photoshop, AutoCAD/SolidWorks etc. funktionieren. Abstriche bei der Performance muss man da immer machen gegenüber einer dGPU. Unbenutzbar darf es aber heute nicht mehr sein und dann gibt es noch viele Consumer welche auch mal ein Casual/F2P Online Game laufen lassen wollen.

Beispiel aus der Praxis: In Implantatzentren wird heute durchgängig mit 3D Röntgengeräten gearbeitet. Die Visualisierung (3D Modelle) muss auf jedem System laufen. Vor einigen Jahren ging das nur vernünftig mit einer kleinen Quadro. Heute tuts eine aktuelle IGP und das ermöglicht deutlich effizientere Workflows. Surface mit Stylus für OP Teams.

Die Relation zu dGPUs bleibt am Ende ja eh wieder identisch denn auch die werden bei 10/7nm deutlich flotter (Skalierung, mehr Einheiten). Die IGPs nicht zu skalieren würde bedeuten das diese effektiv langsamer werden ;)

Hier stellen sich wie immer viele mit ihrem Fokus auf 3D Gaming hin und sehen nicht das gerade im produktiven Umfeld der Bedarf an 3D Visualisierung enorm ist und weiter steigen wird. Vielfach wird heute noch primär mit 2D Plänen/Datensätzen gearbeitet. Selbst in einer Warenwirtschaft sind 3D Datensätze besser als planare Zeichnungen/Skizzen. Machts dem Monteur vor Ort deutlich einfacher, reduziert Fehler und spart Zeit. Industrie 4.0 ist nicht nur graue Theorie sondern stellt auch Ansprüche an die Hardware.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk und Camicace
SKu schrieb:
Wenn 2019 wirklich Ice-Lake auf 10nm+ kommen soll, kann Intel sich den Octa-Core auf Basis Coffee Lake in 14nm++ in die Haare schmieren. Ice-Lake sollte spätestens zu Zen 2 auf dem Markt sein.

Ganz so ist das auch nicht. Von Intel gab es mal eine Folie (die ich jetzt nicht suche) das der 10nm+ Prozess gerade so bei der Performance zum 14nm++ aufschließt.
 
so ist es , 10 nm = Schlechter als 14++ http://www.pcgameshardware.de/Kaby-...5/News/Intel-Coffee-Lake-14-vs-10-nm-1224483/ -sind keine Produkte für geplant , 10nm+ in etwa gleich (CannonLake , Ice Lake ) - abgesehen von das die Leistungsaufnahme bei 10nm+ etwas geringer sein dürfte
Bei AMD ist da der Sprung von 12nm zu 7 nm sehr viel deutlicher , 50 % weniger Leistungsaufnahme oder 35 % mehr Takt

https://www.techpowerup.com/242148/globalfoundries-7-nm-to-enable-up-to-2-7x-smaller-dies-5-ghz-cpus
Globalfoundries: 7 nm to Enable up to 2.7x Smaller Dies, 5 GHz CPUs
Apparently, the 7 nm process at Globalfoundries has received a shot in the arm from the integration of ex IBM engineering specialists (remember that IBM practically paid Globalfoundries to take its manufacturing division of its hands), and the company now expects better than foreseen technical specs and achievements of its 7 nm process.
 
Hejo schrieb:
Ganz so ist das auch nicht. Von Intel gab es mal eine Folie (die ich jetzt nicht suche) das der 10nm+ Prozess gerade so bei der Performance zum 14nm++ aufschließt.

Das ist auch so im Kontext der maximalen Transistorperformance. Leistungsaufnahme und Transistordichte skalieren. Allerdings ist das nichts neues. Es hat schon seinen Grund weshalb die maximal erreichbaren Taktfrequenzen seit Jahren nur geringfügig ansteigen und man deshalb in die Breite geht (mehr, fettere Kerne/Einheiten). Mehr als 5-10% höhere maximale Frequenzen (OC) als bei 14nm++ darf man auch bei 10nm++ nicht erwarten.

Betrifft GF und TSMC (14->7nm) nur deshalb nicht in diesem Maße da deren bisherige FinFet Prozesse keine echten Leading Edge Prozesse waren sondern primär Low Power. Der Sprung ist daher subjektiv größer. Mit 7nm ändert sich das und die technischen Limits (Transistoren, Verdrahtung) sind am Ende grundsätzlich für alle Marktteilnehmer die gleichen.

Die erste Generation von TSMCs 7nm Prozess welcher für mobile SoCs eingesetzt wird dürfte sicherlich genauso unterhalb von Intels 14nm++ Prozess angesiedelt sein. Das spielt für die aktuellen Kunden aber keine Rolle denn denen gehts um Low Power und möglichst viele Transistoren auf kleiner Fläche. Performance kommt mit der zweiten Generation. Auch Intels 14nm Prozess (Broadwell) hatte zu Beginn eine geringere maximale Performance als der Vorgänger (22nm).

Da die Transistoren immer kleiner werden ist es schon eine gigantische Herausforderung die überhaupt noch langfristig stabil und zuverlässig zu bekommen. Daher neue Materialien wie Cobalt statt Kupfer, Ruthenium
etc. und eine noch höhere Komplexität. Große Steigerungen der Frequenzen wird es zumindest auf SI Wafern mit den etablierten Verfahren nicht mehr geben.
 
Zuletzt bearbeitet:
SPs sind doch die ALUs. Die EUs werden bei Sisoft mit C oder CU angegeben. Dass der GT2 Vollausbau 64 EUs besitzt, ist doch aber eh längst bekannt.
 
99% der High-End-Kunden brauchen keine integrierte Midrange-Grafik. Denn diese 99% kommen entweder mit Lowest-End-Grafik aus oder brauchen High-End-Grafik und die gibt es nicht integriert.

Die integrierte Midrange-Grafik belegt aber rund 50% der Die-Fläche und das bezahlen alle mit.

Wäre Intel nicht so unendlich asslig würden sie eine Varianten anbieten die ohne Grafik weniger kosten oder die die Die-Fläche für mehr CPU-Kerne verwenden bei gleichem Preis.

AMD macht es richtig, bietet Chips mit und ohne Grafik an. Ich kaufe das nächste Mal AMD.
 
Crass Spektakel schrieb:
AMD macht es richtig, bietet Chips mit und ohne Grafik an. Ich kaufe das nächste Mal AMD.

Nun Du kannst auch XEONs nutzen für einen reinen Office/2D-PC. Wenn es aber um tausende Office-PCs geht ist AMD einfach keine Option, weil da der Stromverbrauch und Stabilität des Systems die einzig tragende Rolle spielt.

Insofern gebe ich Dir absolut Recht. Allerdings kann HDMI 2.0(a/b) auch für einen Office-PC eine Rolle spielen, je nach Display. Hier vernachlässigt Intel Kernkompetenzen um da mitspielen zu können, wo sie ohnehin niemals mithalten können.

Wer von der Geschichte (z.B. daß MS den Desktop geopfert hat zugunsten von Mobilgeräten, die sich niemals durchsetzen konnten) nichts lernt, der ist verdammt sie zu wiederholen.
 
Zurück
Oben