News Iris Xe Graphics: iGPU von Intel Tiger Lake mit 768 Shadern gesichtet

MichaG

Redakteur
Teammitglied
Dabei seit
Juli 2010
Beiträge
9.282

stevefrogs

Lt. Commander
Dabei seit
Jan. 2018
Beiträge
1.211
Also wenn die weiterhin auf vier Kernen stehen bleiben, wäre das wirklich sehr blamabel. Nicht, dass man es im 15W-Bereich unbedingt braucht für den Großteil der Kunden, aber wenn der Konkurrent es hat, noch dazu für niedrigere Preise, dann schaut man halt ziemlich alt aus mit einem Vierkerner.
 

DrillSgtErnst

Lt. Junior Grade
Dabei seit
März 2013
Beiträge
293
Also wenn die weiterhin auf vier Kernen stehen bleiben, wäre das wirklich sehr blamabel. Nicht, dass man es im 15W-Bereich unbedingt braucht für den Großteil der Kunden, aber wenn der Konkurrent es hat, noch dazu für niedrigere Preise, dann schaut man halt ziemlich alt aus mit einem Vierkerner.
Ich denke im 15W Bereich verschmerzbar, aber im 28W Bereich hat Renoir ja gezeigt, dass 8 Kerne schon was bewegen können. Klar 28 ist noch nicht 35... Aber nen 6 Kerner.
 

Makso

Commander
Dabei seit
Okt. 2006
Beiträge
2.524
Abwarten und Tee trinken. Erst müssen die es bringen und dann muss der Treiber Support auch passen. Aber je mehr Spieler desto besser.
 

Steini1990

Captain
Dabei seit
Okt. 2011
Beiträge
3.809
Ich finde es gut das Intel endlich von ihrer steinalten HD-Grafik wegkommt. Die hat schon soooooooooooooooooooooooooooooooo einen Bart. Nachdem die OEMs in den wirklich schönen Notebooks meistens nur Intel verbauen kann man es nur begrüßen das nun nicht unbedingt eine zusätzliche GPU nötig ist sobald nur leichte Grafikanwendungen in höherer Auflösung genutzt werden.
 

iNFECTED_pHILZ

Captain
Dabei seit
Dez. 2008
Beiträge
3.283
Xe wird richtig interessant. Bitte Intel, lass es nicht fallen nur weil man 1-2 Gens hinterher hängt und noch optimieren muss. Ihr habt die Kohle und die manpower, da muss was gehen.
 

sidewinderpeter

Lieutenant
Dabei seit
Mai 2008
Beiträge
790
Klingt nach wie vor vielversprechend. Wehrmutstropfen ist halt, dass Intel beim Fertigungsprozess nachhaltig hinterher hängt und das mit der Masse an Produktionsstätten vorerst wohl auch nicht besser hin bekommen wird, während AMD sich mit seinen "geringen" Auftragsmengen auf die Vertragsfertigung mit TSMC verlassen kann. Die ehemals AMD-eigenen Globalfoundries sind ja auch raus, genau deswegen. Nur Samsung bringt beides momentan unter einem Dach hin.
 

Makso

Commander
Dabei seit
Okt. 2006
Beiträge
2.524
@iNFECTED_pHILZ
Kohle ja, man power ja und es kam bis jetzt nichts raus. Denke eher das GPU Optimierung mehr braucht sonst würden diese nicht Mitarbeiter von AMD abwerben. Schauen wir mal Begrüßung tue ich es
 

Bigeagle

Lieutenant
Dabei seit
Nov. 2008
Beiträge
632
Prinzipiell spannend. Wäre noch spannender wenn ich die auch irgendwo in die Finger bekommen würde ^^
Aber bis ddr5 ram richtig draußen ist wird intel vermutlich noch nicht wieder aufgeholt haben.
Und es ist sowieso wieder amd dran.
Ich weiß dass ich damals von der intel grafik auf meinem i5 3570k recht überrascht war, damit ließ sich cs:s zocken, was mit den onboard grafikchips vorher unmöglich bis unvorstellbar gewesen wäre.
Nicht dass man als spieler darauf hängen bleiben wollen würde, aber das wissen dass nicht alles verloren ist wenn man mal ein, oder zwei wochen ohne graka (umtausch z.b.) auskommen muss ist recht beruhigend.

768 Shader bei wie vielen Sicherheitslücken? :freak:
Sicherheitslücken bei grafikshadern? zeig her.
 

Northstar2710

Ensign
Dabei seit
Aug. 2019
Beiträge
230
Ich hoffe das sie im GPU Bereich in den nächsten 5 Jahren zumindest im Mainstream Bereich gleichwertige gpu bauen werden. 2 Hersteller ist definitiv zuwenig.
 

Piktogramm

Vice Admiral
Dabei seit
Okt. 2008
Beiträge
6.503
Ich finde es gut das Intel endlich von ihrer steinalten HD-Grafik wegkommt.
Intel hat bei den CPU Kernen wie auch bei den GPUs mit jeder Generation Veränderungen eingeführt. Die Gen11 HD iGPUs sind aller Voraussicht nach näher dran an Xe als an der ersten Generation HD Graphics.

@Bigeagle
Eine GPU kann Programme ausführen und hat prinzipiell mittels DMA vollzugriff auf den gesamten Speicher des Hostsystems. GPUs als Angriffsvektoren sind etabliert[1]:
https://www.blackhat.com/docs/eu-16/materials/eu-16-Taft-GPU-Security-Exposed.pdf

[1] Ok, sinnlose Aussage. An sich ist das ganze digitale Computergeraffel kaputt und das große Wunder ist, dass es irgendwie funktioniert..
 

Mickey Cohen

Lt. Commander
Dabei seit
Mai 2015
Beiträge
1.832
ein neuer bewerber wird dem gpu markt gut tun.

was amd und nvidia momentan abliefern ist einfach nur noch eine frechheit.

treiberprobleme zu mondpreisen.
 

Bigeagle

Lieutenant
Dabei seit
Nov. 2008
Beiträge
632
@Piktogramm naja, DMA an sich ist aber keine besondere Sicherheitslücke, sondern ein Feature mit Konsequenzen. Wer will zurück zu PIO Modi für die Speicher? SSD mit 30 mb/s ansprechen? Vielleicht 300 wenn man einen großen Threadripper hat der dabei voll ausgelastet ist? XD
Steckt doch schon im Namen, seit mitte der 90er kann jede festplatte im system erstmal ungehindert amok laufen innerhalb des zugänglichen speicherbereichs. Oder nur deren Controller? Bin nicht sicher bei IDE :)
Nur dass eigentlich nicht der ganze speicher zugänglich sein sollte. kp ob es da lücken gibt, dürfte aber dann nicht am 'endgerät' liegen, sondern an der speicherverwaltung, also speichercontroller der heute zur cpu gehört.

Sicherheitslücke klingt eher nach codeausführung mittels laden von texturen oder ähnlichem. ich wüsste nicht so recht was noch naheliegend wäre. smt haben gpus afaik nicht, ebensowenig spekulative ausführung. multiprocessing mit getrennten speicherbereichen auch nicht wenn man sich so anguckt was man für grafikfehler bekommen kann wenn man beim zocken gpu-berechnungen laufen lässt.
es macht wenig sinn von einer lücke zu sprechen wenn keinerlei trennung vorgesehen ist. wo keine wand, da kein offenes fenster O.o
 

Sephiroth51

Lieutenant
Dabei seit
Mai 2009
Beiträge
672
Interessant, wie die Leistung am Ende aussehen wird und besonders interessant wird es, wie AMD darauf reagiert viel ändern werden die nicht können. Das Konzept wird schon fertig sein und die ersten Tests durchlaufen.

Wenn Cézanne wirklich mit Vega GPU kommt, würde ich gerne wissen warum - evtl. hat Navi in dieser Verbrauchsklasse noch keine hohe Effizienz?
 

Piktogramm

Vice Admiral
Dabei seit
Okt. 2008
Beiträge
6.503
@Bigeagle
DMA ohne Beschränkung ist immer eine Sicherheitslücke. Im Sicherheitsbereich wäre das jedesmal ein Fund, der in einen Bericht zu schreiben wäre. Dein "es macht wenig sinn von einer lücke zu sprechen wenn keinerlei trennung vorgesehen ist. wo keine wand, da kein offenes fenster O.o", ist genau das wo das Publikum auf entsprechenden Konferenzen anfängt zu lachen.

SMD, Out-of-Order etc. brauch es nicht für Sicherheitslücken. Gerade in Systemen wo GPU und CPU zusammen (gleichberechtigt?) an einem Speichercontroller hängen und auch noch Dinge wie PCIe Controller und SecurityEnclave um Speicherzugriffe kloppen. Da kann ausreichend viel schiefgehen.
 
  • Gefällt mir
Reaktionen: NMA

Fritzler

Captain
Dabei seit
Juni 2006
Beiträge
3.380
Sicherheitslücken bei grafikshadern? zeig her.
Auch wenn der Beitrag von equal eher getrollt war, so wird das in der Zukunft nicht mehr ganz so abwegig sein.
Browser unterstützen ja schon GPU Beschleunigung:
https://support.mozilla.org/en-US/kb/upgrade-graphics-drivers-use-hardware-acceleration
https://de.wikipedia.org/wiki/WebGL <- das nutzt die Seuche schlechthin (Javascript)
Wo ein nachgeladenes Javascript ist, gibts auch eine Lücke.
Nichtmal der DRAM ist sicher (Rowhammer)
 

tunichgut

Lt. Commander
Dabei seit
Okt. 2008
Beiträge
1.249
Gut zu hören , dass sich bei Intel Gpus sich was bewegt , bin aber etwas skeptisch ,
ob sie wirklich so schnell als 3.Player bei dezidierten Grakas zu den Etablierten aufschliessen werden.
 

andi_sco

Commodore
Dabei seit
Jan. 2018
Beiträge
5.062
Also wenn die weiterhin auf vier Kernen stehen bleiben, wäre das wirklich sehr blamabel. Nicht, dass man es im 15W-Bereich unbedingt braucht ...
Wie weit kann denn AMD denn da den Turbo halten? Wenn dann noch die Grafikkarte gefordert wird, ist das TDP Budget schnell ausgeschöpft.
Von daher sehe ich es nicht als negativ an, das intel "nur" 4 Kerne und 8 Threads hat.
Hauptsache die Software (Treiber) Unterstützung wird endlich besser.
 

Bigeagle

Lieutenant
Dabei seit
Nov. 2008
Beiträge
632
@Piktogramm ok, das war schlecht formuliert. aber dma an sich ist doch gewollt, denn alles wie 1980(?) über die cpu zu schicken ist einfach zu langsam. kp wann dma aufkam, zumindest bei festplatten offenbar erst mitte der 90er.
wie gut die speichertrennung funktioniert und ob das eine typische lücke ist weiß ich nicht. ich ging irgendwie davon aus dass man das hinbekommt. wohl zu naiv?

@Fritzler zum glück kann man das abschalten fürs reine html darstellen.
Aber liegt die lücke da in den shadern, oder im gpu-konzept?
 
Top