News Skylake-Technik: Intel erklärt Stromversorgung einer möglichen GPU

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.298
#1

Jimboy00

Cadet 2nd Year
Dabei seit
Feb. 2006
Beiträge
22
#3
Ich frage mich wirklich wo hier die Reise hingeht...

Wenn hier die Rede von einem High-End Grafikchip ist, würde mich interessieren, in welchen Märkten Intel hier aufmischen möchte und vor allem ob Highend-3D Anwendungen (VR / Games / Modellierung / Animation) auch im Fokus liegen.

Aus Intels Sicht hoffe ich, dass Raja Koduri einen guten Job macht, denn bei allen bisherigen iGPU's von Intel scheiterte es (im 3D-Bereich) häufig bereits bei Softwareproblemen und schlechten Treibern, obwohl z.B.: die Iris (Pro) Chips teilweise Potential hatten, bzw. hätten.
 
Dabei seit
Juli 2010
Beiträge
4.994
#4
Mir wäre eine neue Desktop CPU mit Iris Pro viel lieber. Meinetwegen ohne eigenen VRAM, aber dafür bitte mit 72 (oder mehr) EUs.
Die Windows Treiber mögen nicht so toll zu sein, aber unter macOS rennen die Teile sehr gut.
 
Dabei seit
Jan. 2015
Beiträge
2.905
#5
@benneque
Was würde das bringen?
Der zusätzliche EDRAM brachte ja erst die Bandbreite die nötig war um die Leistung zu erreichen.
Es gab ja auch ne Variante mit genau so vielen EUs aber ohne EDRAM, welche an der Speicherbandbreite verhungerte.
 
Dabei seit
Juli 2010
Beiträge
4.994
#6
Die neuen Ryzen laufen auch ohne EDRAM und sich dabei deutlich schneller als die Intel iGPUs. Hat natürlich auch was mit der Architektur zu tun. Aber AMD hat ja gezeigt, dass es möglich ist.

Im Prinzip würde mir ja die 2-3fache Performance meiner HD4600 reichen. Und genau das schafft AMD auch ohne dedizierten Grafikspeicher :)
 

duke1976

Lt. Junior Grade
Dabei seit
Feb. 2007
Beiträge
337
#8
Auch wenn Intel mehr Mittel als AMD hat, denke ich, dass es ein ziemlicher Kraftakt wird. Hat Nvidia nicht mal veröffentlicht, wie viele Ingenieure hinter dem Erfolg stehen? Ich lass mich jedenfalls überraschen. Dauert ja aber noch ein wenig, bis da was vorzeigbares kommt.

Einen kleinen Wunsch habe ich vielleicht doch: Wie wäre es, wenn Intel sich gleich voll auf Mining-GPUs speziallisiert? :evillol:
 
Dabei seit
Mai 2011
Beiträge
4.123
#9
Am Ende scheitert es bei Intel wieder an den Treibern. Glaube nicht, dass die in dem Segment nochmal einen Fuß auf den Boden bekommen.
 
Dabei seit
Nov. 2007
Beiträge
651
#10
Heißt das Intel wollte/hat immernoch vor ihre GPU auf PCI-E Steckkarten für Server anzubieten?
Da die Server Xeons ja keine GPU aufm Chip haben, würde man natürlich eine Lücke schließen können.
Weiß man vielleicht wie groß diese GPU wäre? Also Iris+edRAM / Execution Units ...

Und wie steht das Projekt zum Thema Quicksync?
Ist Quicksync überhaupt noch relevant?
Kenne mich damit nicht aus, weil noch nie genutzt.
 
Dabei seit
März 2017
Beiträge
351
#11
Zuletzt bearbeitet:

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
8.116
#12
Die Architektur bietet nun nichts revolutionär Neues. Was will man auch erwarten, ist ja schon ein paar Jahre alt. Ich frage mich, was das soll, denn mit dem Wechsel von Raja Koduri will man doch was kompetitives auf den Markt bringen und keine bestehende Architektur "weiterentwickeln", oder?
 
Dabei seit
März 2017
Beiträge
351
#14
Sinnvoll wäre schon ein dritter am Markt, Matrox ist ja auch tod und verbaut AMD Chips... ob die überhaupt noch entwickeln?

S3, die letzten waren die Chrome 540 GTX aber nur Lowend, die Gammachrome konnte man damals auch koppeln wie SLI/CF.

Tja PowerVR... aber ansich alles sinnlos im Gamingmarkt Fuß zu fassen, wenn dann nur als nische... dann aber auch die frage wozu, lohnt eh nicht.
 

nebulus

Lt. Commander
Dabei seit
Mai 2015
Beiträge
1.614
#16
Die sollten die IGPU rauswerfen und den Platz für mehr Cache und zwei weitere Kerne nutzen. ENDE.
 

Sanjuro

Lt. Commander
Dabei seit
Okt. 2006
Beiträge
1.140
#17
hnehin wird nicht erwartet, dass Intel erst mit der Einstellung von AMDs Ex-Grafikchef mit der Arbeit an einer neuen diskreten High-End-Grafiklösung begonnen hat.
ich würde auch kaum annehmen daß Sie hier ein Sheet eines ihrer fortschrittlichsten Projekte veröffentlichen würden, was hier gezeigt wird ist wahrscheinlich das kleinste Projekt bzw. die absolute Frühphase.

Aber trotzdem, so sehr ich die Möglichkeit begrüße, daß ein neuer Wettbewerber in naher Zukunft im GPU Sektor mitspielt, weiß ich nicht ob ausgerechnet Intel dem Markt gut tun würde. Wenn Sie es schaffen konkurrenzfähige Grafikchips auf den Markt zu werfen, kann es eigentlich nur 2 Szenarien geben:

1. Extrem billig, sodaß insbesondere AMD in Bedrängnis kommen könnte
2. sehr teuer, was vielleicht die Preislage insgesamt erhöht.
 
Zuletzt bearbeitet:
Dabei seit
Feb. 2012
Beiträge
2.697
#18
Ich denke Intels größte Prio bei dem Projekt wird der Eterprisemarkt sein. Sprich Beschleunigerkarten für Server. Nvidia setzt sie in dem Bereich ja ziemlich stark unter Druck und man braucht einfach etwas, was mehr parallele Rechnungen durchführen kann, als die Xeon Phis. Ob dabei Gamingkarten abfallen ist fraglich, würde mich aber auch nicht wundern.

Der Versuch mit der Gen9 Architektur wird wahrscheinlich ein Versuchsträger, um den Markt und die Technik dahinter auszuloten. Aber so sehr im Nachteil ist man damit ja auch nicht. Die Architektur ist zwar aus dem Jahr 2015, allerdings ist Nvidias Pascal auch nur ein geshrinkter und leicht optimierter Maxwellchip und die kamen schon 2014 auf den Markt. Und AMD ist jetzt auch nicht so viel weiter. Von daher sehe ich in der Grundarchitektur erst mal kein Problem.

Intel muss die schlechte Skalierung über viele EUs hinbekommen. Mehr Recheneinheiten haben sich nicht so sonderlich stark ausgezahlt und die GPUs wurden dadurch recht ineffizient. Daran muss Intel arbeiten, zudem scheint die Architektur sehr bandbreitenhungrig zu sein, dies wird man durch großes Caches und optimierungen anpassen müssen.

Und natürlich die Treiber. Ich denke das gezeigte ist eine Vorstufe um all diese Probleme anzugehen, während man mit Koduri im Hintergrund an einer wirklich neuen architektur arbeitet und darauf aufbaut.

Ich bin gespannt, ob dabei wirklich auch Gaming GPUs abfallen, dem Geschäft rund ums verteilte Rechnen, AI, Simulationen etc. wird es sicher zu gute kommen.
 

DFFVB

Lt. Commander
Dabei seit
Dez. 2015
Beiträge
1.180
#19
Ich sags euch Larrabee kommt zurück... ihr werdet euch noch an meine Worte erinnern.... :D
 
Top