News GPU-Gerüchte: Intels DG2 mit 6/8 GB GDDR6 oder als 960-EU-Flaggschiff

Makso schrieb:
Ich will unabhängige Test sonst nichts.
Die unabhängigen Tests wird es 2021 geben.
Das nächste Jahr wird also sehr spannend werden, denn es kommen noch die Gamingamperes unter der 3070, und die neuen Intel GPUs.
 
matty2580 schrieb:
Koduri war auch für Navi verantwortlich.
Da muss man unterscheiden: Als "Chef" der GPU-Sparte ist er sowohl für Polaris als auch Vega und Navi verantwortlich.

Nimmt man aber alle Gerüchte zusammen, auch die er - vermeintlich selbst - gestreut hat, dann ist aber nicht der leitende Entwickler/Architekt von Polaris als auch Navi gewesen, sondern nur von Vega.

Koduri war seit 2001 "Direktor für die Entwicklung neuer Technologien". Er hat also "Revolutionen" entwickelt - das kann er. Einige seiner Funktionen sind auch in die 9000er Serie und darauf aufbauend die x00er und x000er geflossen. An diesen war er beteiligt, die Archtektur hat aber jemand anders entworfen. 2006 ist er dann - im Zug der AMD Übernahme - zum Chef der GPU-Abteilung aufgestiegen mit einem Kollegen. Die 2000er hat er also, genau so die HD3000 (er ging 2009 zu Apple) zu verantworten, ob er aber der Architekt beider Architekturen war, kann man nicht nachprüfen. Das ist also eine Behauptung von mir!

2015 ist er dann als Chef-Architekt zurückgekommen, nur hier fängt es dann an: Polaris war zu dem Zeitpunkt schon quasi auf der Zielgeraden. Vega wiederum war sein Baby, was man aus den ganzen Infos usw. entnehmen kann. Navi wiederum soll auf Initiative von Sony entstanden sein. Es kann also gut sein, dass dem Team für Navi ein andere vorstand, der zwar an Koduri berichtete, sich Koduri aber auf Vega konzentrierte.

Und das passt zu den Gerüchen, dass Koduri angefressen war, dass man ihm Ingenieure von Vega für Zen als auch Navi abgezogen hat.

Verantwortlich also ja, aber ob er der Architekt ist, das kann man nicht verifizieren.,
 
  • Gefällt mir
Reaktionen: SirDoe, Rockstar85 und Benji18
Dann höre aber auf Koduri zu bashen, wenn wir gar nicht genau wissen wofür er verantwortlich war.
Er ist kein guter Rhetoriker/Verkäufer, so wie Huang.
Aber auch das kann man ihm nicht ankreiden.
 
Zuletzt bearbeitet von einem Moderator:
VPG_Danny schrieb:
Ich weiß nur noch nicht genau, was ich davon halten soll.

Weiß man ja nie, bis das Produkt mal da ist.

Einfach wie immer das Beste hoffen und das Schlimmste erwarten.

Taugt die GPU was, haben wir mehr Konkurrenz am Markt. Davon sollten langfristig alle profitierten.
Taugt sie nix, wird sie (sofern Intel keine 'supergünstigen' ;-) Bundle schnürt) wie trocken Brot liegen bleiben.

Als Notebook Nutzer könnte ich mir Vorteile vorstellen, wenn man iGPU und dedizierte GPU aus einem Haus hat und entsprechend keine Treiber von 2 Herstellern benötigt und zwischen diesen wechseln muss.
Nicht dass das aktuell ein Problem wäre, aber trotzdem.
Das Packaging könnte analog zu Kaby Lake G vlt. auch kompakter werden und kleinere Notebooks ermöglichen. Dell XPS 14/Lenovo P14 mit Octacore und RTX 2060 Performance.

Wir werden sehen.
 
Wenn ich lese , Intel wird sofort min. zu Amds RDNA2 Karten aufschließen
oder zu Nvidias Amperes , kann ich nur mit dem Kopf schütteln.
Ich bin auch für einen dritten Player , keine Frage, aber ich zweifle stark ,
dass es Intel so schnell gelingt.
 
  • Gefällt mir
Reaktionen: Dai6oro
MiningBoom kommt - da will Intel hin.

Gaming-Karten sind das nicht. Evtl. in 4 Jahren!?
 
engineer123 schrieb:
8 GB DDR6...

jo, muss Koduri bei Intel wohl doch kleinere Brötchen backen als er will.
Denke Intel wird froh sein, wenn sie eine 3060 Leistung in der 1. Generation erreichen.
Denke mit 6 und 8 GB sind sie schon mal besser aufgestellt im Einstiegsegment als nVidia
mit ihrem überteuertem Speicherkrüppel Ramsch !
Kann mir sogar vorstellen, dass INTEL in dem Segment günstiger sein wird als NV.
Letztendlich werden die Treiber das Zünglein an der Waage sein ...

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Smartbomb
Also das Modell mit den 960 EUs könnte wirklich ein Monster werden. Man könnte hier die Leistung spekulieren, indem man Benchmarkergebnisse von deren iGPUs hernimmt. Ich hab mal ein paar Benchmarks rausgepickt von der Website Notebookcheck:

Intel HD620 (24 EUs):
TimeSpy Score: 365
FireStrike Graphics: 934

Intel Iris Plus (48 EUs):
TimeSpy Score: 623
FireStrike Graphics: 1698

Intel XE G7 (96 EUs):
TimeSpy Score: 1297 Punkte
FireStrike Graphics: 4820 Punkte
(von der Leistung her zwischen GT 1030 und GT 1050)

=> Man könnte tatsächlich meinen die Leistung verdoppelte sich auch mit doppelten EUs. Und wenn dann wirklich die 10-fache Anzahl ist, wäre es schon RTX 2080 Ti Niveau...

Intel DG2 (960 EUs):
TimeSpy Score: 12970 🤔
FireStrike Graphics: 48200 🤔

RTX 2080 Ti (Desktop):
TimeSpy Score: 13518
FireStrike Graphics: 34316
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
v_ossi schrieb:
...
Als Notebook Nutzer... keine Treiber von 2 Herstellern benötigt und zwischen diesen wechseln muss.
...

Findest du bei AMD schon?!
 
Teralios schrieb:
Bei AMD hat er dann Polaris als auch Vega verantwortet, wobei Vega "sein" Baby war - was man so ließt in der Küche der Gerüchte.

Die Quellen, die es rund um das Thema gibt, stellen es eher so dar:
Das Team unter Chip-Designer Raja Koduri musste sich zu zwei Dritteln ausschließlich der Navi-Entwicklung widmen. Das führte zu einem schwachen Vega-Produkt, mit dem Chip-Ikone Raja Koduri mehr als unzufrieden gewesen sein soll

Demnach wäre eine starke Architektur (NAVI) mit ihm entstanden. Also doch kein Maulheld?
Du führst ja oben deine Gedankengänge näher aus.... Letztenendes kann man nur vermuten, was da alles vorgefallen ist....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
@franzerich
Deine hypothetische Rechnung klingt gut - 280w auf 2080ti Niveau und dazu vllt noch preiswert - ok.
Ich glaub nicht dran.
Die Treiber bei Intel sind leider wirklich nicht gut.
 
@andi_sco Schon, aber Geizhals listet nur 9 reine AMD CPU+GPU Notebook Modelle. Damit ist die Auswahl doch recht beschränkt.

Ist wie gesagt eh kein KO Kriterium, aber vlt. taugt so eine Kombination ja was. Abwarten.
 
VPG_Danny schrieb:
Der Gedanke kam mir auch zuerst. Mit dem "EVO" Branding hat Intel schonmal im Mobile Bereich der 15W "U" Klasse dedizierte GPUs von Fremdherstellern ausgeschlossen. Ich schätze man wird seine eigenen GPUs auf längere Sicht aber in dieses Branding einführen. Dann gibt es nur "EVO" Sticker, wenn Intel CPU+GPU nach Intels Nase in genau vorgeschriebenen Konstellationen verbaut werden.
Das würde dann aber keinen Sinn ergeben. 15W "U" soll ja schlank und sparsam sein. Wenn sowieso alles aus einer Hand kommt braucht man ja keine dedizierte GPU sondern kann einfach von vornherein genug Power in die integrierte Grafik packen. Das wäre dann sicher effizienter. Wer mehr Leistung braucht kann dann auch eine höhere Leistungsklasse wählen. " Tiger Lake-H: CPU-Kerne auf 8 verdoppelt, GPU auf 1/3 reduziert ", da kann man dann beliebig dedizierte GPUs mit kombinieren. Bei den "U" CPUs stimmt dann ja irgendwann die Balance zwischen CPU und GPU nicht mehr, wenn die integrierte Grafik im Verhältnis schon so fett ist.
 
  • Gefällt mir
Reaktionen: ZRUF
easy.2ci schrieb:
Ganz große Baustelle bei Intel sind mMn auch die Treiber.

Sehe ich auch so. Solange es um 2D geht geht's einigermaßen, obwohl wir mit Intel Laptops auch da schon mehrmals Probleme hatten die mit Nvidia oder AMD CPUs, letztere speziell apus eigentlich gar nicht hatten. Teilweise trivial... Neue dell Laptops wollen mit dem Beamer nicht etc während Probooks mit APU nie zicken. Schlimmer aber 3d mit imaris. Extra ein skulltrail nuc angeschafft das dann deutlich Texturflimmern zeigt.

Grundsätzlich cool das Intel bei der gpu aufrüsten wird, aber treiberzeitig werden sie sich beweisen müssen
 
Vielleicht kommt Intel ja auf die Idee, diverse Virtualisierungsfeatures usw., die'm bei der Konkurrenz nur zu seeeeeehr hohen Preise gibt, in die Consumer-GPUs zu integrieren. Damit könnten die ein paar Fans bekommen.
 
Sorry, aber da bin ich dann doch seeeehr skeptisch. 7680 ALUs? Also 2560 mehr, als bei BigNavi (Link )?
Selbst Nvidia würde ja nur gerade so mit ihrer "interessanten" Zählweise der 128er FP32 Schaltung (statt 64FP32+64INT64) gerade so darüber kommen (8704 bei RTX 3080 und 10496 bei RTX 3090).
Also entweder wird da auch "komisch" gezählt (d.h. es sind dann nicht die volle Anzahl, also 7680, INT32 gleichzeitig nutzbar), oder die oberen Karten sind Workstation/Server-Karten, die nicht fürs Gaming gedacht sind.
Anders kann ich mir das zumindest nicht vorstellen. Das wäre schon extrem merkwürdig, wenn Intel direkt bei ihrem (wiederholten) GPU-Debüt in der High-End-Klasse (zumindest von den Specs her) mitspielen könnte. Alles andere macht halt auch wenig Sinn bei diesen Daten (also der große Chip im Mid-Low-End Segment), da das reichlich unwirtschaftlich wäre (Kühler müssten auch entsprechend dimensioniert sein etc.)
Ich bin ja mal gespannt, was dann da wirklich am Ende rauskommt.
 
Die sollen mal lieber beim NUC J5005 / UHD605 endlich auch den HDMI Patch bringen damit ich nicht zwei mal den TV einschalten muss um ein Bild zu haben und HDR freigeben, die Hardware kann dass nur der Treiber will nicht.

mfg
 
v_ossi schrieb:
Weiß man ja nie, bis das Produkt mal da ist...

Das ist natürlich richtig und versteh mich nicht falsch, ich wäre absolut dafür zukünftig 3, statt 2 und dazu möglichst gleichstarke Konkurrenten zu haben. Mir geht es lediglich darum, das dies alles fair und durch die Kraft der Hardware, nicht der Schummeleien und grenzwertigen Marketing Tricks (Die üblichen, nicht "Grauzonen Tricks" mal außen vor) erreicht wird.

Ich bin so einer, der sich dann auch 'nen Threadripper hin stellt, alle drei Karten rein packt und schaut, welche für meinen Usecase (DaVinci Resolve/Fusion, Blender, Games) die besten Ergebnisse bringt.

markox schrieb:
Das würde dann aber keinen Sinn ergeben. 15W "U" soll ja schlank und sparsam sein. Wenn sowieso alles aus einer Hand kommt braucht man ja keine dedizierte GPU sondern kann einfach von vornherein genug Power in die integrierte Grafik packen. Das wäre dann sicher effizienter. Wer mehr Leistung braucht kann dann auch eine höhere Leistungsklasse wählen. " Tiger Lake-H: CPU-Kerne auf 8 verdoppelt, GPU auf 1/3 reduziert ", da kann man dann beliebig dedizierte GPUs mit kombinieren. Bei den "U" CPUs stimmt dann ja irgendwann die Balance zwischen CPU und GPU nicht mehr, wenn die integrierte Grafik im Verhältnis schon so fett ist.

Ich habe mich da etwas unvollständig Formuliert. Ich meinte damit, das Intel versuchen könnte, diese restriktionen mit EVO(+) Branding auch in die 45W+ Klasse zu bringen und damit andere Hersteller für das Label auch in größeren Notebooks ausschließt und dann via extrem-Marketing ein "kein EVO+, dann ist es Scheiße" in die Köpfe der durchschnittlichen Kunden hämmert.
 
.Sentinel. schrieb:
Demnach wäre eine starke Architektur (NAVI) mit ihm entstanden. Also doch kein Maulheld?
Das wird sich jetzt zeigen müssen. Er hat bisher den Mund immer sehr voll genommen, jedoch nicht oder eben nur bedingt geliefert.

Alles was er bisher zu verantworten hatte als Chef der GPU Entwicklung war durchwachsen. Tolle Ideen hat er, steht ja drin. Nur bisher hat er sich eben dabei auch oft vergallopiert.

Er hat bei Intel einen Vorteil: Gute Software-Entwickler die auch verstehen ein Compiler zu bauen. Intel könnte also Rajas Ideen umsetzen.

.Sentinel. schrieb:
Die Quellen, die es rund um das Thema gibt, stellen es eher so dar:
Was eine Übersetzung aus dem Englischen ist und damit schon einer Interpretation unterliegt und damit dann um den Faktor 2 zu den Spekulationen gehört.

Es gibt viele Indizien die dafür sprechen aber auch dagegen das er Navi als "Architekt" betreut hat. Einzige was Fakt ist: Er hat den Mund bei Vega zu voll genommen. Alles weitere gehört zu recht in die Gerüchteküche.

Nur wenn Raja oder sein Kollege vom Marketing, die ja beide bei AMD arbeiteten, was sagen, bin ich skeptisch.

Und dass ist auch der Unterschied zur Leder Jacke @matty2580 : Raja hat bisher den Mund oft vollgenommen und nicht geliefert. Die Lederjacke ist mir unsympathisch bis zum geht nicht mehr, nur wenn der auf der Bühne steht und sagt. dass sie was geiles haben. dann haben sie das in der Regel auch.

Raja ist eben kein Jim Keller. Letzteres hält sich eher zurück mit seinen Aussagen und lieferte dann oft ab.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Zurück
Oben