Notiz GPU-Gerüchte: Intels erste diskrete Grafik nur mit 96 EUs?

Na mal schauen....

Normaler Weise sagt man ja, Konkurrenz ist gut für das Geschäft. Leider stimmt das nicht immer.

Bei den zu erwartenden Leistungsdaten, sollte man evtl. jetzt schon über eine Zielgruppe nachdenken, die nicht besonders viel Wert auf Zahlen legt.

Eine LXXXVIII EU (Execution Units) Graka mit je VIII SS (Super Shader) hätte doch z.B. bei den Menschen, die keine arabischen Zahlen leiden können, eine gewisse Zielgruppe. :evillol:

Das ganze dann noch schön in Blau gehalten, mit einem kleinen braunen Touch und der Witz wäre perfekt.

Im Jahr 2020 late sehe ich aktuell keinen Grund solch ein Produkt zu bringen....abwarten....wenn es keiner kauft ist das schnell "erledigt".

mfg
 
Dreifuß schrieb:
Hallo.

Ich werf das mal einfach hier rein.
INTEL iGPUs gehören zum größtem Markt den man bedienen kann.

HighEnd Gamer sind der kleinste markt...

Was fehlt an Info ist das INTEL die DG1 GPU und die Interne auf den CPUs in kombination nutzen will.
So eine Lösung wurde schon mal LIVE demonstriert. Nicht dirkt von INTEL aber technisch möglich.
AA z.b. komplett auf iGPU ausgelegt.

Und damit wäre INTEL sehr wohl in guter possition von lowbudget bis Mittelfeld

und im reinen Desktopbetrieb wäre die dedizierte aus. Herrlich.

sowas wünsche ich mir übrigens auch von ner Vega APU & desicated GPU in einem System.
 
Shoryuken94 schrieb:
Wartet doch einfach ab.
Intel erste Prototypen, waren IGP Chips (teils CPUs mit IGP) aktiviert auf PCB. Somit ist stark anzunehmen, dass es am Ende ahnlich ausfallen wird. Erstes Ziel wird sicher weniger Risikobehaftet sein und eher mal ein fertiges Produkt auf den Markt zu bringen. Es wurde schin erwähnt aber die meist verkauftesten GPUs ind Notebook und OEM PCs haben doch meidt nur eine 1650 oder 1050 GTX. Dort erwarte ich auch Intel.
Ich hatte mal gelesen, dass einige Hardware Fetures aus der IGP entfernt wurden und diese in den Treiber gewandert sind. Bedeutet zwar mehr Treiberaufwand, aber auch mehr Performance. Solche Schritte erwarte ich mir, denn sowas hat AMD bei GCN gemacht aber auch NV als man weg von Fermi zur next Gen ist.
Man sollte sich einfach nicht auf die IGP aufhängen. Wie gesagt, meist limitiert ja dort das SI. Auch ein Vega 11 CU könnte mehr. Wissen wir ja von Vega 20 Pro ( 20 CU Vega Chip) dass man trotz kleiner TDP viel rausholen kann. Das war auch mehr als Polaris 11 an Performance (siehe apple)
 
  • Gefällt mir
Reaktionen: Transistor 22
DJ2000 schrieb:
Für den OEM Sektor reicht ein "nettes" Paket aus CPU+GPU das halbwegs wettbewerbsfähig sein muss um Nvidia attackieren zu können.


Warum sonst Krümel von AMD einheimsen wollen, wenn es Kuchenstücke bei Nvidia gibt.
Also ich denke mal, NV werden sie damit nicht im Visier haben, eher die "Krümel" von AMD. Wenn in den Laptops was von NV verbaut ist (von diesen komischen MX-Karten mal abgesehen) hat das einiges mehr Leistung als Intel. Hier ist eher der Gegner die rote Franktion mit den APU's.

violentviper schrieb:
Läuft damit Crysis?
Immer diese langsam irgendwie langweilige Frage? Möglicherweise ja, aber aussehen wird's nicht sonders gut.
 
teufelernie schrieb:
und im reinen Desktopbetrieb wäre die dedizierte aus. Herrlich.

Da ich so etwas wie ein "Gaming Book" (Schenker XMG mit "kleiner" gtx1070) verwende, funktioniert das mit dem Intel onboard Zeug und der Nvidia ganz "brauchbar".

Irgend wie gibt es immer noch Probleme mit G-Sync....Einfacher ist die 1070er immer zu verwenden (kostet 5-7 Watt) und dafür das Sync dauerhaft zu haben. Wenn man ständig hin und herschaltet, funktioniert das "bescheiden".

Daher verzichte ich persönlich lieber auf 10 min Akku (länger als 2-3h hält so ein Bomber sowieso nicht durch) und zwinge die Graka zur Not bei wenigen Hundert Mhz zu bleiben, wenn ich z.b. mal ein Full-HD Video komplett sehen will ohne Stromanschluss, welches länger ist als 2h.

Hardware für "Nerds" mit "Nerdansprüchen" ist out of the box immer Mist. Da muss man selber Hand anlegen.

Im Zweifel fahr ich runter (dauert mit PCIe-SSD) 5 Sec, geh ins Bios, mach die Graka aus, fahr wieder hoch (dauert 7 sec) und gewinne nahezu 30min, wenn ich nur doof den Desktop anschaue.

Schon wenn die i7 6700HQ ordentlich saugt, ist sowieso nach 1h schluss....wo soll der Saft herkommen bei 55Watt Stunden im Akku und 45 Watt Verbrauch alleine von der CPU?

Dedizierte GPU´s und Laptops sind unvernünftig aber schön....die werden nicht besser, wenn man eine schwachsinnige winzig GPU neben die CPU klebt, die Silizium verbraucht, Geld kostet und dann meistens aus ist.

Irgend wann muss man auch mal aufhören, die Quadratur des Kreises verkaufen zu wollen. :smokin:

Das geht...am Ende ist es ein Kreis, mit unendlich vielen 90 Grad Ecken die keiner mehr sieht und nur auf dem Papier der Mathematiker existiert, die sich selten für physikalische Gesetze interessieren.

Halbieren kann auch niemand in der realen Welt :heilig:

mfg
 
Intel wird sich treiber technisch schon was einfallen lassen wann die iGPU zu und abgeshaltet wird.
INTEL intern wird das schon.

Wie es später aussieht (wenn überhaupt nach was) mit APUs ist eine andere Geschichte
 
Kenshin_01 schrieb:
Also ich denke mal, NV werden sie damit nicht im Visier haben, eher die "Krümel" von AMD.
Wie denn? AMD GPUs werden meist mit AMD Ryzen verbaut. Teils wird Ryzen aktuell mit NV verbaut.
Wenn wird es NV betreffen, weil NV die meisten GPUs im OEM Sektor verkaufen und da ist es wie erwahnt besonders in Notebooks 1050er oder 1650er Karten.
Intel muss nur eines tun. Ihre CPUs mit ihren GPUs Bundlen bzw rabattieren.
Wenn man eine GPU quasi schon geschenkt zu einer CPU bekommt und sie nur annähernd nahe der Performance einer 1050 kommt, kannst du dir 3 mal überlegen ob man dann einen weiteren Anbieter Geld zahlt.

Wieso also wirbt NV mit den starken GPUs und RTX, weil man sich hier noch sehr gut von der Konkurrenz distanzieren kann.
 
  • Gefällt mir
Reaktionen: DJ2000 und [wege]mini
Dass Intel sich mehr in den Garfikkartenmarkt investiert liegt weniger daran, dass man den Platzhirschen Nvidia und AMD Anteile abluchsen möchte sondern daran, nicht vom Markt abgehängt zu werden.
Warum?
Na ganz einfach, bisher waren die integrierten Grafikkarten ausreichend um ein Bild darzustellen, die meiste Arbeit machte dabei weiterhin die CPU. Viele schwärmen von Intels groß angelegten Angriff auf den Markt mit dedizierten Gamingkarten. Es ist zunächst überhaupt nicht Intels ansinnen diesen Markt zu bedienen. Sie wollen damit nur am Ball bleiben!
Denn der Markt (OS und Software) nutzen immer häufiger Funktionen die typischerweise eine Graka besser verrichtet. Hier würde Intel der Markt davonlaufen, falls sie nicht reagieren. Im speziellen AMDs APUs werden hier Intel gefährlich, auch wenn die integierte APU nicht wirklich der Hit ist. Für den Mehrwert den Software mittlerweile/aktuell selbst von einer integrierten Graka erwartet, reicht es jedoch. Wir reden also über Lowend.
Bis Intel mit seinen diskreten Grakas an Nvidia oder selbst AMD herankommt vergehen noch Jahre!
Ich würde mich sogar soweit aus dem Fenster lehnen und behaupten sie scheitern......erneut.

Folgende Fragen sind hier interessant
  • Kann Intel mit AMDs iGPU mithalten? ( Meiner Meinung nach müssen sie die Leistung einer iGPU von AMD nicht überflügeln, aber eben dicht dran sein)
  • Wie sieht der Leistungshunger der beider iGPUs im Vergleich aus?
  • Wo will Intel die Grakas fertigen? Die eigene Fertigung ist ausgelastet, wenn sie extern fertigen lassen fällt der "Vorteil" der eigenen Fertigung weg. Preislich spielen sie somit auf dem gleichen Schlachfeld wie NV+AMD.
Gut sie könnten, ob ihres üppigen Finanzpolsters, die Teile zum EK verkaufen. Aber wer/was zahlt dann die Entwicklung?

Leider waren Intels vollmundige Ankündigungen der vergangenen Jahre nicht der Hit, schon gar nicht auf den zweiten Blick. Da kann man nur hoffen, dass es Intel gelingt, dass ihre DG1 auch einem zweiten Blick standhält.
Bin gespannt!

Zum Thema Spekulationen bei Computerbase. Und nein ich möchte Spekulationen nicht gut heißen.
Aber!
Wenn ein Hersteller übermäßig die Werbetrommel durch Ankündigungen rührt ohne auch nur was in der Hand zu haben oder der Fachpresse in die Hand zu geben, über das sich berichten läßt. Dann bleiben drei Möglichkeiten.
1. entweder man spielt das Spielchen des Herstellers mit und wartet bis zum St. Nimmerleinstag oder
2. man sammelt Informationen aus dem Internet, bewertet sie vorab und gibt sie als Spekulation wieder, oder
3. man schweigt sowohl zu Spekulationen und konzequenterweise auch zu Ankündigungen. (gut dann kannste zumachen)
 
  • Gefällt mir
Reaktionen: DJ2000
pipip schrieb:
in Notebooks 1050er oder 1650er Karten.

Wenn der nächste Knaller von AMD nicht eine GTX1050 mit seiner onboard APU "nass" macht, wären wohl alle enttäuscht. Wie "schnell" das ist, hängt davon ab, ob HBM verbaut wird oder nicht. Vega kann den ja aber problemlos und geregelt wird es meist sowieso über den Preis.

Das Zeitfenster für eine dedizierte Graka mit dieser Leistung ist heute schon nahezu geschlossen. Wem will man so etwas 2020 verkaufen?

Die Desktop APU von AMD wird bei 100 Watt eine 8 Kern Zen2 haben, die nahezu die Leistung einer "normalen" heutigen Desktop CPU hat und dazu eine 5500XT drauf legt. (sagt meine Glaskugel)

Das wird die neue Messlatte und die kann man dann nach oben (ist schon fast der Peak) und unten skalieren.

Leistung einer GTX1070 erwarte ich persönlich z.B. für 2021 late in APU´s von AMD :evillol:

Dann wird die Luft richtig dünn, für eine diskrete Graka bei "Daddel Games".

mfg
 
Leistung auf Niveau meiner 1050.

Wenn Intel Quicksync beibehält wird das meine neue Grafikkarte. 😉



Was hier manche zusammen fantastieren ist schon extrem, als vergleich eine 3400g igp mit 1,9 TFLOPS ist um nichts schneller als eine GT 1030 mit 1,2 TFLOPS.

Es bringt bei Dualchannel genau nichts das noch weiter anzuheben außer für Compute.
 
KraitES schrieb:
ist um nichts schneller als eine GT 1030 mit 1,2 TFLOPS.

Das ist in etwa 1/8 der neuen Konsolen und dass wir die 20 TFLOPS Karten 2020 sehen werden, sage ich ja nun schon länger.

Das skaliert man jetzt ausnahmsweise mal linear.

300 Watt = 20 Tera. Dann landet man bei round about 75 Watt für 5 Tera oder realistischeren 50 Watt, die man aktuell bauen kann, wenn Geld keine Rolle spielt.

KA, wer 2020 late eine Karte kaufen soll die Geld kostet, Ressourcen verschwendet und evtl. im Jahre 2018 ein gutes Produkt gewesen wäre.

Wenn es irgend einen Sinn ergeben würde, könnte man sogar Wetten abschließen, ob die Karte evtl. sogar dann einen negativen Geldwert "kostet", damit die OEM´s auf gar keinen Fall die Mitbewerber verbauen. :evillol:

mfg
 
Spielt im hier und jetzt keine Rolle, aber mal ein kleines Gedankenspiel bez. Marktmacht bei OEMs.

Intel: Ihr wollt unsere CPUs ? Die gibts nur im "Rabatt"Bündel mit unserer GPU.
AMD: Ihr wollt unsere CPUs ? Die gibts nur im "Rabatt"Bündel mit unserer GPU.
Nvidia: Ihr wollt unsere GPUs? Die gibts mit ...... ARM?

Prof. GPU Lösungen wie zb. Nvidia's Quadro-Karten blieben wohlgemerkt aber erstmal unbetroffen.
 
  • Gefällt mir
Reaktionen: [wege]mini
DJ2000 schrieb:
Gedankenspiel bez. Marktmacht bei OEMs.

Marktmacht ist das falsche Wort.

Die real existierenden Kosten einer 14nm CPU, gebaut von einer mehrfach abgeschriebenen Fabrik, mit einem Präsidenten im Hintergrund der "america first" fordert und dich mit Subventionen zuballert, sind einfach so winzig, dass du Rabatte geben kannst, bis der Arzt kommt.

Der real existierende Preis den wir bezahlen, hat doch nichts mit irgend einer Realität zu tun. Nur mit der Zahl, die der Käufer bereit ist zu zahlen.

Warum soll ich für 100 verkaufen, wenn ich bei 1000 immer noch nicht genug produzieren kann, weil mir alle die Bude einrennen :smokin:

Daher ist bei Intel halt die Möglichkeit der "Preismanipulation" halt sehr einfach. Wenn die OEM´s dann gefallene Preise nach unten durchreichen würden, hätte das ja aber auch Vorteile.

mfg
 
  • Gefällt mir
Reaktionen: DJ2000
matty2580 schrieb:
Ursprünglich war bei Intel geplant, in der Effizient mit Nvidia gleich zu ziehen, eigentlich so gar Nvidia zu schlagen, bei gleicher Leistung, und besseren Preis. Sollte man bei Intel diese Ziele (halbwegs) einhalten können, klingt dass doch gar nicht so schlecht für die erste dGPU von Intel.

Laut neuesten Gerüchten sieht es nicht so gut aus:

Intel DG1 GPU Will Be 23% More Powerful Than Tiger Lake, Struggling To Meet 25W TDP
https://wccftech.com/intel-dg1-gpu-...l-than-tiger-lake-struggling-to-meet-25w-tdp/
The interesting thing about this rumor is that DG1 was obviously only going to be a training vehicle for Intel to cut its teeth into the world of dGPUs but we have previously heard rumors that Intel wasn't able to get any AIB on board to trial run DG1. While this is understandable considering no AIB would want to be the guinea pig for Intel to learn the ropes, another potential reason for this refusal has emerged: Intel unable to control the TDP envelope of the platform.

Before we go any further, here is what the Reddit thread states:

New news from Intel insiders this weekend. DG1 is not shaping up very well at all.

In terms of performance DG1's envelope is stated to be Tiger Lake + ~23%.

Thermals/Power is looking to be dismal as Koduri is having a hard time reigning in DG1's power envelope. Anyone that has followed his GPU designs know that this has been his downfall forever.
Intel does actually have a couple of notebook design wins currently but it was explained to me that these were deals to lend a bit of legitimacy to Koduri's program, rather than to actual translate to sales/profits. It was stated that Intel would "give these things away," if it had to.
The real question now is should we expect to see Koduri still be working for Intel after Q3'20? If not, you can expect to never see DG2 make its way to a retail product.
The thoughts of Intel actually being a player with the likes of AMD and NVIDIA in the world of GPUs is slowly slipping away.


Anfang Dezember gab es schon einmal ähnliche Berichte:

Intel Xe GPU Based Discrete Graphics Card Rumors: Progress Not Going Well With Efficiency Reportedly Being Lower Than Competitors
https://wccftech.com/intel-xe-gpu-discrete-graphics-cards-progress-not-going-well/
The rumor once again comes from Chiphell user "wjm47196", who has stated some key details regarding the Intel Xe GPU which is coming next year. The first thing which he points out is that progress on Intel Xe GPU isn't going well. Do keep in mind that this is the first iteration of the Xe GPU which is being talked about and not the 7nm revision which would be featured in the Ponte Vecchio graphics chip. For those who don't want to read through all of this, the following are the key points from the rumor:
  • Progress Isn't Going Well on Xe GPU
  • Ponte Vecchio HPC GPU May Not Launch Within the Next 2 Years (2022)
  • The efficiency of Xe GPU is really low compared to competitors
  • No AIB Support on Launch, only reference models for discrete graphics cards sold by Intel
  • Drivers need a lot of time to improve
 
Drakrochma schrieb:
Also für Intel-Verhältnisse würde ich das als positiv ansehen.
Endlich mal keine komplett unrealistisch überzogenen vorankündigung sondern was realistisches.
Wenn man sonst das Marketing des Blauen Riesen anguckt, ist es geradezu furchterregend zurückhaltend. Für mich deutet das eher auf eine LostGen hin .Ob dann noch lange dran festgehalten wird, wäre auch so garnicht Intelstyle.

Ich persönlich glaube sowieso, dass die Intel Consumer GPUs eher Luftnummern werden. Intel hat die Zeichen der Zeit verstanden, Blockchain war nur ein Auswuchs eineS größeren Trends. NVIDIA macht es vor mit ihren GPUs im Computingsegment. Ich glaube, Intel zielt eher darauf sich KnowHow anzueignen, um in dem Bereich nicht abgehangen zu werden. Ich tippe auf GPUs im Vegastyle. GPUs die auch Gaming können, aber eben nicht primär.

Diese ganze Gaming Marketing Ansage, ist für mich ein reiner Ablenkungsversuch von den aktuellen Problemen.
Der Markt für Gaming ist weder lukrativ noch stark wachsend. Da ist außer Verluste und Wissen nichts drin für Intel.
Ergänzung ()

teufelernie schrieb:
und im reinen Desktopbetrieb wäre die dedizierte aus. Herrlich.

sowas wünsche ich mir übrigens auch von ner Vega APU & desicated GPU in einem System.
Geht schon lange. Im Notebook ist das Standart und im Desktop über Tricks erreichbar (Ehemals Optimus bei NVIDIA). Ist allerdings mit massivem Aufwand verbunden.
Dazu gibt es meistens noch nen Schnittstellenproblem (Bildschirm muss zwingend immer an die iGPU, damit fällt G-Sync weg und Freesync meistens auch). Dazu hat man dann auch meistens nur HDMI 1.4. Bringt eher nur Nachteile als einen Vorteil.
Die aktuellsten GPUs gehen sowieso in einen so niedrigen Zustand, dass man eventuell nur ein paar Watt spart.
 
Zuletzt bearbeitet:
Salutos schrieb:
Viele schwärmen von Intels groß angelegten Angriff auf den Markt mit dedizierten Gamingkarten. Es ist zunächst überhaupt nicht Intels ansinnen diesen Markt zu bedienen. Sie wollen damit nur am Ball bleiben!

Das wird sich Intel realistisch betrachtet auch gedacht haben.
Aber ich könnte mir vorstellen , das sie mit integrierter Grafikeinheit , und in 4-5 Jahren eher für Microsoft u Sony interessant werden könnten, nachdem so Experimente wie Cloud Gaming nicht so richtig anlaufen wollen ,gehts vielleicht doch weiter mit Hardware zu Hause.

Denn Konsolen zielen ja nicht unbedingt auf absolute Highend Derivate ab , und der Zeitraum wäre zu mindestens machbar mit der Manpower u zusätzlichen Experten,die man sich ins Boot geholt hat

In 4 Jahren Entwicklung sich mit Branchengrößen im Highendsektor anzulegen, die darin 25 Jahre Erfahrung haben ,sind einfach Luftschlösser
 
Zuletzt bearbeitet:
Dreifuß schrieb:
Hallo.

Ich werf das mal einfach hier rein.
INTEL iGPUs gehören zum größtem Markt den man bedienen kann.

HighEnd Gamer sind der kleinste markt...

Was fehlt an Info ist das INTEL die DG1 GPU und die Interne auf den CPUs in kombination nutzen will.
So eine Lösung wurde schon mal LIVE demonstriert. Nicht dirkt von INTEL aber technisch möglich.
AA z.b. komplett auf iGPU ausgelegt.

Und damit wäre INTEL sehr wohl in guter possition von lowbudget bis Mittelfeld
Das hat AMD schon versucht und ist fürchterlich fürchterlich auf die Schnauze gefallen. Crossfire mit einer kleinen dGPU und einer gleichstarken APU (Grafikteil) hat Original garnichts gebracht. Sondern nur die durch MultiGPU Systeme eingekaufte Probleme. Die dGPU ohne APU war gleichschell. Gaming hat leider dauernd schwankende Anforderungen an die Hardware innerhalb einer Gamingrunde. Die Anforderungen an Cache und Bandbreite ist erhöht und kann bis jetzt noch nicht gestemmt werden.

Jetzt könnte man mit der reinen Computepower argumentieren, aber wer die Teile Professionell nutzen will, kann meistens garnicht genug Power haben. Gegen ne Quadro oder ne Mxx GPU hat so eine Kombi immer das Nachsehen.

Mag vielleicht sein, dass so ne Kombi mehr „Performance pro Watt“ hätte, aber der Markt für Personen, die mobil niedrige durchschnittliche Computepower dauerhaft so lange wie möglich brauchen ohne eine externe Stromversorgung zu Verfügung zu haben, ist äußerst gering.
 
[wege]mini schrieb:
KA, wer 2020 late eine Karte kaufen soll die Geld kostet, Ressourcen verschwendet und evtl. im Jahre 2018 ein gutes Produkt gewesen wäre.
Wieso nicht?,
weil es deinen Horizont übersteigt und du dir einbildest das Spielspass grundlegend aus Grafik zu bestehen hat.

Also ich spiel wie wohl auch viele andere außerhalb der Grafikh**en Bubble ein Spiel weil mir desen Aufbau, Handlung, Story, Freiheit etc. gefällt
 
matty2580 schrieb:
GPU-Entwicklung ist sehr teuer, und es gibt nur wenige Spezialisten weltweit dafür.
Jetzt mit J. Keller [...]an Board, [...] ist Intels GPU-Bereich personell sehr gut aufgestellt.
Nur das Jim Keller nix mit GPUs am Hut hat.

Und bzgl Koduri finde ich es recht amüsant das er bei AMD tätig, hier von diversen (Nvidia und Intel) Fanboys mit Häme überzogen wurde, und jetzt gefeiert wird.

Nun gut, die Zeit wird es zeigen.
 
  • Gefällt mir
Reaktionen: HaZweiOh
Zurück
Oben