News Intel DG1: Iris Xe Max jetzt auch als PCIe-Desktop-Grafikkarte

Also nach allem was man nun weiß über DG1 (Danke Dir Igor! @FormatC), Tom'sHardware hat die Karte ja mittlerweile auch getestet (Intel Xe DG1 im Benchmark: Kampf der Schwächlinge unter den GPUs) und ihr Fazit war doch sehr, sehr ernüchternd;

The GT 1030 GDDR5 came in 8% faster in average fps and 24% faster in 'minimum' fps, and that's by no means a fast graphics card. You can see AMD's Vega 8 in the 5700G easily beats the 1030 GDDR5, and the other higher performance dedicated graphics cards are anywhere from 35% faster (RX 560) to 130% faster (GTX 1650). It's not just about pure performance, though. As noted above, compatibility with a large number of games is also critical for Intel.

[...]
7sUiYiG9TaqZFTU2VaLmXd.png


[...]
1080p,low.png


Let's be blunt: For a budget GPU, GTX 1650 levels of performance are the minimum we'd like to see, and the GTX 1650 is currently 175% faster than the DG1 across our test suite. And that's looking at the vanilla GTX 1650; the GTX 1650 Super nominally costs $10–$20 more than the vanilla model and boasts about 30% higher performance, which would make it more than triple the performance of the DG1. Drivers can certainly improve compatibility and performance in the future, but Intel needs more than that.
Tom'sHardware.com: Intel Xe DG1 Benchmarked: Battle of the Weakling GPUs

Sie kann also kaum mit einer GT 1030 konkurrieren (die sogar auf einer älteren und damit größeren Node gefertigt wird, 14nm vs Intels 10nm!) bei der gleichen TDP. Währenddessen braucht die DG1 die doppelte Leistungsaufnahme, um mit einer Vega 8 bei 15W mithalten zu können (die sogar ihre TDP mit den CPU-Kernen teilen muss)! In Summe im Vergleich zu einer Vega 8 ist AMD 4× so effizient.

Alles in allem haben sie Ewigkeiten gebraucht, um ihre iGPU auf ein PCB zu pflanzen. Das ist alles, was sie in all der Zeit zustande gebracht haben mit Raja; Im Endeffekt ihre Uralt-iGPU auf eine Platine, und das wars.

Nach Jahren der Intel-typischen Hinhalte-Taktiken mit Render-Bildchen (aus der Community von arg geblendeten Intel-Fans), hat sich also wieder mal bestätigt, was die ganzen angeblichen Pessimisten, Neider und Miesepeter schon immer wussten;
Intel kann einfach keine Grafik-Hardware noch Treiber, und das wird sehr wahrscheinlich auch in Zukunft so bleiben.

Es gab von Anfang an Gerüchte, dass ihre so hochgelobte Xe Graphics im Kern bloß ihre Uralt-iGPU wäre. Genau das hat Intel dann auch irgendwann zugegeben. Natürlich nicht öffentlich, aber hinter verschlossenen Türen (Shareholder darf man ja schließlich nicht unmittelbar anlügen, weil sonst wirds teuer).

Dann gabs plötzlich Insider (schon 2019!), die meinten, selbst bei den anvisierten 25W TDP würde das Ding nix reissen können. Intel DG1, its first GPU, performs below expectations and its TDP would be high.

New news from Intel insiders this weekend. DG1 is not developing very well.

In terms of performance, the DG1 graphics endowment is around 23% more powerful than the Tiger Lake iGPU.

The consumptions / power seem to be grim as Raja Koduri is having a hard time setting a TDP for his DG1 GPU. Anyone who has followed his GPU designs knows that this has always been his downfall.

Intel has a couple of wins in laptop design, but they explained to me that these were deals to give the Koduri program a bit of legitimacy, rather than translate them into sales / profit. It was claimed that Intel would "give these things away" if necessary.

The real question now is: should we expect Raja Koduri to continue working for Intel after Q2020 2? If not, you can hope that we will never see a DGXNUMX reach a retail product.

The idea that Intel is a player of the stature of AMD and NVIDIA in the world of GPUs is slowly fading.

Quelle: Reddit-Thread
Das Resultat dessen, sieht man jetzt eindrucksvoll (oder eher nicht) bei den finalen Tests..

Lustig ist auch (gerade erst gesehen!), im Reddit-Thread schreib jemand Namens "Smartcom5". Obs derselbe ist wie hier @Smartcom5, weis ich nicht bestimmt. Ist seitdem jedenfalls Ende 2019 kaum mehr hier gesehen, möglich wärs bestimmt!

Der Benutzer schrieb seinerzeit davon, dass der Grund, weswegen die Intel-Graphics DG1 so schlecht abschneidet, in Intels berühmten 10nm zu suchen sind (Leckstrom zu hoch wenn über bestimmten Takt). Scheint, als hätte er Recht gehabt. Und unter anderem schrieb er/sie das;
It's a long, long way from Intel's iGPU towards some RX 470/570/480/580 in terms of performance, like really. It even is from AMD's APUs all the way up to a RX 570/580.
Anderer Benutzer: Anyway, DG1 doesn't need to look good for consumers, as they'll hardly see it, it needs to look good to OEMs. And almost nothing looks better than a virtually free GPU.
So just the next product which doesn't earn any greater profit but which Intel needs to subsidise instead again by maintaining a price structure below the competition's products (which are often even superior performance-wise), to even sell their heavily subsidised stuff in the first place?

Is it just me or does Intel in fact just fails since quite a while to bring any greater competitive product?
Honest question though! Since it just looks like that since ages …

Their Atoms were subsidized with billions, and still got refused by the market – as they were just subpar and underperforming. Their modems were served the same fate, heavily subsidized to the point that they even had to sold them at a loss to even flog them at all – as they were also just subpar and underperforming. Optane is the same, over-promising and underperforming and way too excessively outpriced – they changed it after no-one at their server-space felt for their claims, that's why they heavily subsidise it again to pressure it into the OEM-market towards the largely clueless consumer.

They always failed on graphics too with their first dedicated graphics i740, then with LArrabee again, and with Xeon Phi too. Why again? As those parts were again just subpar and underperforming. Yet, their last attempt on graphics, their iGPU, would've been granted the identical fate, if they wouldn't've had come up with the clever move to force-bundle them with their CPUs – since suprise, suprise, those were also just subpar and underperforming again.

What Intel needs, is some competitive product for once – and not just the next product they have to subsidize heavily and with that being artificially maintained into life like most of their other products since ages (since they're mostly just subpar and straight-out uncompetitive).

That being said, if DG1 turns out shaping the way it's foreshadowed and rumoured here, their fifth attempt on graphics is doomed to fail again
(at least from a business-standpoint), that's it.
Scheint als hatte Derjenige damals schon mehr Insider-Wissen und tiefere Einblicke, als manch anderer hier.
Jemand anderes meinte/schrieb;
This lines up more or less with what I have heard and reported on, but I'm not sure if this information is legitimate or not, especially about the DG1 getting wins in notebooks. Why make DG1 laptops when Tiger Lake is about the same performance, for less power, with a CPU, and in a single package?
Antwort von Smartcom5;
It was actually, all of what you heard.
Er/sie schrieb das schon im Dezember 2019, in der Vergangenheitsform bitteschön!!
Vielleicht wars sogar der Themenersteller selbst bloss mit zweitaccount als Sockenpuppe!?

Auch gab es seinerzeit schon Ende 2019 ziemlich viele Gerüchte, dass ihre erste dedizierte Grafikkarte DG1 ein kapitaler Reinfall werden würde. Bestritten hats Intel immer vehement.

Gerüchte mutmassten, dass wenn ihre Grafik so schlecht wäre, würde die eh Keiner kaufen, weil;
Wie immer bei Intel und so typisch: Entweder total überteuert für das Gebotene, oder aber derart wettbewerbsunfähig, dass Keiner mit Verstand zulangt.

Viele unkten damals, dass wahrscheinlich die Einzigen, die das Ding überhaupt verbauen würden, wären OEMs (weil sie auch die Einzigen wären, die Intel dafür bezahlen würde können, eben genau das zu tun).

Und natürlich, es kam was kommen musste: Bestätigung der gerüchtenweisen Unkerufe hatten wir, als es hiess, dass Intel DG1 nur OEMs zur Verfügung stellen würde. Tada! Wieder mal.
AnandTech.com: Intel’s DG1 GPU Coming to Discrete Desktop Cards Next Year; OEM-Only

Im Grossen und Ganzen haben sich im Grunde praktisch fast alle Gerüchte als wahr herausgestellt. Weil, nach all der Propaganda und dem FUD und trotz all des versenkten Geldes, kann Intel mal wieder nicht liefern -- und das ist am Ende des Tages das Einzige was zählt. Traurig, weil wahr!

…weiß TechFA
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, niteaholic, knoxxi und 4 andere
Ist natürlich Bitter wenn das Ding 35-40% langsamer ist als meine WX3200 (RX560 mit 4 statt 2 GB, Polaris 12 Vollausbau mit 10 CUs GCN4.0) welche ich aktuell nur als Displayoutput für zweit und Drittmonitor und für f@h nutze. Und das bei gleicher TDP.

Mal sehen was DG2 bringt. Da verschiebt sich ja auch irgendwie der Release und man unkte noch im Februar dass das Teil noch nichtmal im Labor Stabil läuft.

Mal sehen wann sie was hinbekommen und es veröffentlichen können^^
 
  • Gefällt mir
Reaktionen: TechFA, Mcr-King und AlphaKaninchen
Naja, jeder fängt mal klein an. Hauptsache sie bleiben dran und verbessern ihre GPUs kontinuierlich, denn was AMD und Nvidia abliefern ist momentan eh unter aller Sau, von daher macht das Nichts, wenn Intel noch dieses Jahr mit ein paar Gaming GPUs auf den Plan tritt, auch wenn diese Leistungsmässig eher im unteren Drittel einzuordnen sein werden sollten. Nur der Preis und die Verfügbarkeit müssen stimmen und dann sage ich adios zu den Roten und Grünen Abzockern.
 
  • Gefällt mir
Reaktionen: Mcr-King
TechFA schrieb:
Obs derselbe ist wie hier @Smartcom5, weis ich nicht bestimmt.
Ist der selbe.

Klar jeder fängt mal klein an, aber Intel hat im GPU Bereich genug Erfahrung um zu wissen, was das Ding können muss.

Niemand hat einen 3090er Killer für nen Hunni erwartet, aber das was sie erreicht haben ist hart an der Grenze zu peinlich. Für ein Unternehmen dieser Größe und den finanziellen Mitteln. Es ist halt kein kleines Studenten Start-Up was in ihrer Garage aus dem Steuerchip eines Thermomixes eine GPU gelötet hat.
 
  • Gefällt mir
Reaktionen: konkretor, iSight2TheBlind, Mcr-King und 2 andere
Wenn ich mir die anderen Themen zu den GPUs durchlesen, wo NVidia und AMD nur High-End bringen wird gemeckert, wenn mal einer im Low-End anfängt ebenso 🙄 was wollt ihr überhaupt? Denkt doch mal drüber nach. Und wie es überall so schön ist, Geld ist leider nicht alles, manchmal sieht man den Wald vor lauter Bäumen nicht und hängt zusätzlich in einer Denkrille fest. Und innerhalb von 5min zieht sicher auch von euch keiner ne GPU ausm Hut, wenn doch, bitte gern n Start-Up aufmachen und feuer frei
 
  • Gefällt mir
Reaktionen: konkretor, Mcr-King und Strahltriebwerk
knoxxi schrieb:
Klar jeder fängt mal klein an, aber Intel hat im GPU Bereich genug Erfahrung um zu wissen, was das Ding können muss.

Niemand hat einen 3090er Killer für nen Hunni erwartet, aber das was sie erreicht haben ist hart an der Grenze zu peinlich. Für ein Unternehmen dieser Größe und den finanziellen Mitteln.
Die DG1 ist quasi ein Testballon. Ich verstehe echt nicht was die leute erwartet haben...

Ziel hiermit war es meiner Meinung die iGPU vom CPU zu trennen. In Simulationen usw. kann viel testen, wie es sich wirklich verhält sieht man aber erst im real life. Um nicht million für einen "test" zu verbraten, werden die vorhanden masken dann genutzt wenn es funktioniert und es kommen solche produkte dabei raus bei denen der "highendgamer" die nase drüber rümpft, die OEM's aber in die hände klatschen weil die klotten dann für einen schmalen kurs aus im katalog sind oder warum gibt es die wohl nur für OEM? Was die dann für ein System aufrufen, ist dann ihr Bier.

Interssant auch das die Kollegen von hardwareluxx das ganze "gut" bewerten und alles im erwarteten bereich liegt. link asus dg1 iris xe

Lese dir die specs durch und skaliere das ganze nach oben.
Die DG1 hat lediglich 80 Execution Units.

Die Tiger-Lake-Prozessoren verwenden bereits eine Xe-LP-GPU mit 80, bzw. 96 EUs
Somit steckt das in den CPU's drin, was die DG1 auf einer Karte hat.... Man hat "damals" ein zweits team genommen, was die technik außerhalb der GPU zum laufen bringen sollte. Hat alles funktioniert wie geplant....
Darauf aufbauten hat man dann weiter gemacht und das ganze nach oben skaliert. Die DG2 hat gut faktor 5 an EUs und die Leistung ist für einen zweiten schuss schon "ganz ok"....

Seit heute kennen wir auf Basis eines Gerüchts zudem die grobe Leistung einer DG2-448EU mit 448 EUs. Die GPU soll mit einem Takt von 1.800 MHz gelaufen sein. Die Leistung auf eine Radeon RX 6700 XT normiert, soll die DG2-448EU auf 92 % der Leistung der Lösung von AMD kommen. Eine GeForce RTX 3070 kommt diesen Daten zufolge auf 97 % der Leistung einer Radeon RX 6700 XT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk und knoxxi
Tepesch schrieb:
wenn mal einer im Low-End anfängt ebenso 🙄 was wollt ihr überhaupt?
Weil Intel hier nichtmal mit 4 Jahre altem Low End mithalten kann, und selbst dabei noch massive Treiberprobleme haben.

Seit wie vielen Jahren bauen die iGPUs? Wie viele Milliarden sind in Xe versenkt? Und dann nur sowas? Meh. Klar, Geld löst nicht alle Probleme, aber dass Intel nicht die Kompetenz aufbringt für dieses Projekt ist irgendwie peinlich.
Ergänzung ()

tochan01 schrieb:
bei denen der "highendgamer" die nase drüber rümpft,
Selbst der anspruchslose Nutzer rümpft hier die Nase, wenn selbst 4 Jahre alter Ausschuss der Konkurrenz effizienter und runder läuft.

Freuen sich OEMs wirklich über sowas? Die DG1 kannste ja kaum sinnvoll vermarkten.
Ergänzung ()

tochan01 schrieb:
Lese dir die specs durch und skaliere das ganze nach oben.
Wenn es denn so einfach wäre. Es sind schon viele große breite GPUs verhungert, weil die Skalierung eben doch nicht so gut funktioniert hat.

Außerdem: nach oben skalieren, okay, und dann ziehen wir die Ineffizienz wieder ab, die die DG1 demonstriert hat, und schon sieht es deutlich weniger rosig aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
@Powl_0
zur vermarktung kann ich nix sagen. K.a. wo das überall eingebaut wird. In Büro PC's etc interssiert das ganze keinen. Sofern der OEM eine günstige combi aus CPU / GPU anbieten kann is da echt egal was drin steckt.

man wird sehen was am ender bei raus kommt. Aktuelle gerüchte CES 2022 Link news PCGH

Im Grunde sollten sich "alle" freuen, das ein dritter player die Bühne betritt. Das in der ersten gen. noch nicht alles rund läuft, sollte klar sein. Bei ZEN 1 hatten auch alle lange gesichter gemacht bei der single core leistung und die entäuschung war groß das nicht "DER" Intel killer CPU bei raus gekommen ist mit diversen "problemchen" am anfang.

Das hat noch 3 Entwicklungsstufen gedauert ;). 1xxx, 2xxx, 3xxx und dann kam 5xxx. Ja, intel ist ein riesen laden aber "Zaubern" können die auch nicht. ;)

edit
Thema "effizienz": Die ist in letzter Zeit irgendwo ganz hinten auf der Prio liste im "Deskop" bereich wenn man sich ma so umguckt ;)
 
Zuletzt bearbeitet:
tochan01 schrieb:
Sofern der OEM eine günstige combi aus CPU / GPU anbieten kann is da echt egal was drin steckt.
Wozu noch extra Strom verbrauchen, wenn die selbe Lösung bereits in der CPU verbaut ist?


tochan01 schrieb:
die OEM's aber in die hände klatschen weil die klotten dann für einen schmalen kurs aus im katalog sind oder warum gibt es die wohl nur für OEM?
Und wo soll der Sinn sein das zu verbauen?
 
  • Gefällt mir
Reaktionen: TechFA und iSight2TheBlind
weil die kombi aus billig CPU (alte oder / ohne igpu) und externen GPU günstiger sein kann und dennoch etwas mehr leistung? Der Sinn besteht dann darin "Geld" zu verdienen....
 
Damit für OEMs eine F-CPU mit DG1 günstiger ist als eine non-F CPU ohne DG1, muss Intel die DG1 ja absolut verscherbeln. RCP Differenz zwischen zB 10400 und 10400F sind 25$, und bei OEMs wird die Spanne sicher noch mal kleiner.
Im Ark listet Intel für die DG1 überhaupt keinen Preis...

Sieht man sich nun noch an, dass es bisher kaum eine Handvoll OEM Maschinen mit DG1 gibt...wird die Karte bei den OEMs bisher wohl eher schlecht ankommen.
 
  • Gefällt mir
Reaktionen: TechFA und rg88
Powl_0 schrieb:
naja, von der leistungklasse ist die integrierte Intel® UHD Graphics 630 nochmal ne ganze ecke weiter unten angesetzt...

Man sollte schon schauen das die iGPU leistung möglichst hoch ist für einen preisvergleich. Die DG1 liegt 30% über einem 5700g.... die 630 ist irgendwo unter der fußmatte im vergleich .... 630 benchs.
 
Sowohl UHD 630 als auch DG1 sind unterirdisch. Die GT1030 von 2017 ist da schneller. Nichts davon lockt großartig Kunden rein durch Leistung.

tochan01 schrieb:
Die DG1 liegt 30% über einem 5700g.
Quelle? Denn in Benchmarks wie zB hier: https://www.tomshardware.com/features/intel-xe-dg1-benchmarked liegt die DG1 eher 30% unter einem 5700G.
Bei zB GamersNexus hat sie auch nicht viel besser abgeschnitten.

Lass dich nicht von der Rohleistung der DG1 blenden, die kriegt sie nicht auf die Straße.
 
Ok, tomshardware infos sind jünger wie den stand den ich habe, also glauben wir mal denen. Fanboys können das noch auf "nicht optimierte" treiber schieben ;).
Bei 175$ Budget für die GPU ist es aktuell wohl echt schwer da einen kauf schmackhaft zu machen, es sei denn man "kompensiert" das mit anderen vorteilen, wie auch immer die aussehen. Günstigere kurse auf komponennten oder bevorzugung bei lieferungen etc. aber das sind "Vertragsgeheimnisse" ;) (Bau das ein und du bekommst das dafür). In Zeiten des Chipmangels ist alles möglich.

Dennoch freue ich mich auf den dritten player.
 
  • Gefällt mir
Reaktionen: TechFA
PS828 schrieb:
Ist natürlich Bitter wenn das Ding 35-40% langsamer ist als meine WX3200 (RX560 mit 4 statt 2 GB, Polaris 12 Vollausbau mit 10 CUs GCN4.0) welche ich aktuell nur als Displayoutput für zweit und Drittmonitor und für f@h nutze. Und das bei gleicher TDP.
Das krasse is ja, Polaris war auf 14nm von GlobalFoundries, die DG1 sind auf Intels berühmt-berüchtigten und ewiggestrigen 10nm, und selbst mit 10nm-Fertigung stinken Intels Lösungen gegen alles von AMD/Nvidia ab!
Halb so leistungsfähig auf neuerem Prozess, das ist einfach nur ein Treppenwitz und absolutes Desaster.

Stell Dir mal vor, DG1 wäre noch auf 14nm?! Dann könnte die KArte zwar höher takten, aber das Ding hätte locker einen drittel höheren Stromverbrauch und würde nicht ansatzweise mit dem 30W auskommen können, sondern eher im Bereich von 45W liegen--und wäre trotzdem noch langsamer!

Ihr ganzes Xe Graphics ist eine absolute Katastrophe, nur noch zum fremdschämen und es war kein Wunder, dass die DG1 nur an OEMs verkauft wird. Weil die kann man eben mit genug Schmiergeld bestechen finanziellen Anreizen und Rabatten in Verbindung mit anderen Intel-Artikeln eher vom Verbauen überzeugen.

Weil kein normal-denkender Mensch würde für das Ding auch nur eine müde Mark ausgeben wollen. Keine 25€ wert und für den Preis würde Intel sicherlich nur miese machen. Also müssen OEMs herhalten, um (wie Smartcom5 schon irgendwie ganz treffend schrieb), ein Produkt künstlich am Leben zu erhalten, was ohnehin für sich genommen keine Daseinsberechtigung besitzt, im Vergleich zur Konkurrenz einfach "unter Ferner liefen" gilt und sich niemals auf ehrliche Weise am Markt halten könnte.

Und das diese Taktik (wie er/sie schrieb) schon bei Optane, Intel-Modems, Larrabee, Xeon Phi und den Atoms schon eingesetzt wurde und selbst schon Intels allererste Grafik i740 zuteil wurde, lässt verdammt teif blicken. So on der Retrospektive ist da echt viel Wahrheit drin in dem, was Smartcom5 schrieb.

Astreine und erschreckend präzise Prognose (wenn derjenige nicht irgendwie zum Kreise der Mitarbeiter gehörte) oder aber kaltschnäuziges rausposaunen von Fakten zum Warnen aller Anderen (wenn er/sie Mitarbeiter ist/war), weil er/sie Intels unehrliches Verhalten gegenüber den Kunden zum kotzen findet und fand.

PS828 schrieb:
Mal sehen was DG2 bringt. Da verschiebt sich ja auch irgendwie der Release und man unkte noch im Februar dass das Teil noch nichtmal im Labor Stabil läuft.

Mal sehen wann sie was hinbekommen und es veröffentlichen können^^
Was DG2 wird bringen!? Ich tippe mal ganz stark auf DG1 v2.0. Genau so wirds nämlich auch laufen, wenn die Gerüchte stimmen.

Erst mal Intel-typisch viel Hype um nichts, dann zweitens jede Menge Intel-Propaganda (so Richtung "Just buy it!"), drittens noch mehr fingierter, angeblicher Geekbench-"Leaks" und viertens am Ende ein mehr schlechter als rechter Versuch (den sie sich für ein Handgeld von Redaktionen weltweit schönreden lassen), der fünftens damit enden wird, dass man den Krempel den OEMs aufs Auge drückt (und dafür bezahlt, dass die "Ja" sagen).

Weil was die Kunden am Ende kaufen und letztendlich kriegen, war den OEMs schon immer egal,
solange die Kassen stimmen und zusätzlich auch noch klingeln. Traurig weil war.

Notebook Check (war die letzten Jahre eigentlich immer spot-on);

New leak suggests Intel DG2 (Xe-HPG) GPUs would first launch on laptops in late 2021, desktop cards possibly releasing next year​

Intel has been hyping the launch of its DG2 (Xe-HPG) gaming GPUs (1) for nearly a year now, and the latest performance leaks (3) from a few months ago were positioning the high-end 512 EU model somewhere between an RTX 3070 and an RTX 3080 from Nvidia. Intel’s Raja Koduri also teased some board testing and even showed off the multi-chip design for the 512 EU model so it looked like (2) we could really see Intel returning to the discrete GPU market with a vengeance later this year. However, a new leak coming from RedGamingTech now claims that DG2 might actually (4) release first on laptops, with desktop-size dGPUs coming later in 2022.
Augenscheinlich das selbe Trickspiel wie schon bei DG1.
It certainly makes sense if we think about how DG1 was first sneaked into laptop models as the Iris Xe MAX dGPU and then just recently launched as a desktop-size graphics card.
Wie man sieht, sollten die Gerüchte stimmen, kommt auch DG2 erst wie DG1 im Laptop (weils ohnehin Keiner freiwillig kaufen würde, weil wieder technisch Reinfall?; OEMs im Laptop Markt kann man dagegen dafür bezahlen, es zu verbauen).
If this is indeed the case for DG2 as well, then perhaps we might need to lower our performance expectations for the laptop models. According to RedGamingTech, we could be looking at maybe something as fast as an RTX 3060 Ti for the laptop-based DG2 high-end models, which is more in line with the RTX 3070 mobile performance. Judging by the number of memory modules acquired by Intel for the DG2 cards reported by RedGamingTech, we could be looking at 400-500 thousand GPUs prepared for the Q421 launch.

One of the reasons behind this change of focus from desktop to laptop dGPUs is the difficulty with finding AIB partners. Intel can much more easily offer an Intel CPU + Intel dGPU solution through its major laptop partners, to which it also provides considerable incentives. In this regard, we might see laptop OEMs cutting down on their AMD-based and Nvidia-based mobile offerings in favor of the new Intel DG2. (5)
Wie man sieht dürften sich die Board-Partner scheckig lachen und lieber die Hand aufhalten (und Intel zahlen lassen), weil man selbst das Risiko nicht eingehen will. Wahrscheinlich, weil die AIBs ganz genau wissen, das die Intel-Karten wie Blei in den Regalen liegen würden (zu den Intel-typischen Preisen und der anzunehmenden Leistung). Also gibts keine echten Intel-Karten von AIBs sondern nur die Designs, die Intel anbietet und die von den OEMs als OEM-only rausgebracht werden (weil Intel sie dafür bezahlt).

Das Problem hatte Intel übrigens auch schon bei glaube ich Cascade-Lake-AP. Dermaßen geringe Leistung zu utopischen Preisen (im Vergleich zu Epyc), dass sich die OEMs geweigert haben, Boards für den entsprechenden Sockel zu bringen. Hätte eh kein Mensch gekauft und der Aufwand schlicht nicht gelohnt; Man wäre als OEM auf den Entwicklungskosten sitzen geblieben. Also gabs gelötete BGA-Boards von einigen wenigen OEMs gegen dicke Bezahlung, damit man offiziell für die Shareholder was vorzuweisen hatte.

Man sieht, weil auch DG2 sehr wahrscheinlich ein Rohrkrepierer werden wird (und Intel das von Anfang an weiss!), geht man auch bei DG2 wieder den gleichen Weg wie DG1. OEMs-only erst im Laptop und mit viel Schmiergeld AMD/Nvidia ausstechen und dann eventuell als dedizierte aber bundled Zusatzkarte auch als OEM-only und nicht als frei verkäufliche Karte im freien Handel.

Weil wie immer weigert Intel sich, als direkter Konkurrent im freien Wettbewerb mit anderen Anbietern in Erscheinung zu treten! Weil sie eben ganz genau wissen, sie hätten nicht den Hauch einer Chance, wenn sie fair bleiben würden und dem Kunden das letztendliche Urteil überlassen würden müssten.

Dann bleibt man lieber unfair, trickst, besticht die OEMs und fingiert die Öffentlichkeit mit Propaganda und roll den Markt halt gegen alle Widerstände richtig schmutzig von hinten auf und klaut dem Wettbewerb so Stück für Stück die Marktanteile. Weil eine ehrliche Chance hätten sie als ehrlicher Wettbewerber beim Kunden und im Markt mit dem Intel-Quatsch ja ohnehin nicht gehabt. Schon echt hinterfotzig und perfide, oder?

Intel eben. Die können nur schmutzig und hinterrücks, vor echtem Wettbewerb haben die einfach immer Schiss.
Another reason for the focus shift is related to the voltage and core clocks that cannot yet go as high as the AMD and Nvidia desktop counterparts. Intel still needs to tweak these aspects for the desktop cards, but the mobile versions seem to already offer decent performance metrics in line with what AMD and Nvidia are offering right now.

This rumor seems to be supported by the recent Geekbench leak showing a DG2 dGPU with 256 EUs coupled to a mobile Alder Lake CPU with 14 cores and 20 threads. The results are disappointingly low, as a 96 EU DG1 model can score noticeably higher, but we should keep in mind that these sort of leaks usually occur for engineering samples that are still being tuned.
Und da haben wir es wieder; Taktraten dürften wegen Fertigung wieder deutlich niedriger sein als die von AMD/Nvidia (siehe Beitrag Smartcom5 weiter oben wegen den Problemen auf 10nm).

Weiter sieht man, dass auch nur noch von Modellen mit 256 EUs die Rede ist, 512 gibts dann wohl erst später. Wie immer Intel-typisch ihre Salami-Taktik. Erst gross ankündigen, dann kleine Brötchen backen, weil die Fertigung nicht hinterher kommt. Und laut Gerüchten ist selbst diese Variante dann längst nicht mehr der RTX 3070-Konter wie zuvor getönt. Trotzdem werden sie die AMD- und Nvidia-Karten verdrängen, weil Intel-Money.

Es ist schon wirklich traurig, mit was für Mittel Intel seit jeher kämpf und Marktanteile klaut. Immer schmutzig, immer hinterrücks. Wenn man einmal durchschaut hat, wie der Laden läuft, hat man das Gefühl, dass Intel eine ganze Industrie als Geisel hält.

… weiß TechFA
 
  • Gefällt mir
Reaktionen: Mcr-King und iSight2TheBlind
knoxxi schrieb:
Wie jetzt echt?! Kennst Du den etwa persönlich oder woher weisst das?? Oder bloss vermutung jetzt?

knoxxi schrieb:
Klar jeder fängt mal klein an, aber Intel hat im GPU Bereich genug Erfahrung um zu wissen, was das Ding können muss.
Der hat auch mal einen Post gemacht über Intels Grafik, warum die nie richtig eingeschlagen hat.
Demnach hat Intel damit immer Probleme gehabt, weil sie gar nicht anders können,w eil die keine Patente haben. Hier, alles im Zusammenhang erklärt, einfach richtig gut nachvollziehbar und belegbar.

Und wenn man mal so überlegt, dass leuchtet auch total ein. Weil er hats sogar stichhaltig belegt!
Der Markt an Graphics-IP wie Smartcom5 das nannte ist ja irgendwie tatsächlich praktisch einzig zwischen AMD/Nvidia und PowerVR aufgeteilt!

Deswegen hat Intel da eigentlich keine Chance was rauszubringen, ohne irgendwelche Patente zu verletzen.
Und ich glaube, wenns so käme (wenn Intel Grafik-Patente verletzen würde), dass es da richtig zwischen den großen dreien fetzen würde.

Besonders NVidia würde sich sowas NIEMALS gefallen lassen und den Verein in Grund und Boden klagen! Oder?!

Ich weiss ja nicht ob der Account von mehreren benutzt wird und die alle bloss unter einem Namen auftreten (Smartcom5), aber wenns bloss einer/eine ist, dann Hut ab! Meine Fresse muss der/die ein wisssen haben! Weil die Bögen die der Benutzer schlägt und wie weit der aushohl und ein absolut komplettes Bild zeichnet über das Wie und Warum und dann das alles zusammengepackt mit all dem Hintergrundwissen und oft mit quellen, wow.. Habe den nicht umsonst abbonniert! xD

Schade nur dass der/die Benutzer/in nicht mehr schreibt, weil der Beitrag über Grafik hat ein "Fortsetzung folgt ..."
knoxxi schrieb:
Niemand hat einen 3090er Killer für nen Hunni erwartet, aber das was sie erreicht haben ist hart an der Grenze zu peinlich. Für ein Unternehmen dieser Größe und den finanziellen Mitteln. Es ist halt kein kleines Studenten Start-Up was in ihrer Garage aus dem Steuerchip eines Thermomixes eine GPU gelötet hat.
Naja, also wenn man sich das INtel-subreddit anguckt, da wurde immer behauptet das DG1 wenigstens GT 1030-level wäre. Das wurde prktisch als Fakt hingestellt. Auch die DG2, angeblich konter zur GTX 3070.

Entweder sind das da alles echte die-hards oder aber Intel streut die Gerüchte nur fürn Hype und sonst nix!

Powl_0 schrieb:
Damit für OEMs eine F-CPU mit DG1 günstiger ist als eine non-F CPU ohne DG1, muss Intel die DG1 ja absolut verscherbeln. RCP Differenz zwischen zB 10400 und 10400F sind 25$, und bei OEMs wird die Spanne sicher noch mal kleiner.
Im Ark listet Intel für die DG1 überhaupt keinen Preis...

Sieht man sich nun noch an, dass es bisher kaum eine Handvoll OEM Maschinen mit DG1 gibt...wird die Karte bei den OEMs bisher wohl eher schlecht ankommen.
Die werden wahrscheinlich die OEMs dafür extra bezahlen, so wie sies immer schon gemacht haben.
Anders hat Intel ja realistisch betrachtet auch nicht die geringste Chance drauf, gegen AMD/Nvidia anzustinken. Also hinterrücks geschmiert um den Wettbewerb auszustechen. Ehrlich hättens ja eh keine Chance.

… weiß TechFA
 
TechFA schrieb:
Wie jetzt echt?! Kennst Du den etwa persönlich oder woher weisst das?? Oder bloss vermutung jetzt?
Er hat in früheren Diskussionen häufiger auf seine reddit posts verwiesen und es war der selbe user wie jetzt.
 
  • Gefällt mir
Reaktionen: TechFA
Zurück
Oben