Test Core Ultra 300: Erste Benchmarks der großen Xe3-iGPU Intel Arc B390

Brrr schrieb:
Warum schafft Intel bei iGPU was sie bei dGPU nicht hinkriegen?
18A vs. 6nm

Und man stelle sich mal vor, RTX6000 und RDNA5 sollen 2027H2 für die Consumer noch olle 3nm sein.
Insofern ist B390 schon ein seltenes Stck. bezgl. Fertigungsprocess, quasi 1 1/2 Jahr Vorsprung.
 
Zuletzt bearbeitet:
mae schrieb:
Die HP ZBook Ultra G1a wiegen 1,5kg.
das neue Lenovo Ideapad Pro 5i Gen11 soll 1,3Kg wiegen(Pantherlake)

wer interesse hat hier ein Cyberpunk ergebnis von Notebookcheck. Zur groben ein Ordnung. Preset Ultra sind alle gpus dabei.

Screenshot 2026-01-11 010848.png


die 7600M ist wegen der Steam Machine reingenommen.
das Pantherlake ergebnis kommt vom Lenovo laptop
Strix halo ist vom HP laptop G1A
Die genaue bezeichnung zum 890M gerät habe ich nicht gefunden, laut dem Ergebniss liegt aber die volle TDP an wenn man ergebnisse von anderen Geräten vergleicht 7500Mhz RAM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DynamaxX, Col. Jessep, danyundsahne und 5 andere
crustenscharbap schrieb:
Was mich verwundert ist die RAM Bandbreite: Der RAM ist DDR5 9600 und bei dem AMD Strix Point (Radeon m890) haben wir DDR5 7500. Das heißt der RAM hat eine 28% höhere Bandbreite. Die iGPU ist ca 2,1x schneller. Auch wenn wir jetzt berechnen würden, dass der AMD ca 20% schneller mit 60W laufen würde, so wäre die Intel GPU trotzdem ca 90% schneller. Wie schafft Intel so schnell mit der Speicherbandbreite zu sein?
Cache, Cache, Cache
Das gleiche Rezept, das auch den Bandbreitenhunger der dedizierten GPU im Zaum gehalten hat.
LPDDR5 7500 ist schon richtig.
Ergänzung ()

GerryB schrieb:
18A vs. 6nm

Und man stelle sich mal vor, RTX6000 und RDNA5 sollen 2027H2 für die Consumer noch olle 3nm sein.
An deinem Post stimmt so gut wie gar nichts.
Die GPU ist im "ollen" 3nm gefertigt und nicht bei Intel. Die letzte dGPU von Intel in N5.
Ich weiß auch nicht was an N3P oll sein soll, es gibt rein gar keine Belege, dass 18A so sehr viel besser ist. Das müsste sich erst noch zeigen. Ob RDNA5 wirklich in N3P kommt ist auch gar nicht klar. Deren HPC Beschleuniger sollen 2026 schon in N2 kommen.
Ergänzung ()

mae schrieb:
Die HP ZBook Ultra G1a wiegen 1,5kg. Ob es Panther Lake Halo wirklich in leichteren Laptops geben wird?
Ja klar, warum nicht? Das Ding hat ne 25 W TDP. Das ist ein ganz anderes Kaliber als Strix Halo. Während sich Strix Halo sich bei 55 W gerade warm läuft ist da bei Panther Lake schon das Ende erreicht. Strix Halo ist halt ungleich breiter.
Ich würde das Ding auch nicht Halo nennen. Da ist ganz normale Weiterentwicklung der IGP und kein oben drauf gesetztes Produkt wie Strix Halo. Der ist ne ganz andere Dimension. Performance und Materialaufwand.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, bf3gmer und eastcoast_pete
bensen schrieb:
Ich weiß auch nicht was an N3P oll sein soll, es gibt rein gar keine Belege, dass 18A so sehr viel besser ist. Das müsste sich erst noch zeigen. Ob RDNA5 wirklich in N3P kommt ist auch gar nicht klar. Deren HPC Beschleuniger sollen 2026 schon in N2 kommen.
HPC für viiiel Geld, aber Consumer GPU´s nicht
da kannste Dir abfingern das nur der billige N3P kommt
und dann ist in 2027H2 der N3P leider schon relativ alt
(ob zwischendurch 2026 noch der Superrefresh bei NV kommt, who knows, das würde den Nachfolger entspr. verschieben, so das man erst in H2 2027 mit neueren Gen´s kommen muss)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
"dieser Woche hatte Intel den Mund in Bezug auf die Gaming-Leistung der neuen großen iGPU sehr voll genommen"

Ganz neue Töne von INTEL :smokin:
 
Brrr schrieb:
Warum schafft Intel bei iGPU was sie bei dGPU nicht hinkriegen?
RDNA 3.5 liest sich natürlich höher als RDNA 2, letztlich sind es +8%. RDNA 3 war und ist nicht gelungen im Vergleich zu RDNA 2. RDNA 4 hat um 40% zugelegt.
Und nun dieser iGPU Vergleich. Bei AMD gibt es also das alte Zeug, die B390 ist von der Architektur schon etwas besser als wir diese von einer B580 kennen. Dazu bringt B390 1.536 Shader, bei AMD im AI 370 sind es 1.024 Shader. Es wäre ja eine Katastrophe, wären 512 Shader mehr nicht besser. Dazu dann noch die deutlich bessere Bandbreite durch den Speicher, bringt eben mehr Leistung.

Letztlich wieder ein typischer Intel Bench, wie wir diese schon immer von Intel kennen.

1.536 Shader mit LPDDR5X-9600 und 65W TDP gegen 1.024 Shader mit LPDDR5X-7500 und 31W TDP. Und jetzt sind viele aus dem Häuschen, dass B390 schneller ist. Ich mein, alles andere wäre eine Katastrophe.

Laut Intel, bekommen nur die 1.536 Shader LPDDR5X-9600. Ein teurer Spaß bei den Speicherpreisen.
Die 1.280 Shader die es bis dato nur bei einem Modell gibt, bekommen nur LPDDR5X-8533
All die anderen Modelle, deren iGPU Intel sich traut selber zu fertigen, haben 512 Shader, oder 256 Shader.
Da kann ich für mich es nachvollziehen, dass AMD mit keine 20% Marktanteil, ihre Kapazitäten in KI Beschleuniger stecken. Den Markt mit ihrem alten Zeug bedienen, Ryzen AI 300 wird umbenannt in Ryzen AI 400 und Medusa Zen 6 muss wieder mit RDNA 3.5 auskommen. Für nur 20% Marktanteil will man lieber viel Geld mit KI Beschleuniger verdienen und dort Kapazitäten reinstopfen.
Ich kann mir gut vorstellen, dass die 512 Intel Shader nicht gut gegen die 768 AMD RDNA 3.5 Shader aussehen werden.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Brrr schrieb:
Warum schafft Intel bei iGPU was sie bei dGPU nicht hinkriegen?
Dein Eindruck täuscht. Deren iGPUs und dGPUs teilten alle Vor- und Nachteile der jeweilige Architektur-Generation von Xe1 und Xe2. Die iGPU in Panther Lake ist nun Xe3. Von der gibt es noch keine dGPU (angeblich soll auch keine kommen). Der Punkt ist, das Intel als Neueinsteiger im GPU Bereich von der ersten, über die zweite bis jetzt zur dritten GPU-Generation jeweils riesige Fortschritte macht - auch weil sie ihre "Anfängerfehler" nach und nach ausbessern.
Allerdings trat ein Teil dieser "Anfängerfehler" wie der Driver Overhead, der die CPU stark belastet, bei den iGPUs nicht so sehr zum Vorschein. Da die iGPUs in einer deutlich niedrigeren Leistungsklasse spielen als die dGPUs, belasten sie auch die CPU weniger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr
Habe jetzt nicht alles hier an Kommentaren gelesen, könnte also schon dabei gewesen sein.
Liefen die Tests über Netzstrom oder über Akku? Denn das wäre extrem entscheidend.
Ein Laptop muss eben auch Unterwegs abliefern und nicht nur eine Stunde.
 
Vielleicht hilft dir der Test von PC World der jeweils mit Akku und Netzstrom durchgeführt wurde auf der CES:
 
Alesis schrieb:
Letztlich wieder ein typischer Intel Bench, wie wir diese schon immer von Intel kennen.

1.536 Shader mit LPDDR5X-9600 und 65W TDP gegen 1.024 Shader mit LPDDR5X-7500 und 31W TDP. Und jetzt sind viele aus dem Häuschen, dass B390 schneller ist.
Wie stellst du dir einen nicht typisch Intel Benchmark vor? Intel taktet den Speicher runter und deaktiviert ein Drittel der Shader Units?
Muss AMD bei Strix Halo auch die halbe GPU und Speicherinterface deaktivieren für einen seriösen Test?
Ist doch vollkommen absurd. Man testet gegen das was verfügbar ist. Wenn die Konkurrenz nicht mehr investieren will, dann ist der Test eben gegen ne schmalere Lösung.
 
  • Gefällt mir
Reaktionen: DynamaxX, Quidproquo77, LamaMitHut und eine weitere Person
bensen schrieb:
Wie stellst du dir einen nicht typisch Intel Benchmark vor? Intel taktet den Speicher runter und deaktiviert ein Drittel der Shader Units?
Den Kontext nicht verstanden, aber Meinung geht ja immer. Und dann auch noch ziemlich infantil.
Wäre schlimm, wenn 512 Shader mehr, nicht mehr Leistungsentfaltung bieten würde.
Kannst du das nachvollziehen, oder steigst du da schon aus?
Wäre schlimm, wenn mehr Bandbreite und mehr Takt durch den Speicher, nicht mehr Leistungsentfaltung bieten würde.
Kannst du das nachvollziehen, oder steigst du da schon aus?
Wäre schlimm, wenn eine 65W TDP nicht mehr Energie bieten würde, als eine 31W TDP.
Kannst du das nachvollziehen, oder steigst du da schon aus?
Wäre schlimm, wenn das Notebook in eine Position gebracht wird, in welcher es zu 99% nie sein wird bei Nutzung, damit die Kühlleistung bloß nicht gestört werden könnte, dies wiederum in eine Leistungssteigerung endet, weil wenig, oder keine Taktverminderung dadurch entsteht.
Kannst du das nachvollziehen, oder steigst du da schon aus?

Bedeutet also, für mich ist diese deutlich bessere Leistungsentfaltung im Vergleich zu dem AI 370 hier auf CB, absolut nichts großartiges. Sondern verdammt noch Mal das Minimum.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
Philste schrieb:
Die Vergleichsgeräte hier im Test sind aber nicht vom Intel-Auftritt auf der CES, sondern hier in Deutschland vom Redakteur getestet wurden.
???
Im Nachgang der Präsentation hatten ausgewählte Medienvertreter in Las Vegas die Möglichkeit, erstmals selbst Hand an ein Notebook mit Core Ultra 300 und großer iGPU Arc B390 anzulegen. ComputerBase war darunter.
Ergänzung ()

Apocalypse schrieb:
Liegt das wirklich noch an den Herstellern oder liefer hier AMD schlicht nicht genug, weil andere Sparten bevorzugt werden und man gar keine Stückzahlen liefern kann?
Wenn man sich die Praktiken ansieht, für die Intel in der Vergangenheit schon verurteilt wurde... Es kann aber auch sein, dass AMD nicht genug liefern kann.
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
HerrRossi schrieb:
Die Intel Geräte stammen von Intel in Las Vegas. Die AMD Geräte stehen bei Jan in Berlin auf dem Schreibtisch. Die haben auf zwei unterschiedlichen Kontinenten gebenched.
 
  • Gefällt mir
Reaktionen: DynamaxX, Col. Jessep und HerrRossi
12nebur27 schrieb:
Die AMD Geräte stehen bei Jan in Berlin auf dem Schreibtisch. Die haben auf zwei unterschiedlichen Kontinenten gebenched.
Ah, er meint die AMD Vergleichsgeräte.
 
bensen schrieb:
Ja klar, warum nicht? Das Ding hat ne 25 W TDP.

Was Intel bei der Vorschau hat testen lassen, hat WIMRE 60W verbraucht, auch wenn man es auf 25W begrenzen wollte. Mal sehen, ob sich der B390-Panther Lake dann in Tests auf 25W begrenzen laesst, und wenn ja, wie viel oder wie wenig er dann leistet.

Das ist ein ganz anderes Kaliber als Strix Halo.

Wenn man sich die Zahlen in #202 anschaut, liegt B390 in der Mitte zwischen Radeon 890M und Radeon 8050S, also entspricht vielleicht 24 CUs von RDNA 3.5. So viel anders ist das Kaliber nicht.

Ich würde das Ding auch nicht Halo nennen.

Wir werden's an den Preisen sehen, aber ich vermute stark, dass Intel das als Halo-Produkt konzipiert hat: Fast alle kaufen "Intel Graphics" (4 Xe-Cores), nur wenige kaufen "Arc (Pro) B390" (12 Xe-Cores und wohl auch mehr Cache). Aber viele kaufen "Intel Graphics", weil Intel-Laptop-CPUs so eine leistungsfaehige GPU haben.

[edit]Interessanterweise wird Strix Halo hier nicht als Halo-Produkt wahrgenommen, sondern als, wie Du schreibst, ganz anderes Kaliber, sodass seine hohe GPU-Leistung nicht auf die Wahrnehmung von Strix Point und Krackan ausstrahlt.[/edit]

Da ist ganz normale Weiterentwicklung der IGP und kein oben drauf gesetztes Produkt wie Strix Halo.

Ich kann keine Weiterentwicklung erkennen, da ist einfach nur eine groessere GPU, genau wie bei Strix Halo. Dagegen hat Strix Halo durchaus mindestens einen Entwicklungsschritt im Vergleich zu Strix Point und den Ryzen 9000-Prozessoren gemacht, was aber eher ein Thema fuer die Entwickler ist, nicht fuer die Endkunden. Die haetten den auch monolithisch machen koennen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: peru3232 und Alesis
@bensen
Mir stellt sich noch eine Frage. Beim B390 Test, war das Display deaktiviert (externer Monitor) und hatte bei dem einen Spiel 60W.
Wie wurde denn das AMD Vergleichssystem getestet. Auch mit deaktivierten Display und externen Monitor?
 
beim Folienweltmeister Intel kann man nur reale Test abwarten, alles andere ist Kokolores und dient deren Marketing. Anscheinend haben sie mal wieder investiert, um unbedingt eine schnellere Lösung zu haben, als AMD im IGP-Mainstream, was ja für uns Kunden erstmal gut ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tom081580
Alesis schrieb:
Den Kontext nicht verstanden, aber Meinung geht ja immer. Und dann auch noch ziemlich infantil.
Wäre schlimm, wenn 512 Shader mehr, nicht mehr Leistungsentfaltung bieten würde.

Das ist doch aber genau das, was bei AMD passieren würde. Du kannst nicht einfach 50% Einheiten dazupacken und erwarten, dass die Leistung deutlich ansteigt, weil die Bandbreite nicht im Ansatz mit ansteigt. Um eine große Verbesserung zu erzielen, braucht es Verbesserungen auf ganzer Linie, so wie bei Intel. Mehr Takt, mehr Einheiten, eine verbesserte Architektur, etwas mehr Bandbreite, mehr Cache.

Schau dir am besten einfach mal AMDs Enheitenskalierung an. Von 512 auf 1024 Einheiten legt AMD ganze 23% im timespy graphics zu. Das heißt, selbst wenn AMD 50% Einheiten auf die 890M draufpacken würde, würden sie nur 10% an Performance dazugewinnen, wenn überhaupt.

890M 1024 2.9 Ghz= 3676 +23%
860M 512 2.9 Ghz= 2987
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DynamaxX und Quidproquo77
Alesis schrieb:
Den Kontext nicht verstanden, aber Meinung geht ja immer.
Ich habe das ganz gut verstanden, aber du hast gar nicht gelesen was ich geschrieben habe.
Ich habe überhaupt nicht die Aussage kritisiert, dass du den vorsprung für erwartbar gehalten hast.
Kannst du das nachvollziehen, oder steigst du da schon aus?

Was ich kritisiert habe ist deine Aussage, es sei ein typischer Intel Benchmark. Intel hat hier nichts gemacht außer ein System bereit zu stellen.
Kannst du das nachvollziehen, oder steigst du da schon aus?
Ergänzung ()

Alesis schrieb:
Wie wurde denn das AMD Vergleichssystem getestet. Auch mit deaktivierten Display und externen Monitor?
Tag @Jan und nicht mich, dann bekommst du auch ne Antwort. Oder glaubst du ich habe ne Glaskugel?
 
  • Gefällt mir
Reaktionen: DynamaxX
mkl1 schrieb:
Das ist doch aber genau das, was bei AMD passieren würde. Du kannst nicht einfach 50% Einheiten dazupacken und erwarten, dass die Leistung deutlich ansteigt
Den Kontext verstehe ich nicht. Denn es geht um die Leistungsentfaltung der iGPU von Intel. Würde AMD auch mehr bieten wollen, müssten die natürlich auch in mehr Shader, anderen Speicher investieren. Müsste AMD dann auch das Notebook praktisch aufbocken?

Würde eine RDNA 3.5 mit 1.024 Shader, mit 9600 Speicher und statt 31W TDP, 65W TDP keine Leistungssteigerung erfahren?
Verstehst du gerade, dass dein Einwand nichts daran ändert, mein Fazit irgendwie beeindrucken zu können? Denn mit all dieser unterschiedlichen Konfiguration beim Test, bleibt das Fazit, es ist nichts besonderes, sondern alles andere außer bessere Leistungsentfaltung wäre eine Katastrophe.
 
Zurück
Oben