News Notebook-Prozessoren: Ryzen 5 4600H(S) und Ryzen 7 4800H(S) bei Asus

aldaric schrieb:
... glaube ich nicht wirklich. Schon seit 3 Lake Architekturen wird der erneute Untergang für AMD prophezeit.
Und ehrlich? Was man bisher so gehört hat aus der Gerüchteküche über Tiger Lake ist das jetzt auch nicht so der große Wurf, wie du uns hier präsentieren möchtest. Die IPC wächst, der Takt fällt, die GPU wird wohl eher grad so aufschließen können auf AMD. Dazu noch die Variable des Treiber-Supports bei Intel. Ich sehe da jetzt ehrlich gesagt keine großartigen Sprünge gegenüber den jetzigen Intel CPU's am Markt.

Es wird kein Untergang für AMD sein, aber Intel dürfte dann mit dem - bisher aller Leaks/Gerüchte zum 10nm Tiger Lake nach - doch die Vormachtstellung im Mobilbereich wieder verfestigen bzw. AMD wieder ein deutlich stärkerer Wind ins Gesicht wegen als aktuell mit Ice Lake etwa, auch wegen der zu erwartenden deutlich stärkeren Xe iGPU, aber nicht nur ;).

Im Mobilbereich im großen Rahmen wieder Marktanteile gegen Intel gut zu machen wird für AMD alles andere als ein Spaziergang (à la Threadripper im unwichtigeren HEDT-Bereich).

Koduris Arbeit bei Intel würde ich jetzt nicht unbedingt unterschätzen wollen und den Schätzungen nach könnte AMD dann wieder bei CPU und dann gar GPU Leistung (da nur Vega) hinter Tiger Lake mit Xe iGPU liegen, aber warten wir es ab (wie stark Renoir und Tiger Lake ausfallen werden) ;).
Ergänzung ()

just_fre@kin schrieb:
... skeptisch, gerade was die iGPU angeht. Da hat Intel schon seit Jahren immer mal wieder nen großen Sprung prophezeit, der noch nie eingetreten ist ...

Bisher ist das leider arg schwer einzuschätzen, aber schon die Engineering Samples (Leaks) von Tiger Lake lassen deutlich mehr als Ice Lake erwarten und eine bessere iGPU als Vega zu entwerfen sollte für Koduri und Co. keine "Rocket Science" sein.

Des Weiteren könnte Xe ja auch schon mit DXR/RT-Raytracing Support noch vor AMD(/RTG) kommen (auch wenn dafür die Leistung deutlich zu gering sein dürfte, für spürbare Effekte), zumindest wurde die Möglichkeit angedeutet.

Raja/Intel im GPU Bereich gänzlich zu belächeln, wäre m.E. ein Fehler oder gar hochmütig (vor einem möglichen Fall), das kann sich AMD/RTG nicht wirklich leisten (anders als nVidia bei den dGPUs).

Natürlich ist es die Xe-Erstgeneration (so gesehen erwarte ich da jetzt auch keine Wunder von Raja/Intel) aber Vega ist nun auch nicht so schrecklich beeindruckend und bis AMD/RTG im Mobilbereich RDNA2 am Start hat vergehen aller Voraussicht nach noch deutlich mehr als ein Jahr bzw. ist erst einmal jetzt Renoir mit Vega und vielleicht dann der Renoir Nachfolger mit RDNA1 fällig.

Die APU-Entwicklung bei AMD hinkt leider der von Ihren dGPUs und CPUs technisch eben schon länger/ca. eine Generation hinterher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gaelic
Wie ist eigentlich der aktuelle Stand mit USB 4.0 ?
Wird bei Renoir vllt noch keine Rolle spielen, aber interessant ist die Frage trotzdem.
Floppes schrieb:
Apple arbeitet derzeit an ARM Lösungen für ihre Notebooks. Hier ist eher die Frage X86 oder ARM und nicht Intel vs AMD.
Oder Custom SoC mit Apple ARM Prozessor und RDNA GPU 🤔
 
usb2_2 schrieb:
6 und 8 Kerne im Notebook sind schon ein ganz schöner schritt für AMD. Dann hoffe ich, dass diese CPUs auch wirklich mit Intel konkurrieren können.
Das können sie dicke!

Computerbase hat doch erst vor kurzem einen Vergleichstest der aktuellen Notebook-Architekturen, jeweils mit der "zweiten Reihe" der CPUs/APUs von Intel und AMD veröffentlicht. Dabei wurde einerseits deutlich, daß Ice Lake (10nm) noch lange nicht da ist, wo Intel es gern hätte, jedenfalls war der alternative Comet Lake (14nm++++++++++-*/) in jeder Hinsicht ebenbürtig bzw. sogar besser. Und vor allem überraschte die Performance des AMD "Picasso" im Vergleich, der in den meisten Belangen auf dem Niveau der Intel-Konkurrenten oder nur knapp darunter rangierte, teilweise aber auch deutlich vor den Intels lag!
Und Picasso ist nur ein leicht überarbeiteter 12nm-Shrink der ersten Zen-Generation mit Grafik und maximal 4 Kernen!

Mit anderen Worten: Der "Renoir" (Zen2 mit bis zu 8 Kernen) wird bei seinem Erscheinen mit den Mainstream-Intel-Notebooks den Boden aufwischen! Und das ist kein Wunschdenken, das wird so kommen! Die einzige Frage ist nun nur noch, ob die Hersteller dann endlich mal angemessene Mengen von AMD-basierter Hardware auf den Markt bringen werden, oder ob sie weiter in sklavischer Treue zu Intel halten.
 
  • Gefällt mir
Reaktionen: nazgul77 und Rockstar85
Simariqcocuq schrieb:
Was heißt das für Desktop - Nutzer? Ist das schon Zen 3 Architektur und somit ein Signal für Ryzen 4000?

nein, die APUs haben immer eine nummer höher, trotz gleicher architektur.
 
XTR³M³ schrieb:
einfach nen 3700X auf 15W bzw. 45W deckeln und schauen was passiert :)

genau das ist halt auch der casus knacksus.

Wenn hier irgend jemand glaubt, dass man mit 15 Watt eine 8 Kern 16 Fred Cpu und dann noch eine 13 CU Graka zusammen betreiben könnte, hat er/sie Physik nicht verstanden. (das geht, aber sehr langsam....das steht schon fast)

Abwarten, was man mit 7nm stemmen kann....Einen "Quantensprung" (ist nicht weit, aber ein schönes Wort) darf man hier natürlich nicht erwarten.

mfg
 
  • Gefällt mir
Reaktionen: cr4zym4th
Chismon schrieb:
Raja/Intel im GPU Bereich gänzlich zu belächeln, wäre m.E. ein Fehler oder gar hochmütig (vor einem möglichen Fall), das kann sich AMD/RTG nicht wirklich leisten (anders als nVidia bei den dGPUs).

Problem ist das Raja Überschätzt wurde nach seiner AMD Rückkehr, daher ist ein unterschätzen eventuell nur ein balancing Act. Von der ersten Generation erwarte ich recht wenig von XE, im Mobile Bereich müssen sie ja "nur" die UHD schlagen, wenn sie das können wird das ein guter schritt sein.
Intel wird sich erstmal beweisen müssen im dGPU markt, bezweifel jedoch das hier ein Fokus von Intel liegen wird. Ansonsten kann man sich nur freuen das Bewegung in allen bereichen stattfindet.

AMD wird mehr in Notebooks kommen und Intel arbeitet an GPUs. Die einzigen die sich alles irgendwie unbeteiligt ansehen (gefühlt) sind nVidia die sich viel im Automotive bereich rum treiben, so nach dem Motto GPU markt schauen wir wenn Konkurrenz da ist.

Also alles gute vorzeichne für ein schönes 2020 aus HW Sicht.
 
@[wege]mini Da 7nm mit 50% Energiebedarf bei gleicher Taktung beworben wird und das bei allen bisherigen Chips eine Verdoppelung der Kernzahl bei gleichen Rahmenbedingungen bedeutet hat, kann man davon ausgehen, dass der Achtkerner den gleichen Basistakt bekommt wie vorher dier Vierkerner. Dazu im Einkernturbo noch den höheren Takt, der möglich wurde, plus alle Vorzüge von Zen2. Also das sehe ich nicht so kritisch, im Gegensatz zu einem potentiellen Achterkerner von Intel in 14nm.
 
Colindo schrieb:
@[wege]mini Da 7nm mit 50% Energiebedarf bei gleicher Taktung beworben wird und das bei allen bisherigen Chips eine Verdoppelung der Kernzahl bei gleichen Rahmenbedingungen bedeutet hat, kann man davon ausgehen, dass der Achtkerner den gleichen Basistakt bekommt wie vorher dier Vierkerner. Dazu im Einkernturbo noch den höheren Takt, der möglich wurde, plus alle Vorzüge von Zen2. Also das sehe ich nicht so kritisch, im Gegensatz zu einem potentiellen Achterkerner von Intel in 14nm.

Es gibt nen 8C von Intel - 9980HK. Da gabs doch hier erst vor nicht all zu langer Zeit einen Test dazu. 37W bei um die 3GHz mit der Drossel, trotz assbach Prozess. Im Resultat effizienter als ein Desktop Ryzen in 7nm.
Ich denke man erkennt ziemlich klar, dass hier Pauschalen nicht sonderlich viel bringen... Intels Desktop CPUs sind durch den übel hohen Takt einfach extremst ineffizient. Faktor 5 beim Verbrauch macht nichtmal Faktor 2 bei der Leistung zu einem 9900KS. AMD ist deutlich konservativer vertreten. Ob es daran liegt, dass sie nicht können oder nicht wollen, sei mal dahingestellt. Aber Pauschalen bringen da halt nix.

Das Ding im Mobilemarkt ist eher, wie viel Kompromiss muss man eingehen um die mehr Kerne im Alltag bei Laune zu halten. Vor nur 2-3 Jahren waren 4C in 15W ziemlich kompromissbehaftet. Mit fixen Turbotechniken und hohen Boosttaktraten kommt man dem Optimum immer näher. Nichts desto trotz stellt man aber dennoch fest, wie bspw. jüngst im CB-Notebook Test erst wieder zu sehen, bei 15W ist das overall ein sehr schmaler Grad. Noch bisschen drunter knickt die Performance schon drastisch ein. 1065G7 bei 9W nur 7% vor nem alten 7200U Dualcore mit 15W. Trotz doppelter Coreanzahl und neuerer Architekturstufe. Bei nem Idle Verbrauch von 3-5W oder was die Intels aufrufen ist das Delta zu 15W Load nicht gerade groß. Ob das in 7nm groß besser wird, werden wir sehen.

Am sinnvollsten für 6-8C halte ich im Moment die Klasse 35-45W. Also die "H" Modelle bei AMD bspw. Mal gucken wie der 4700U sich schlägt, wenn das stimmt, was jüngst spekuliert wird. Es bleibt aus meiner Sicht zu hoffen, dass da 2-4 Thread Load weiterhin bei um die 3GHz liegen. 1T gegen 4GHz oder drüber. -> das wäre so ziemlich der optimale Kompromiss. Allcore Volllast ist mMn eh untypisch bei Notebooks. Also das ganze Cinebench/Blender Zeugs. Praktisch normal nicht entscheidend.
Ergänzung ()

[wege]mini schrieb:
Wenn hier irgend jemand glaubt, dass man mit 15 Watt eine 8 Kern 16 Fred Cpu und dann noch eine 13 CU Graka zusammen betreiben könnte, hat er/sie Physik nicht verstanden. (das geht, aber sehr langsam....das steht schon fast)
Obs 100% stimmt, kein Plan, aber das ist so ziemlich das einzige, was ich bis dato finden konnte in Sachen Leistungsskalierung der 3000er Ryzen.
https://www.pcgameshardware.de/Mati...ge-Power-Tracking-statt-Undervolting-1295054/

Systemload von um die 50W im optimal Fall. Da gehen noch paar wenige Watt für das 400er Board drauf und bisschen für die dGPU.
Auf 15W gedrosselt würde so ein 3700/3800er Desktop Ryzen wohl keine wirklich gute Figur machen. MMn ist das einer der Hauptgründe, warum AMD atm kein 7nm Mobile Design im Programm hat bzw. das erst ne halbe Generation später kommt.
 
  • Gefällt mir
Reaktionen: Colindo
[wege]mini schrieb:
genau das ist halt auch der casus knacksus.

Wenn hier irgend jemand glaubt, dass man mit 15 Watt eine 8 Kern 16 Fred Cpu und dann noch eine 13 CU Graka zusammen betreiben könnte, hat er/sie Physik nicht verstanden. (das geht, aber sehr langsam....das steht schon fast)

Abwarten, was man mit 7nm stemmen kann....Einen "Quantensprung" (ist nicht weit, aber ein schönes Wort) darf man hier natürlich nicht erwarten.

mfg

deswegen habe ich von der CPU leistung gesprochen, die IGP wird bei reinen CPU lasten(bps. cinebench) kaum was fressen...
 
  • Gefällt mir
Reaktionen: [wege]mini
Colindo schrieb:
Also das sehe ich nicht so kritisch, im Gegensatz zu einem potentiellen Achterkerner von Intel in 14nm.

Man schaut ab einem gewissen Punkt nicht mehr auf die Konkurrenz, da sich umdrehen Zeit verbraucht und Energie benötigt.

15 Watt ist wirklich wenig...da beißt die Maus keinen Faden ab :evillol:

mMn braucht niemand einen 8 Kern, der mit 8 x 1,x Ghz kommt und dann für wenige Sekunden einen Turbo von 4 Ghz auf einem Kern hat.

Mit 15 Watt wird es schon schwer, einen Kern auf 4+ Ghz zu betreiben. Über 8 Stück davon, brauchen wir dann gar nicht reden.

Bei 15 Watt macht aktuell keine CPU "Spaß"....mal schauen, was mit 5nm und 3nm dann geht.

Einen Dual Core + HT mit 2 Ghz Stock und Turbo von 5 Ghz braucht echt niemand. :stock:

AMD wird die Teile ja irgend wann bringen, jeder darf aber jetzt schon bei sich zu Hause testen, was 15 Watt sind.....

mfg

p.s.

so ein 9 Watt Baby liegt hier auch noch....das kann richtig was....bei 9 Watt ist das aber langweilig.

https://ark.intel.com/content/www/d...ssor-u2400-2m-cache-1-06-ghz-533-mhz-fsb.html

Jetzt sind viele Jahre in Land gegangen, die Physik lässt sich aber auch nur bedingt aushebeln.
 
Zuletzt bearbeitet:
fdsonne schrieb:
1065G7 bei 9W nur 7% vor nem alten 7200U Dualcore mit 15W. Trotz doppelter Coreanzahl und neuerer Architekturstufe. Bei nem Idle Verbrauch von 3-5W oder was die Intels aufrufen ist das Delta zu 15W Load nicht gerade groß. Ob das in 7nm groß besser wird, werden wir sehen.
Hast du den Link zu dem Test noch? 6W Unterschied sind in diesem Bereich aber auch Welten.

Die Intel verbrauchen weniger als 3W im IDLE (geht auch unter 2W, je nachdem wie "IDLE" das System im Hintergrund ist). Mit ein Grund, warum AMD hier nach wie vor kein Land sieht. Die können zwar mithalten bei der Effizienz unter Last, aber was den Idle-Verbrauch angeht ist Intel immer noch eine Nummer für sich. Gerade in diesem Bereich schneiden die AMD im Vergleich immer sehr schlecht ab. Hoffe die neue Generation ändert dies.

Ein 8-Kerner wird wohl mit 15W noch nicht glücklich werden. Ich halte das eher als Marketing-Mache um im Laptop-Segment etwas Aufmerksamkeit zu erregen, da man wohl (leider) wieder nicht mit Intels Effizienz bei geringer Last mithalten kann. Hier wäre es nämlich durchaus viel besser mal einen Dauerläufer zu präsentieren, der ein Intel-Pendant um die eine oder andere Stunde Laufzeit schlagen kann.
 
  • Gefällt mir
Reaktionen: gaelic
Straputsky schrieb:
Hast du den Link zu dem Test noch? 6W Unterschied sind in diesem Bereich aber auch Welten.
https://www.computerbase.de/2019-12/amd-picasso-intel-ice-lake-comet-lake-test/
Ergänzung ()

Straputsky schrieb:
Ein 8-Kerner wird wohl mit 15W noch nicht glücklich werden. Ich halte das eher als Marketing-Mache um im Laptop-Segment etwas Aufmerksamkeit zu erregen, da man wohl (leider) wieder nicht mit Intels Effizienz bei geringer Last mithalten kann.
Wenn sie dem 4700U mit 15W bei den bisher spekulierten 8C/8T analog dem 3700U die Option bieten, bis zu 35W zu "nehmen", dann dürften die 8C schon einen Vorteil bringen.
Aber ich bin mir trotzdem ein klein wenig unschlüssig wie sinnig das am Ende ist. Denn 35W sind halt dann 35W - wenn ich als Ultrabook like Nutzer 35W in die wenige Milimeter dicke Flunder eines Elitebooks aktueller Bauart rein baller, dann glüht das Ding wohl weg und der Lüfter stirbt den Heldentod.
Für größere Kühlerdesigns aber durchaus eine Option.
 
pipip schrieb:
Oder Custom SoC mit Apple ARM Prozessor und RDNA GPU 🤔

Glaube ich nicht. Apple hat ja mittlerweile auch eine komplett eigene GPU Architektur. Man wird mit einem Schritt sowohl bei der CPU als auch bei der GPU auf eine eigene Lösung setzen.

Aber ich denke das wird noch länger dauern, als manch einer denkt. Bei den 15 / 16 Zoll MacBook Pros und bei den stationären Macs sehe ich das aber nicht in absehbarer Zeit.
 
[wege]mini schrieb:
15 Watt ist wirklich wenig...da beißt die Maus keinen Faden ab :evillol:

mMn braucht niemand einen 8 Kern, der mit 8 x 1,x Ghz kommt und dann für wenige Sekunden einen Turbo von 4 Ghz auf einem Kern hat.
Anandtech hat das beim aktuellen Threadripper mal analysiert. Quintessenz: Max. 13 Watt bei voller ST-Last mit Turbo. Wäre also sustained bei 15W TDP drin. Noch beeindruckender war jedoch folgendes: Bei All-core Last lag man bei 6W pro Core und trotzdem 4 GHZ.

Link: https://www.anandtech.com/show/1504...60x-and-3970x-review-24-and-32-cores-on-7nm/2
 
  • Gefällt mir
Reaktionen: YoWoo
pipip schrieb:
@Shoryuken94
Hatte ich mir auch anfangs gedacht. Aber ob man dann von Anhieb echt Notebook Klasse erreicht.

Denke man wird als erstes das MacBook Air und das kleine Pro damit ausstatten. Denke man wird durchaus mit den iGPUs mithalten können. Bei den Geräten mit diskreter GPU wird’s schwieriger, aber man kann nicht sagen, wie gut die GPU Skalierbare ist. Traue Apple durchaus zu, dass die den Einsatz in Notebooks beim Design berücksichtigt haben.Dazu haben sie den Vorteil, dass sie meist deutlich vor den GPU Herstellern TSMCs neuestes Fertigungsverfahren nutzen können. Wenn Intel weiterhin nicht aus dem Knick kommt, dann ist das kein zu unterschätzender Faktor.
 
@fdsonne
Da verstehe ich es dann aber überhaupt nicht, warum du es ausgerechnet mit dem 1065G7 vergleichst, der gänzlich anders aufgestellt ist, anstatt mit dem 10510U auf leise. Der 7200U und der 10510U sind von der Grafikeinheit her vergleichbar, so dass wirklich hauptsächlich die unterschiedliche CPU-Leistung zum tragen kommt und da wären es (beim Blender) nicht nur 7% sondern 70%. Wobei fraglich ist, inwiefern der 7200U seine TDP ausschöpft. Das schlechtere Abschneiden des 1065G7 ist der neuen Grafikeinheit geschuldet. Wenn du der CPU knapp 70% mehr Energie zugestehst, kommen da sicherlich auch die Leistung des 10510U raus - wahrscheinlich sogar etwas mehr, wie der R15 Single-Core Test vermuten lässt, wo der 1065G7 trotz niedrigerem Takt mehr Punkte einfährt.
 
  • Gefällt mir
Reaktionen: Colindo
Straputsky schrieb:
@fdsonne
Da verstehe ich es dann aber überhaupt nicht, warum du es ausgerechnet mit dem 1065G7 vergleichst, der gänzlich anders aufgestellt ist, anstatt mit dem 10510U auf leise.

Das war ja nicht das Ziel der Übung. Ich wollte darauf hinaus, dass die Leistungsaufnahme eben massiv verantwortlich sein kann, wie gut mehr Kerne im Vergleich zu weniger Kernen abschneiden. Warum den 1065? Kann ich dir auch sagen, das Modell ist wohl in dem Book auf Leise bei 9W gedeckelt. Während das 10510er bei 15W agiert. Mit der GPU hat das dort wenig zu tun, weil in der Blender Berechnung die GPU nicht mit rein spielt. Dass der 1065 da natürlihc eingebremst wird (künstlich, ja sogar unnötig) ist mir schon bewusst, aber aber in dem Fall wirklich so gewollt.
Es ging ja im Endeffekt oben um die 8C bei 15W. Die CPU Cores nehmen nicht 100% der Leistungsaufnahme. Also doppelte Cores macht normal nicht doppelten Verbrauch, weil das SI und Beikram auch was vom Kuchen abhaben möchte. Mit 9W bei 4C vs. 15W mit 8C bin ich da denke ich schon recht nah an einem möglichen Vergleichspaar um eine Skalierungsabschätzung geben zu können. Aber mehr soll/will das aber auch gar nicht sein.
Andersrum wissen wir von einem auf 37W gedeckelten 9980HK 8C Intel in 14nm Altprozess, der ~3GHz unter Allthread-Last aufruft.
 
Blöde Frage: warum klammert man sich eigentlich so sehr an die üblichen TDP-Klassen wie 15W (25W) und 35W (45W)?

Wäre es - gerade bei AMDs "H"-Serie - nicht wesentlich sinnvoller einfach ein 65W oder gar 95W Produkt auf den Markt zu bringen? Klar, klingt erstmal nach "viel mehr", aber da man auf eine stromhungrige und Abwärme verursachende dGPU a la GTX 1650/RX5500M erst Recht nicht angewiesen wäre, dürfte sich die Kühlung, die Akkugröße und so weiter für die APU dann ja trotzdem in Grenzen halten - oder übersehe ich da etwas?
 
  • Gefällt mir
Reaktionen: peru3232
just_fre@kin schrieb:
Blöde Frage: warum klammert man sich eigentlich so sehr an die üblichen TDP-Klassen wie 15W (25W) und 35W (45W)?

Weil es damit einfacher ist die Kühllösungen zu dimensionieren. Speziell beim Notebook ne wichtige Sache.
 
  • Gefällt mir
Reaktionen: Rockstar85
Zurück
Oben