Test Notebook-CPU-Vergleich 2022: Intel Core i-1200P/U vs. AMD Ryzen 6000H/U im Benchmark

Casillas schrieb:
Ist es denn so, dass Intels Fertigung so viel schlechter ist?
Kann ich nicht beurteilen, dazu müsste jemand anderes mal so mutig(verrückt) sein in Intel 7 fertigen zu lassen.

Casillas schrieb:
Oder ist es eher so, dass Intels Big Little Prinzip Stand AL noch nicht so weit ist?
Auch hier denke ich ist weniger das Problem.

Casillas schrieb:
Bzw. andersrum, dass AMD nicht unrecht hat damit, wenn sie sagen, dass sie P und E Cores nicht brauchen um effizient zu sein.
Genau das. Sehe noch keinen Grund für einen "E-Kern Zen". Vielleicht in 2 Jahren wenn es sich mehr rentiert und man sowas bringen muss. Im Mobilbereich merkt man das Intel damit laufzeittechnisch nicht viel gewinnen kann. Die ersten, inzwischen uralten, Folien hatten das damals sogar belegt.

Auch hier wird es deutlich das AMDs "P Kern" deutlich kleiner ist als Intels P Kern, sowie deutlich sparsamer im Hochfrequenzbereich. Inwiefern der größere DIE Einfluss auf die Leistungsaufnahme hat kann ich nicht sicher sagen. Einen Anteil hat es bestimmt.
 
@xexex "

1663837865861.png
"

Mein Punkt ist nur, dass 13th gen kurz bevor steht, wobei natürlich fraglich bleibt wie weit Ankündigung und Verkaufsstart auseinandergehen, wie schon gesagt: angenommen diesen Winter, besser noch dieses Jahr. Sicherlich ist der aktuelle Stand der, der er ist nämlich wie du sagst frisch und neu mit 12th gen und als AMD Gegenspieler AMD 6000
 
blechd0se schrieb:
icherlich ist der aktuelle Stand der, der er ist nämlich wie du sagst frisch und neu mit 12th gen und als AMD Gegenspieler AMD 6000
Womit soll man den im Augenblick sonst vergleichen?
Es wird, wenn neue Produkte erscheinen, dann mit neuen Produkten vergleichen.
Gerade Intel ist immer nicht so ganz genau was Release neuer CPUs angeht.
AMD/OEMs wiederum lässt sich bei Mobile Ablegern auch gerne Zeit.

Dazu kommt AMD Mobile 6000 sind Zen3+.
Würde es eher verstehen wenn du einen vgl. 13th Gen Raptor Lake vs. Zen 4 forderst.
Diese beiden gibt es aber noch nicht im Handel.
 
Powl_0 schrieb:
Es ging um ADL-U und warum die mit 28W Boost laufen.
Der läuft nicht 28W Boost, sondern dauerhaft 28W und boostet bis 54 W.
Intel sieht 10/28 W vor.
Der Hersteller betreibt also in Regionen die Intel gar nicht vorgesehen hat. Der Hersteller ist also hier der Schuldige.
Ich Maule nicht, ich korrigiere völlig falsche Behauptungen.
 
  • Gefällt mir
Reaktionen: Nagilum99
blechd0se schrieb:
Mein Punkt ist nur, dass 13th gen kurz bevor steht, wobei natürlich fraglich bleibt wie weit Ankündigung und Verkaufsstart auseinandergehen, wie schon gesagt: angenommen diesen Winter, besser noch dieses Jahr.
Die 12th Gen brauchte mehr als ein halbes Jahr. Die ersten Geräte wurden im März gesichtet und da waren sie noch lange nicht im Handel erhältlich, das wird bei der 13th Gen nicht anders sein. Testen kann man nur das was es letztlich zu kaufen gibt, Ankündigungen auf dem Papier kann man schlecht vergleichen.

Die OEMs werden jedenfalls nicht mehr in diesem Jahr noch etwas neueres auf den Markt bringen, wenn sie gerade erst dabei sind Geräte mit Alder Lake U/P einzuführen. Viele Geräte wie das Surface sind noch nicht einmal bei AL-P angekommen.
 
  • Gefällt mir
Reaktionen: bensen
bensen schrieb:
Genauso häufig, als wenn ich nur einen Monitor angestoßen habe. ;)
Wenn wer zwei Monitore nutzt, dann ist das eben ungünstig. Ja Ethernet ist ein Fall und der andere sind Card Reader, die ich nicht jedes mal an- und abstecken will und der nächste USB Port der am Monitor ist, für USB-Sticks oder Festplatten.
Wenn ich ne Dockingstation habe, will ich auch alle daran anschließen.
Du hast recht, dass für viele Setups USB-C voll ausreichte. Aber für Multimonitor Setups mit hoher Auflösung haben TB Docks schon eine Berechtigung.
Das größte Problem ist auch, dass viele Displays noch auf DP 1.2 hocken. Und die tauscht man nicht mal eben aus.

1. Cardreader kann man auch gut an USB 2.0 verwenden. Rund 50 MB/s reichen oft aus. Im normalen Büro worum es bei meiner ersten Antwort überhaupt ging (das hast du wohl übersehen) haben Cardreader übrigens nichts verloren. Zweitmonitore sind im moderrnen Büro auch selten geworden (Weil es so viel größere Monitore gibt).
2. TB ist keine echte Lösung für "kreative" die hochaufgelösste Monitore(sogar 2) wollen weil es bei TB das 100W Limit gibt. Laptops mit GPUs kann man damit oft nicht betreiben (bei uns sind alle CAD Laptops noch am Netzteil. USB-C PD/TB nur zum Laden, nicht zum richtigen betreiben. Wir haben auch proprietäre USB-C und TB Docks von Dell für Homeoffice die an ausgewählten Dell Laptops mehr Strom liefern. Hat dann nichts mehr mit standard TB zu tun). Das Zephyrus G14 in diesem Test ist ja ein gutes Beispiel weil es über 100W zieht und deshalb noch Hohlstecker hat.

Auch wenn es viele nicht wahrhaben wollen: TB Docks haben kaum noch eine Daseinsberechtigung.

USB 4.0 mit PD 3.1 ist die einzige Lösung und die habe ich nur bei Apple MBP 16" gesehen (140W). PD 3.1 kann theoretisch bis 240W.

Vielleicht kann man dann bald wirklich alles mit einem Kabel machen. Wird aber wohl noch dauern.
 
Rembrandt wurde im Januar 2022 vorgestellt. Januar 2023 könnte die Vorstellung von Phoenix und Dragon Range anstehen. Zen4 und RDNA3 wären wieder ein größerer Schritt statt kleiner Aufguss. Mobile soll es auf 16K gehen.

Powl_0 schrieb:
Aber es stimmt doch. Gerade mit knappem Power Budget übertrumpft Ryzen 6000 die Intel 12. Gen.

Da sieht ein 1255U mit 2P+8e die Rücklichter eines 6800U mit 8c, und verbraucht dabei sogar zeitweise mehr.
Dieser Erfolg geht noch auf Renoir zurück. Cezanne hätte das Bild auch nicht wesentlich verändert.
 
kramko schrieb:
1. Cardreader kann man auch gut an USB 2.0 verwenden. Rund 50 MB/s reichen oft aus. Im normalen Büro worum es bei meiner ersten Antwort überhaupt ging (das hast du wohl übersehen) haben Cardreader übrigens nichts verloren. Zweitmonitore sind im moderrnen Büro auch selten geworden (Weil es so viel größere Monitore gibt).
USB 2.0 macht keine 50 MB/s sondern maximal 35 MB/s. Das bremst jede Karte aus.
Und warum sollen Cardreader nichts im Büro verloren haben? Was ist der elegantere Weg um von einer Kamera Daten zu übertragen?
Zweitmonitore sind auch nicht selten. Klar hilft ein großer auch, kann aber nicht immer zwei ersetzen. Zudem sind die einfach vorhanden und werden nicht einfach ersetzt.
Normales Büro gibt es nicht. Es gibt unendlich viele unterschiedliche Arbeiten in Büros erledigt und so vielfältig sind die Anforderungen.



kramko schrieb:
Auch wenn es viele nicht wahrhaben wollen: TB Docks haben kaum noch eine Daseinsberechtigung.
Da sind meine Erfahrungen ganz andere. Fast überall wird TB für die Docks genutzt. Und das sind Firmen mit mehreren Tausend Mitarbeiter. Für die meisten war TB nicht mal nötig. Aber soll halt einheitlich sein....

kramko schrieb:
USB 4.0 mit PD 3.1 ist die einzige Lösung....
Wird sie vielleicht mal, ja. Ich bin ja schon froh dass sich USB -C langsam breitflächig durchsetzt. Wie viele Notebooks noch nicht über USB-C geladen werden können, ist schon traurig.
Ergänzung ()

blechd0se schrieb:
Es ist halt der Vergleich mit AMDs neuster Serie und Intels "alter" Serie (Was halt gerade auf dem Markt ist). Für den wirklich interessanten Vergleich müsste man auf Intel 13th warten, vorausgesetzt der Start kommt nicht so stark versetzt zu AMD 6000, also am besten noch diese Jahr.
Nö. Rembrandt ist auch "alt". Ist aber wie Alder Lake auch jetzt erst breit verfügbar im unteren TDP Bereich. Rembrandt war vielleicht etwas später dran, ist aber die gleiche Generation wie Alder Lake. Bis Raptor Lake auf dem Markt verfügbar ist, ist auch schon AMDs Strix Point vorgestellt. Kann dann auch wieder warten. :D

Zumal Raptor Lake mobile jetzt auch nicht gerade bahnbrechende Verbesserungen verspricht.
Da wird Meteor Lake wieder spannend.
 
Zuletzt bearbeitet:
@benson Ja da hast du sicherlich recht. Ich als alter Hardware-typ bin eh eher an den Produktionsneuheiten als an dem Chip selbst interessiert. Aber ich denke mal es geht immer weiter Richtung chiplets über irgendwelche Interposer und SoCs.
 
@bensen
"Aber soll halt einheitlich sein...." und" Zweitmonitore sind auch nicht selten. Klar hilft ein großer auch, kann aber nicht immer zwei ersetzen. Zudem sind die einfach vorhanden und werden nicht einfach ersetzt."
1. Einheitliche IT gibt es bei keiner größeren Firma die ich gesehen habe.
2. Monitore werden regelmäßig ersetzt. Ich frag mich was deine Firma für antike Monitore sammelt. Alle größeren Firmen haben IT Verträge die für einigermaßen aktuelle Hardware sorgen (inklusive Monitore). "Sind halt vorhanden" ist kein Argument, sonst würde man noch 386er mit VGA Monitoren nutzen. Vernünftige Firmen warten nicht bis die Hardware kaputt geht um sie zu wechseln. Ist ja auch in den Verträgen nie so geregelt.
 
kramko schrieb:
1. Cardreader kann man auch gut an USB 2.0 verwenden. Rund 50 MB/s reichen oft aus.
Einen Cardreader mit USB 2.0 betreiben zu wollen, ist durchaus ein schräger Fetisch.
Ich mein für 3 JPEG á 5 MB sicher... aber wenn du wirklich ein paar GB zu übertragen hast...
Die 50 sind übrigens ganz weit in der Theorie. In der Praxis sind das netto ~30 - 35 MB/s.
 
  • Gefällt mir
Reaktionen: bensen
Hm eine Frage in die Runde was ist denn PD etwa portdisplay was hier so geschrieben worden ist? Weil ich kenne ja nur dp wie für display port. Achja Tb ist ja thunterbold, also das habe ich auch mal verwendet gehabt.

Achja bei mir in der Arbeit verwenden auch welche bei wo 2 Bildschirme aber nicht überall. Mit wurde gesagt das manche Arbeitsplätze 2 Bildschirme benötigen für bessere Übersicht und so. Die meisten verwenden aber nur 1 Bildschirm. Warum weil da nur einfache Sache damit gemacht wird. Und das auch dann mit 27 " also heißt es 2x27". Mit kann es ja egal sein aber ich saß auch mal bei einem Platz mit 2 Bildschirmen. Hat mich anfangs irritiert gehabt die Maus hin und her zu schieben von einem zum andern und auch das ich so viel schauen musste war echt nicht ohne. Ich kann mich aber über die Größe echt nicht beklagen. Sind halt 27" wqhd Bildschirme. Zum zocken wäre die mir zu klein aufgelöst darum habe ich ja auch 27" full hd da stehen. Habe da extra auf der Arbeit darum gleich mal die Auflösung runter gestellt gehabt. Also das kann man ja wenigsten noch machen größere gehen ja eben nicht.
 
kramko schrieb:
1. Einheitliche IT gibt es bei keiner größeren Firma die ich gesehen habe.
Dann bist du vielleicht noch nicht so weit rum gekommen.
kramko schrieb:
2. Monitore werden regelmäßig ersetzt. Ich frag mich was deine Firma für antike Monitore sammelt. Alle größeren Firmen haben IT Verträge die für einigermaßen aktuelle Hardware sorgen (inklusive Monitore). "Sind halt vorhanden" ist kein Argument, sonst würde man noch 386er mit VGA Monitoren nutzen. Vernünftige Firmen warten nicht bis die Hardware kaputt geht um sie zu wechseln. Ist ja auch in den Verträgen nie so geregelt.
Danke. Du bist also an einer sachlichen Diskussion gar nicht interessiert. Warum meinst du es gibt nur eine vernünftige Lösung für Hardwarebeschaffung?
Die Monitore sind nicht uralt sondern hochwertig und entsprechend teuer. Die werden dann nicht nach drei Jahren weggeschmissen.
Keine Ahnung was du für beknackte Schlüsse ziehst und meinst es würde gewartet bis die kaputt sind. Es werden eben keine neuen Monitore gekauft, nur damit 50€ bei der Dockingstation gespart werden kann.
Ergänzung ()

Powl_0 schrieb:
Die 28W sind Max Boost Power für ADL-U 9W Base config.
Richtig. Ich hab beim 1250 geschaut. Aber Boost ist auch nicht interessant. 28W sind einfach zu viel für so wenig P-Kerne. Die takten zu hoch.
Powl_0 schrieb:
In beiden Fällen ist die Effizienz vs Zen 3 aber unterlegen...
Ja, je höher die TDP desto mehr sind die wenigen Kerne im Nachteil. Die 28W mit 6 P-Kernen steht deutlich besser da. Da hätte ich einen größeren Unterschied zu Rembrandt erwartet.
Ergänzung ()

latiose88 schrieb:
Hm eine Frage in die Runde was ist denn PD etwa portdisplay was hier so geschrieben worden ist?
Power Delivery. Stromversorgung über USB.
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
Ich wüsste a) nicht warum und hoffe b) dass der Mist nicht Einzug hält.
Wie man hier wunderbar sehen kann, braucht kein Mensch das Zeug. Am Ende ist das wieder so eine kompromiss-krücke die mal mehr mal weniger gut läuft.
Es kommt nur dann gut was bei rum, wenn die Anwendung auch wirklich alle Kerne nutzt, was um so schwieriger wird, je mehr es werden.
Aber der Kompromiss ist gut. Intel kann dadurch den High performance Kern mehr aufbohren, noch größer machen. Dadurch können Apps die nur 1-2 Threads brauchen beste Latenz und Leistung bekommen.
Gleichzeitig kann man aber fast 4 von den kleinen Kernen auf der Fläche eines großen unterbringen. Für gut paralellisierbare Sachen und da gibt es viele ist es besser einfach viele kleine Kerne zu haven solange die Speicherbandbreite reicht weil du einfach 40 davon statt 10 extra großen Kernen einbauen kannst.

TL;DR es macht einfach Sinn weil die Balance finden zwischen chip Platzverbrauch, Latenz vs Durchsatz nicht leicht ist. Das heißt man muss immer entweder Single Core oder Multithreading priorisieren.
Wenn AMD schon Big Little hätten würden die Intel mit den Zen4 deklassieren in den Benchmarks. Intel kann aber die big cores bigger machen und die small cores vermehren und dadurch mithalten.
 
@duskkk

Naja was heißt da mithalten, nur halt so halbwegs. Wenn man aber genauer hinsieht und es sehr genau nimmt hat Intel noch immer nicht ganz ne Chance. Wenn man dann sowas wie Leistung pro Watt nimmt oder Leistung pro Temperatur oder Watt pro Temperatur dann verliert Intel ganz schön.
Aber das kann sich ja irgendwann mal auch ändern weil Intel wohl bald 16 kleine Kerne also e kerne und 8 große also p Kerne mit ht 16,ebenso 32 threaded sind wie bei AMD halt auch.
Dann wird das Duell wohl echt spannend und scheinbar kann auch AMD nur noch mehr Strom rein buttern für mehr leistung.
Hier hat Intel die Chance sparsamer werden zu können. Ob Intel die Chance nutzt oder Nutzen kann, das sehen wir noch dann.
 
Mich würde mal interessieren wie die Leistung zwischen einen Pcore HT thread und einem E core thread aussieht.
 
duskkk schrieb:
Aber der Kompromiss ist gut. Intel kann dadurch den High performance Kern mehr aufbohren, noch größer machen. Dadurch können Apps die nur 1-2 Threads brauchen beste Latenz und Leistung bekommen.
Gleichzeitig kann man aber fast 4 von den kleinen Kernen auf der Fläche eines großen unterbringen. Für gut paralellisierbare Sachen und da gibt es viele ist es besser einfach viele kleine Kerne zu haven solange die Speicherbandbreite reicht weil du einfach 40 davon statt 10 extra großen Kernen einbauen kannst.
Der Kompromiss ist Mist. Du siehst doch dass Intel trotz der vielen Kerne keine klare Distanz zu AMD schafft, wobei AMDs Kerne gleichzeitig alle universell verwendbar sind.
Inzwischen gibt es durchaus viel Verwendung für irgendwas zwischen 4 und 8 Kernen, darüberhinaus wird es aber sehr eng. Die von dir skizzierten 40 sind für 99,9 % der Systeme völlig nutzlos weil dort schlichtweg keine Anwendungen laufen die die Leistung benötigen oder Aufgaben haben, die so massiv skalieren.
Dir scheint der Blick für die Realität zu fehlen. Zumal die E-Kerne auch kleiner sind, weil sie nicht den kompletten Instructionset beherrschen.
Auch das mit der Speicherbandbreite ist von dir pauschalisiert und in der Praxis teilweise irrelevant. Das ist fast so Anwendungsindividuell wie die Anzahl der nutzbaren Kerne.

TL;DR es macht einfach Sinn weil die Balance finden zwischen chip Platzverbrauch, Latenz vs Durchsatz nicht leicht ist. Das heißt man muss immer entweder Single Core oder Multithreading priorisieren.
Wenn AMD schon Big Little hätten würden die Intel mit den Zen4 deklassieren in den Benchmarks. Intel kann aber die big cores bigger machen und die small cores vermehren und dadurch mithalten.
Am Ende muss man sich schon fragen, welcher Benchmark für einen überhaupt relevant ist.
Cinebench war früher durchaus relevant, skaliert aber einfach sehr gut und ist damit kaum noch praxisrelevant, weil die wenigsten Leute Anwendungen nutzen, die auch nur ansatzweies so viele Kerne nutzen können oder gar brauchen.
 
Nagilum99 schrieb:
Die von dir skizzierten 40 sind für 99,9 % der Systeme völlig nutzlos weil dort schlichtweg keine Anwendungen laufen die die Leistung benötigen oder Aufgaben haben, die so massiv skalieren.
Auf Notebooks laufen grundsätzlich selten Anwendungen die viele Kerne benötigen, meist braucht man viele Kerne aber dann doch um mal ein Video zu bearbeiten oder wenn man sehr viele Tabs im Browser offen hat. Intel geht da einen Kompromiss ein und kann sowohl schnelle große Kerne verbauen, die von den meisten Applikationen profitieren, als auch viele Kerne wenn jemand doch mal ein Video bearbeiten will oder viele Tabs im Browser öffnet.

Die Benchmarks die in solchen Tests durchgeführt werden, spiegeln das nur bedingt wieder, die CPUs trotzdem gut geschlagen. Hätte Intel aktuell eine 4P/16E CPU auf dem Markt, wäre das Ergebnis anders ausgefallen und AMD hat mit dem N6 Prozess auch noch einen kleinen Fertigungsvorsprung. Nenne mir mal einen Test aus dem Benchmark, der nicht beliebig mit der Anzahl der Threads skaliert, die angesprochenen 40 Kerne wären da allesamt zum Einsatz gekommen.

Rocket Lake ist die erste Generation von big.LITTLE CPUs von Intel, wie bei dem Desktop Ableger hat man hier aber noch relativ wenige "E" Kerne verbaut. Die kommende Generation bringt hier zusätzliche Kerne und während AMD mit Ryzen 7000 hier schlichtweg mit höheren Energieaufwand und klassischer Technik dies vermutlich schlagen wird, wird man bei den Notebooks kaum einen drauf packen können.
 
Zuletzt bearbeitet:
Ich finde 8E Kerne schon ziemlich viel für eine kleine mobil CPU. Das Problem hier bei den mobilen Chips ist ja nicht die Anzahl an E Kernen sondern der Stromhunger der P Kerne.
 
Zurück
Oben