News Tiger Lake-H(45): Für Notebooks gibt es jetzt 10-nm-CPUs mit bis zu 8 Kernen

Freiheraus schrieb:
--> 607 Punkte im Cinebench R20 (Multi-Thread) durch 5 Watt sind 121,4 Punkte pro Watt, nicht 212,4 Punkte pro Watt :D
Das 28 Sekunden lang anliegende PL2 (9,5W), das in der verdrehten Rechnung offenbar auch keine Berücksichtigung fand, geschenkt.
Es könnte sich um einen Zahlendreher handeln, muss es aber nicht. Das liegt daran, dass auch z. B. deine angegebene PL2 gar nicht anliegt. Der Redakteur hat sich selbst im dortigen Forum dazu geäußert.

Freiheraus schrieb:
Der Effizienzwert des Ryzen 9 4900HS mit dem weit ausserhalb des Sweetspots laufenden Turbo-Profils ist ein weiterer Fauxpas.
Der 4900HS war lange Zeit exklusiv dem ASUS Zephyrus 14 vorbehalten und wenn ich mir die Reviews der anderen Redaktionen anschaue, dann gibt es Turbo, Performance und Silent Profile. Die ersten beiden unterschieden sich dadurch, dass der 53/54W-Modus länger halten kann, bevor er in den 35W rutscht. Dass er dabei nicht im Effizienzoptimum läuft ist eine andere Geschichte. Schließlich wurden ihm im Test auch sehr oft 4100 Punkte im CB R20 Multi bescheinigt. Daher sollte auch das zugrundliegende Profil berücksichtigt werden - auf irgendeinen Wert/Profil muss man sich halt einigen.

Freiheraus schrieb:
...der ersten 8 Sekunden gewesen sein muss. Wenn die CPU jedoch ab Sekunde 9 bis zum Ende des ca. 70 Sekunden dauernden Runs nur etwas über 50 Watt aufnimmt, passt die Rechnung überhaupt nicht mehr.
Dies ist wohl tatsächlich ein Fehler der Redaktion. Der 4900HS boostet kurz 65W und dann eine relativ lange Zeit 53W. Und nach ungefähr dem 6. Cinebench-Durchlauf rutscht er auf 35W runter. Zumindest wenn ich mir die Bilder und die dazugehörige Beschreibung anschaue. Rechnerisch ergeben 9 Sekunden 65W und 61 Sekunden 53W ca. 54,5 durchschnittliche Leistungsaufnahme. Wenn ein Durchlauf tatsächlich 70 Sekunden dauert, ergibt es einen neuen Effizienzwert von 4142/54,5 = 76 statt der 64.


Mein Fazit:
Letztlich wollte ich ja nur auf den ursprünglichen Post mitgeben, dass es nicht so einfach ist, eine Performance pro Watt Angabe zu machen. Es ist zwar schön wie effizient eine APU in deinen Tests sein kann, aber es bringt niemanden was, wenn die nie so in Betrieb geht. Bei meinem 4800U ist das niedrigste Powerprofil mit PL1 = 12W und das höchste PL1 = 37,5W. Damit muss man als Enduser leben. Du hast ja bereits direkt das ineffizienten Turboprofil vom 4900HS angesprochen. Und gerade so etwas macht den Test kompliziert und schwer vergleichbar. Jeder OEM backt seine eigenen Brötchen und daraus soll dann ein Effizienzwert von einer ganz bestimmten CPU, die in tausend Konfigurationen und Profilen vorliegt, bestimmt werden.

Auf Nachfrage wollte der Hersteller das TAU jedoch weder bestätigen noch dementieren, der Wert ist von OEM-Partnern genauso wie PL1 und PL2 anpassbar. Quelle: Golem
 
Edward01 schrieb:
Hast du das im BIOS festgelegt?
Na klar. Kann man das Live im System ändern? Hätte gerne ein 80W Spiele Profil und 100W Rendering

@Freiheraus
Dein System ist richtig geil optimiert :D Da werde ich immer aufs neue Neidisch.
Mein 4650 mit viel USB Hardware idled momentan bei 10W, mit Sound bei 14W.
 
Edward01 schrieb:
Hast du das im BIOS festgelegt?
Bei Notebookprozessoren lässt sich im BIOS so gut wie nichts ändern. Das läuft nur über die von den OEMs vorher festgelegten Powerprofile.

Renoir und Cezanne werden nicht von Ryzen Master unterstützt. Es gibt das Tool "Renoir Mobile Tuning". Aber hatte damit mehr Probleme gehabt - insbesondere wenn man im Changelog so etwas liest wie "RC8: fixed a problem with loading the stock values."
 
  • Gefällt mir
Reaktionen: Edward01
Kann mir schon vorstellen, dass bei Games das Design von Intel aufgehen wird. Wir haben mittlerweile ja 8 Kerne und 16 Threads, was die meisten Spiele nicht optimal ausnutzen können. Wenn ich jetzt aber 4 starke Kerne habe für die 100% Threads und dann schwächere Kerne die auch zu 100% ausgenutzt werden können, dürfte die Effizienz steigen. Vorallem bringt man dann in einem TDP Limit mehr kleinere Kerne unter zb. 4 starke, 6 kleine usw. .
Evtl. kann Intel bei so einem gemischten Design im Desktop die starken Kerne abschalten lassen.
 
trendliner schrieb:
Du argumentierst an meiner Antwort vorbei.
Und du verallgemeinerst und vereinrachst stark.
trendliner schrieb:
Also nochmal ganz einfach:
Intel: 100W / 8 Cores = 12,5W/Core
M1: 20W / 4 Cores = 5W/Core
Das ist eine Milchmädchenrechnung. 1. gibt es auch 8-Kerner bei Intel, die af die besagten 5 W pro Kern kommen, aber auch das ist eine Milchmädchenrechnung, weil man nicht einfach nur Kerne hinzufügen kann, sondern man muss für jeden Kern noch mal zusätzliche Schaltungen - auch bei anderen Kernen - für die interne Verwaltung einplanen.

Einfach so "16"-Kerne hinzufügen reicht hier nicht, für 16 Kerne mehr muss man sich überlege, wie man den Cache besser organisiert, muss Brücken innerhalb der Cache-Tiles einsetzten, muss Schaltungen hinzufügen, muss ggf. den Interconect auch verbreitern, weil mehr Kerne, mehr Kommunikation, mehr Datenaufkommen. Dazu kommen breitere Interfaces für den Speicher usw.

Es ist in dem Fall also nicht damit getan einfach irgendwie etwas zu errechnen.

RuhmWolf schrieb:
Deutlich mehr Rechenleistung als der M1 selber oder meinst du, dass man es dann schafft zwei Jahre alte Prozessoren wie den 9980HK oder auch 4800U im SingleCore zu schlagen? Bisher schafft man das noch nicht auch wenn man es überall liest (siehe Beitrag bei igor dazu).
Nur das man in dem Fall die Meinung des Gastautos bei Igor teilen kann oder auch nicht. Wenn man anderen Fehler vorwirft, sollte man selbst darauf achten, dass man mögichst akkurat arbeitet und sich überlegt, was warum wie ist und was man denn wirklich vergleichen will und was die Aussagekraft ist.

Man kann sich zum Beispiele durchaus die Frage stellen, warum man bei x86 SMT einführte mit der Zeit und warum es zum Beispiel beim ARM-Prozessor bisher noch nicht unbedingt erfolgt ist - wobei da entsprechende Planungen existieren.

Genauso könnte man hier den Begriff "Single-Core"-Performance allgemein mal hinterfragen und statt halbgar über SMT und nicht SMT-Kerne zu philosophieren, sich überlegen ob man hier nicht einfach nur eine falsche Begrifflichkeit verwendet.

Es ist schon teilweise echt traurig, dass hier Journalisten immer wieder die Arbeit ihrer Kollegen diffamiere, Inkompetenz unterstellen, nur weil es ihrer Meinung nach nicht richtig ist und man sogar schon alleine durch jede Zeile des Textes den Glaubenskrieg hindurch lesen kann.

RuhmWolf schrieb:
Ein i7-1165G7 ist 20% schneller im SingleCore als Apples M1.
Ein i7-1165G7 taktet dabei aber auch mit bis zu 4,7 GHz - 4,1 und der Firestorm-Kern NUR mit 3,2 GHz. Setzten wir mal 100 Punkte - weil es gerade einfach ist - für den Firestorm an und 120 für den Core, dann haben wir einmal eine fiktive IPC von 31,25 und für den Intel einmal 29,27 und einmal 25,54: ca. 8% - 22 % mehr IPC für den Apple M1.

Ansonsten: Der Apple M1 ist als Prozessor wirklich ein Brett und das ist auch eine Sache, die man mal aktezeptieren kann. Alleine von den Eckdaten - 8 Befehle pro Takt können decodiert werden, 4 * 128Bit-SIMD, 6 * allgemeine ALUs. Alleine diese Eckdaten lassen die Leistungsfähigkeit des Kernes erkennen. Dazu kommt eine Vielzahl an Register, die es dem Kern ermöglichen die Lese- und Schreibzugriffe auf L2 als auch den RAM einzudämmen - der größte Schwachpunkt von x86. Noch wichtig: Apple schafft es das Backend mit einem Decoder wirklich auszulasten, weil das decodieren von ARM-Anweisungen auch heute noch ein gutes Stück simpler ist, als bei x86. Intel und AMD greifen nicht ohne Grund auf ein MikroOP-Cache zurück, damit sie ihren Decoder entlasten, weil der es sonst nicht schafft das Backend sinnvoll auszulasten.

Und da halt auch der nächste Punkt mit SMT: Für Apple ist es dank ARM relativ einfach das Backend OHNE SMT auszulasten, weil man bereits vom Compiler her entsprechenden Code bekommt, den man sehr gut sortieren kann und OoO sogar auf atomarer Ebenen ausgeführt werden kann, während das bei x86 so nicht der Fall. SMT steigert die Leistungsfähigkeit bei Intel und AMD, weil immer irgendeine ALU, AGU oder Store/Load-Einheit nichts zutun hat, weil mal wieder gewartet werden muss bis aus den Caches die Daten in den passenden Registern sind, damit der eigentliche Befehl dann ausgeführt werden kann usw.

Ja, ich weiß, für die meisten hier ist es ein Sakrileg zu schreiben, dass Apples M1 eine echt geile CPU ist und Apple damit auch das Potential von ARM gut aufzeigt und was da möglich ist.

x86 hat konzeptionelle Nachteile aus der Vergangenheit, die man so nicht mehr lösen kann. Klar, man kann die IPC und auch die Rechenleistung bei x86 immer noch steigern und in Teilgebieten wirklich auch überzeugen - AVX256, AVX512, das nun kommende AMX - das ändert aber nichts daran, dass wir immer noch von CISC-CPUs sprechen, die zwar "intern" als RISC arbeiten - MikroOPs - aber deren Decodierung bis heute recht aufwändig ist und man deswegen auch versucht soviel wie möglich an decodierten Befehlen in Caches zu halten und man auch versucht in jeder Leerlaufphase so viel wie mölich schon zu decodieren und auch auf Verdacht auszuführen.
 
  • Gefällt mir
Reaktionen: TheCrazyIvan, Rockstar85 und Sephiroth51
Teralios schrieb:
Und da halt auch der nächste Punkt mit SMT: Für Apple ist es dank ARM relativ einfach das Backend OHNE SMT auszulasten, weil man bereits vom Compiler her entsprechenden Code bekommt, den man sehr gut sortieren kann und OoO sogar auf atomarer Ebenen ausgeführt werden kann, während das bei x86 so nicht der Fall. SMT steigert die Leistungsfähigkeit bei Intel und AMD, weil immer irgendeine ALU, AGU oder Store/Load-Einheit nichts zutun hat, weil mal wieder gewartet werden muss bis aus den Caches die Daten in den passenden Registern sind, damit der eigentliche Befehl dann ausgeführt werden kann usw.
Daher ist es auch Quark einen M1 Kern mit einem x86 Kern ohne SMT zu vegleichen...
Genau das passiert aber, soweit ich das sah, in beinahe jeden Benchmark...
Das ist quasi superdämlich und abseits der Realität.

Der M1 ist gut, keine Frage, wird aber massiv überbewertet. Apple Marketing mit Zahlen funktioniert gut.
Das es mit uralten Intel Apple Pendants verglichen wird ist halt nicht wichtig.
Das es den aller neuesten Node (TSMC 5nm) nutzt wird auch gar in seinen Auswirkungen überhaupt nicht realisiert.
 
  • Gefällt mir
Reaktionen: Rockstar85 und RuhmWolf
C4rp3di3m schrieb:
Glaube nie im Leben das eine Intel APU eine AMD APU schlägt, die Sharedmemory Grafik von Intel taugt doch nix :D

mfg
Man sollte Intel nicht unterschätzen so ist ihr Produktportfolio doch aktuell was man bei AMD nicht sagen kann was Grafik anbelangt und die wird von Dir überschätzt. Es ist erstaunlich was man aus Vega noch rausgeholt hat, aber für mich ist Vega dasselbe wie Intels 14nm++++ Prozess.

Ein Gerät mit RDNA2 würde mich reizen, aber leider werde ich wohl bis 2022 warten müssen. Schade das es AMD nicht früher geschafft hat.
Aber so ist es halt.
 
Draco Nobilis schrieb:
Daher ist es auch Quark einen M1 Kern mit einem x86 Kern ohne SMT zu vegleichen...
Nein, es ist kein Quark und der Aufschrei jetzt ist auch ein bisschen heuchlerisch, denn bisher hat es keinen wirklich gestört, da die Welt von den meisten Menschen in Ordnung war: Apple CPUs ware zwar schnell, aber ein wirklicher Vergleich mit der x86-Welt war nicht wirklich möglich und die ARM-CPUs die sich diesen Kampf stellten, waren zwar alle sparsam, aber auch in den meisten Szenarios entsprechend "langsam", weil sie weder die IPC noch den Takt hatten.

Der Aufschrei, dass x86-CPU-Kerne ganz unfair behandelt werden, kommt erst jetzt auf, weil ein ARM-Kern bei einem Thread MEHR leisten kann, als ein x86-Kern bei einem Thread. Da ja aber nicht sein kann, was nicht sein darf für manche Menschen, wird nun der Strohhalm SMT heraus gekramt um die Ergebnisse zu relativieren, weil man ja SMT braucht um die wirkliche SingleCore-Performance zu erfassen.

Zu Dumm und in dem Fall in meinen Augen peinlich für den Gastjournalist bei Igorslab als auch peinlich für alle die nun auf diese Schiene fahren: Warum genau jetzt? Früher bei den Vergleichen von CPUs mit und ohne HT/SMT hat das keinen gestört? Wenn man danach geht, sind soviele Tests x86 gegen PowePC, x86 gegen SPARC und ein paar andere Architekturen genau so unfair gewesen, weil man da die "SingleCore"-Performance nur mit einem Thread gemessen hat, obwohl PowerPC sogar bis zu 8 fachem SMT bietet.

Und wie gesagt: Wir können auch einfach die Begrifflichkeit ändern, statt SingleCore-Performance nennen wir es halt nun 1-Thread-Performance. Denn genau von dieser 1-Thread-Performance sprechen wir immer, auch im Vergleich von AMD und Intel. Wo ist denn da eigentlich der Aufschrei, dass AMDs SMT besser skaliert als Intels HT? Warum kam da nicht der Aufschrei von diesem Journalisten, von anderen, die hier nun meinen, dass man ja die Single-Core-Performance nur bewerten kann, wenn soviele Threads auf dem Kern liegen, wie er verarbeiten kann?
Draco Nobilis schrieb:
Genau das passiert aber, soweit ich das sah, in beinahe jeden Benchmark...
Erneut: Wo ist da wirklich das Problem. Bisher wurden alle CPUs nach dem gleichen Modell getestet und man nannte 1T = Single-Core-Performance. Über die Begrifflichkeit kann man nun gerne diskutieren. Was einige daraus aber machen ist einfach lächerliches Kleinkindgehabe. Und warum? Weil manche weiterhin sich die Fassade erhalten wollen, dass nur x86 leistungsfähig sein kann und dieses Traumgebilde nun langsam erste Risse bekommt und der Putzt langsam abblättert.

Nur erneut: Wo ist das Problem? Was ist so schlimm daran, dass Apple mit dem M1 zeigt, dass ARM das Potential hat auch schneller zu werden als x86 und dass man mit dem ARM-Befehlssatz ULTRABREITE CPUs designen kann?

Ich finde es toll, dass Apple hier die Leistungsfähigkeit von RISC-ISAs zeigt und was möglich ist, wenn man einen einfachen Befehlssatz mit einer hohen Register-Anzahl zur Verfügung hat. Das macht die Intel CPUs nicht schlechter und bringt vielleicht auch endlich wieder Bewegung in die x86-Entwicklung.
Draco Nobilis schrieb:
Das ist quasi superdämlich und abseits der Realität.
Nein, es ist nicht superdämlich und auch nicht abseits der Realität, sondern es wird seit Jahren mit der Single-Core-Leistung die für Programme und Entwickler relevante Single-Thread/1T-Leistung einer CPU ermittelt.

Wie gesagt, das Thema kann man auch anders angehen und statt falsche Messmethoden zu unterstellen, kann man auch einfach mal sich die Frage stellen, ob man nicht einfach einen falschen Begriff bisher verwendet hat.

Mich als Entwickler, auch in der Planung eines Programmes ist es vollkommen irrelevant, ob auf einem Kern 2 Threads ausgeführt werden können oder 4 oder 8 und dass es auch für die meisten Anwender nicht. Die meisten Programme und ebenso die meiste Algorithmen werden bis heute nicht Multi-Threaded implementiert, sondern immer noch Single-Threaded.

Und selbst wenn ich mehrere Task heute relativ einfach öffnen kann (asynchrone Ausführung, Worker usw.) wartet man am Ende doch auf die Ergebnisse um weiter zu machen, was dazu führt, dass man immer noch sehr viel seriell ausführt und nicht parallel.

Aber wie bereits geschrieben: Es scheint hier eher so zu sein, dass nicht sein darf, was einfach nicht sein darf.

Draco Nobilis schrieb:
Der M1 ist gut, keine Frage, wird aber massiv überbewertet.
Nein, der Prozessor ist nicht massiv überbewertet, Apple zeigt mit dem M1 nur sehr gut auf, was mit RISC und insbesondere ARM möglich ist und ebenso zeigt es deutlich, wie sehr sich die Welt der Informatik innerhalb weniger Jahre ändern kann und welche Probleme man damals schon erkannte und wie man da gegenwirken kann.

Nur muss man da halt ein wenig mehr sich mit der Materie beschäftigen, als einfach nur stumpf in sinnlosen Glaubenskriege zu verfallen.
Draco Nobilis schrieb:
Apple Marketing mit Zahlen funktioniert gut.
Das Apple hier mit bestimmten Zählen hantiert, ist klar nur wo macht bitte Intel oder AMD etwas anderes? Intel gibt schon weit vor Produktstart damit an, dass sie im Bereich X plötzlich Zuwächse von 200 % und mehr an Leistung haben, weil sie ja jetzt Befehle für Tensor-Operationen haben oder weil sie die SIMD-Einheiten von 256Bit auf 512Bit verbreitert haben usw.

Mit Zahlen werfen sie alle umsich und Intels Marketing funktioniert da auch sehr gut. Auch wieder so ein lächerlicher Vorwurf.

Draco Nobilis schrieb:
Das es den aller neuesten Node (TSMC 5nm) nutzt wird auch gar in seinen Auswirkungen überhaupt nicht realisiert.
Und noch so ein Strohhalm, den auch andere bereits hier ziehen: Es ist vollkommen irrelevant ob ein fiktiver IceLake/TigerLake in 7nm Intel effizienter wäre oder noch mehr Takt verkraftet oder sparsamer wär. Was zählt sind die Prozessoren die zu einem Zeitpunkt X auf dem Markt sind und wenn Intel nur ihren 10nm-Prozess haben, dann hat Intel nur ihren 10nm-Prozess. Dann hat Apple mit dem M1 einen Fertigungsvorteil. Das ändert aber nichts an der aktuellen Tatsache, dass der M1 in der 1-Thread-Performance mit den Intel-Pendants mithalten kann und in der IPC sogar überlegen ist.

Manchen würde es echt gut tun, wenn sie sich ein wenig von diesen Glaubenskriegen lösen würden und mal nüchtern auf die Welt blicken. Weder geht davon die Welt unter, noch ist es ein Beinbruch und am Ende profitieren wir sogar davon, wenn Apple ARM als ISA stärkt, denn wir haben mehr Vielfallt bei den Prozessoren damit.
 
  • Gefällt mir
Reaktionen: TheCrazyIvan, prev, Sephiroth51 und 5 andere
Sephiroth51 schrieb:
Es ist erstaunlich was man aus Vega noch rausgeholt hat, aber für mich ist Vega dasselbe wie Intels 14nm++++ Prozess.
Und was machst du angesicht der Tatsache, dass einige Dinge, die RDNA 2 so gut werden lassen, bei der mobilen Vega bereits inklusive sind? Zum Beispiel die Fertigungsgröße auf N7, oder die neuen Libraries, die den Takt so hoch ausfallen lassen? Das hatte die mobile Vega 9 Monate vor RDNA 2. Also so schlecht ist sie nicht.
 
Colindo schrieb:
Und was machst du angesicht der Tatsache, dass einige Dinge, die RDNA 2 so gut werden lassen, bei der mobilen Vega bereits inklusive sind? Zum Beispiel die Fertigungsgröße auf N7, oder die neuen Libraries, die den Takt so hoch ausfallen lassen? Das hatte die mobile Vega 9 Monate vor RDNA 2. Also so schlecht ist sie nicht.
Ich hab nicht gesagt das Vega schlecht ist. Sondern veraltet, daher kann ich mir vorstellen das Intel hier besser sein wird.

RDNA2 wird hoffentlich dafür sorgen das die Effizienz und Leistung weiter ansteigen.😊
 
Sephiroth51 schrieb:
Ich hab nicht gesagt das Vega schlecht ist. Sondern veraltet, daher kann ich mir vorstellen das Intel hier besser sein wird.
Veraltet, ja, dem kann man zu stimmen. Meshshader, VSR und Co fehlt.

Ob Intel da besser ist? Nein nicht wirklich, da beide am Ende sich auf die 768 Shader/ALUs zubewegen und von der Rohleistung ähnlich dastehen. Zudem kommen bei heutigen Spielen auf beiden GPUs genug Threads (Shaderprogramme) an um die Pipelines auszulasten. Sowohl XE als auch Vega in ihrer aktuellen Versionen in den CPUs verdursten weiterhin an fehlender Bandbreite des RAMs.

Sephiroth51 schrieb:
RDNA2 wird hoffentlich dafür sorgen das die Effizienz und Leistung weiter ansteigen
Wird auf die Spiele ankommen. Mit RDNA 2 wird die maximale Thread-Anzahl von bis zu 48 Threads auf 24 sinken, gleichzeitig werden die einzelnen Threads schneller bearbeitet. Es wird Spiele geben, die darauf positiv reagieren werden, es wird aber auch Spiele geben, die da keinen so großen Nutzen ziehen können.

Die Leistung bei den APUs wird beim Wechsel von Vega zu RDNA primär wohl über den Takt kommen. AMD hat Vega solange bei den APUs behalten, weil es hier kein wirkliches Effizienzsproblem gab wie bei den großen Vegas.
 
Teralios schrieb:
Sowohl XE als auch Vega in ihrer aktuellen Versionen in den CPUs verdursten weiterhin an fehlender Bandbreite des RAMs.
Wäre schön, wenn AMD das als Grund nähme, die Effizienz der VRAM-Bandbreite zu erhöhen. Soweit ich weiß, sind sie gegenüber Nvidia mit ihrer Kompression immer noch im Nachteil. Wenn man hier jetzt investieren würde, könnte man sich die nächsten Jahre von Intel alleine dadurch absetzen, dass man weniger vom RAM begrenzt wird.
 
Ich bin etwas überrascht wie lahm es hier in der Kommentarsektion abgeht.
10nm Intel 8 Kerner wollten doch immer alle.

Sind noch zu wenig Infos und vor allem Tests da oder wird dem Braten nicht getraut?
90 Comments seit gestern 13.00 Uhr sind etwas mager.
 
Und noch dazu diskutiert hier fast keiner wirklich die h45 CPUs in der Meldung. Scheinbar ist es okay in beliebigen CPU news das Thema mit dem m1 von Apple zu kapern.
 
Witzig oder AMD holt sogar gegen Nvidia in Resident Evil Village auf und Intel kommt hier an mit einem kostenlosen Troja (Epic Masche) und Three Kingdoms (China-Masche) aus der Totalwar Serie an, wohingegen AMD sogar besser performt in der Warhammer-Totalwar Serie.

War Thunder (Russen-Masche) ist ein Spiel welches so oftenmals verschiedene FPS-Anzeige hat, welches man für ein Kräftemessen eher nicht nehmen sollte, eigentlich ist sogar Armutszeugniss sowas überhaupt vorzuführen.

Das die immer noch denken sie würden auf einen hohen Ross sitzen...tja was soll man dazu denn noch sagen?
 
Teralios schrieb:
Nein, es ist kein Quark und der Aufschrei jetzt ist auch ein bisschen heuchlerisch
Also meine 2 Argumente versuchst du mit dieser Wall of Text zu entkräften? Okay.
1. Ein sinnloser Vergleich ist immer noch ein sinnloser Vergleich, das es bisher keine Rolle spielte da ARM unterlegen war, ist richtig, ändert aber einfach mal nichts daran das es halt falsch verglichen wird. Bei ARM wurden seit jeher Unsinnsvergleiche bei Servern gebracht, das hat einfach keiner mehr ernst genommen.
2. Natürlich läuft auf einem x86 und ARM M1 nur genau 1 Thread gleichzeitig...
Da ist SMT natürlich maßlos überbewertet xD
3. Ein Fertigungsvorteil ist ein Fertigungsvorteil. Andere werden diesen nicht erkaufen können weil diese im offenen Wettbewerb stehen. Apple steht nicht im offenen Wettbewerb, da einiges an Software nur dort läuft und einfach alles closed garden Infrastruktur ist, dadurch verdient Apple schließlich (Hallo Appstore...), Hardware ist da schon sehr lange nicht mehr das einzige Pferd!
Erklär mir doch bitte wie Intel oder AMD derartige Preise verlangen können?
 
Welche Argumente?
Draco Nobilis schrieb:
Also meine 2 Argumente versuchst du mit dieser Wall of Text zu entkräften? Okay.
Deine beiden Argumente habe ich mit inhaltlichen Punkten in der Luft zerpflückt, wobei deine beide Argumente inhaltslose Einwürfe ohne jegliche Substanz waren und jetzt wiederholst du sie in Grün.

Ganz ehrlich, auch jetzt könnte man dein Geschwurbel mit meinem vorherigen Beitrag beantworten, daher sparre ich mir die Zeit.
 
Teralios schrieb:
Nein, es ist kein Quark und der Aufschrei jetzt ist auch ein bisschen heuchlerisch, denn bisher hat es keinen wirklich gestört
Hab ich schon beantwortet, war falsch und bleibt halt falsch, ein bescheuerter Vergleich ist immer noch ein bescheuerter Vergleich.
Teralios schrieb:
Der Aufschrei, dass x86-CPU-Kerne ganz unfair behandelt werden, kommt erst jetzt auf, weil ein ARM-Kern bei einem Thread MEHR leisten kann, als ein x86-Kern bei einem Thread.
Siehe oben, ein dämlicher Vergleich wird nicht richtig, nur weil er Jahrelang benutzt wird. Das widerspricht Vernunft und wissenschaftlichen Arbeitsweise. Wenn man einen Fehler findet, dann sollte man Ihn nicht aus Tradition fortführen sondern korrigieren.

Teralios schrieb:
Mich als Entwickler, auch in der Planung eines Programmes ist es vollkommen irrelevant, ob auf einem Kern 2 Threads ausgeführt werden können oder 4 oder 8
Bitte was? Ist das dein ernst? Viel Spass mit Alder Lake oder M1 mit BIG.little...
Da must du dann ganz fest an den Microsoft Scheduler glauben xD
M1 vs. x86 beweist das du einfach falsch liegst. Es spielt eben doch eine Rolle ob bei x86 SMT an ist oder nicht. Dein Programm ist nicht Nabel der Welt und alleine auf dem OS (was schonmal mindestens ein zweiter Thread ist).
Teralios schrieb:
die meiste Algorithmen werden bis heute nicht Multi-Threaded implementiert, sondern immer noch Single-Threaded.
Schade nur, das wie ich schon sagte, nicht nur ein Thread / Programm auf dem Hardwaregerät (Smartphone/Windows PC) läuft...
Teralios schrieb:
Welt der Informatik innerhalb weniger Jahre ändern kann
Apple ist closed Garden, da wird sich außerhalb des Apple Universums nichts ändern. Klar, jeder wird auf Apple Markt gehen, zu Ultrapreisen, mit 30% Appstore Gebühr auf einer closed Plattform. Die Kosten für Anpassung aller Programme von x86 auf dem Planeten sind ja nichts xD
Das ist die Stärke und Schwäche von x86, Abwärtskompatibel bis sonstwohin.
Teralios schrieb:
Das Apple hier mit bestimmten Zählen hantiert, ist klar nur wo macht bitte Intel oder AMD etwas anderes?
Intel macht derartiges bei CPUs, man äußert Kritik.
Amd macht derartiges bei Grafikkarten, man äußert Kritik.
Apple macht sowas, man äußert ebenfalls Kritik dafür.
Der Unterschied ist nur, Bei Apple kommen dann die Kreuzritter des Apfels :D
Nicht mal bei Intel vs AMD vs. Nvidia gibt es so verstrahlte Verteidiger.
Teralios schrieb:
Intel gibt schon weit vor Produktstart damit an, dass sie im Bereich X plötzlich Zuwächse von 200 % und mehr an Leistung haben
Siehe bitte eines weiter oben Intel, AMD, Apple. Das eine Firma Blödsinn macht, ist kein Argument dafür das eine andere es auch darf. Normalerweise reagiere ich nicht mehr auf Leute die so rabulieren.
Teralios schrieb:
Es ist vollkommen irrelevant ob ein fiktiver IceLake/TigerLake in 7nm Intel effizienter wäre oder noch mehr Takt verkraftet oder sparsamer wär.
Doch, weil nicht nur Leistung entscheidet, sondern auch Preis.
Apple finanziert dies durch 1300€ Gerätepreis + 30% Appstore und closed Garden, aber das schrieb ich ja schon.
Teralios schrieb:
Manchen würde es echt gut tun, wenn sie sich ein wenig von diesen Glaubenskriegen lösen würden
Da hast du Recht, bitte wende einmal Selbstreflexion an.
Ich lasse jeden sein Apple Paradies, aber muss nicht sein das man alle vom Seelenheil eines M1, dem Erlöser, zu bekehren versucht, es ist einfach nicht korrekt. Er ist ein großer Wurf, aber kein Heilsbringer.

Naja vgl. zu den intel Schrott der Jahre schon, aber Tiger Lake, Rocket Lake etc. kommen ja endlich mal in die Pötte, Apple hat sicher nicht mit so starkem AMD gerechnet. Dann hätte Intel nämlich weitergepennt. Einfach beim Wetten verloren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Floppes
Draco Nobilis schrieb:
Ich lasse jeden sein Apple Paradies, aber muss nicht sein das man alle vom Seelenheil eines M1, dem Erlöser, zu bekehren versucht, es ist einfach nicht korrekt. Er ist ein großer Wurf, aber kein Heilsbringer.
Ich glaube das Thema ist einfach sehr aufgeladen emotional. Ich kann nur von mir Sprechen, es ist einfach frustrierend wenn ein passiv gekühlter PC mehr Power als dein Desktop PC hat.

Ich kann mich davon auch nicht frei machen, der Spass am Desktop ist für mich leiser Betrieb auch unter langer Vollast und einfach mehr Power. Aktuell gilt das nicht mehr so stark und ich bin tatächlich oft am Überlegen ob ein Desktop für MICH überhaupt noch Sinn macht - abgesehen von der GPU fällt mir wenig ein, leider, denn ich möchte die Bastelei und Reperaturmöglichkeiten nicht missen.

Emotional will ich daher das der M1 failed ist, objektiv bin ich schon sehr Beeindruckt, wenn man das Gesamtpaket anschaut.

Nüchtern ist der M1 als Gesamtpaket im Laptop was für 80% der Leute perfekt ist (OS Präferenz und Zocken mal außen vor). Dabei geht es nicht primär um die CPU, sondern um das Gesamtpaket als Laptop, extrem guter Bildschirm, lautlos, sehr gutes Trackpad, wo andere immer noch nicht hinkommen. Das ist das Gerät seit dem ich seit 15 Jahren träume.

Draco Nobilis schrieb:
Apple ist closed Garden, da wird sich außerhalb des Apple Universums nichts ändern. Klar, jeder wird auf Apple Markt gehen, zu Ultrapreisen, mit 30% Appstore Gebühr auf einer closed Plattform. Die Kosten für Anpassung aller Programme von x86 auf dem Planeten sind ja nichts xD
Ich arbeite auf Macs. Apples Universum ist Fluch und Segen zur gleich. Ich muss ganz ehrlich sagen, dass mir ein gut abgestimmtes System sehr viel erleichtert und auch was Security angeht in einigen Punkten gut gefällt. Alleine das so Themen wie lokale Verschlüsselung einfach seit Jahren laufen, es spart mir tatsächlich sehr viel Zeit, ich habe den Vergleich, da ich es bei Linux etc. aus Spass in meiner Freizeit mache.

Aber ich habe auch sehr sehr große Bedenken was Apple als closed Plattform angeht. Es wird sich zeigen ob sie den Sack bald zu machen oder ob sie sich weiter an der Grenze bewegen.

Windows 10 as a Service mit immer weniger Kontrolle macht mir allerdings fast genauso starke Bauchschmerzen.

Insgesamt hoffe ich einfach dass AMD/Intel bald kontern und das Gleichgewicht wieder hergestellt wird, d.h. vor allem auch das Desktop CPUs deutlich mehr Leitung haben (ja auch aktuell sind sie etwas schneller, aber nicht mit so viel Abstand wie früher).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Draco Nobilis
prev schrieb:
Nüchtern ist der M1 als Gesamtpaket im Laptop was für 80% der Leute perfekt ist
Richtig, allerdings geht das auch mit Intel/AMD.
Passiv-Lösungen finde ich überbewertet. Man verzichtet auf zu viel Performance. Bisher war vor allem intel zu schrottig und teuer für Fanlass(Y-CPU). Aber gerade hier passiert inzwischen viel.
Es ist meiner Meinung etwas sehr viel Obsoleszenz, wenn das passive Gerät x Jahre eher von der Software in Anforderung überholt wird, als eine Fan Lösung.

prev schrieb:
Ich glaube das Thema ist einfach sehr aufgeladen emotional.
Leider ja, daher meide ich derartiges eigentlich oft aber manchmal kann ich mich nicht beherrschen.
prev schrieb:
Insgesamt hoffe ich einfach dass AMD/Intel bald kontern und das Gleichgewicht wieder hergestellt wird,
Intel hat Apple verloren, wegen der Sicherheitsprobleme, mangelhaften Leistungsentwicklung und Hitze vs. ARM.
Intel konnte sich das erlauben, da Monopol (auch jetzt mit AMD immer noch).
Apple hatte aber viel ARM Erfahrung und sah das es jetzt an der Zeit ist die Architektur zu wechseln, nicht zum ersten mal. Mit ARM hat Apple ja sehr viel Erfahrung.
Das es jetzt so rasant mit IPC und Entwicklung in x86 voran geht, haben wir nur TSMC und AMD zu verdanken. Sonst würde Intel immer noch Dornröschenschlaf halten und Apple wäre in der Tat der absolute Durchbruch und Heilsbringer. Wegen AMD aber ist das nicht passiert. Es ist schon klar wieso Apple nie mit AMD vergleicht, sondern nur mit (teilweise uralten) Apple Intel CPUs.

Zen 3 +20% Performance kommt zu 90% von AMD und 10% über Standardoptimierungen des 7nm Prozess über die Jahre. Das kostete gerade mal ~10% DIE Size des CPU Chiplets. Der IO wurde seit Jahren nicht mal angefasst. Man sieht also da geht auch bei x86 sehr viel, und das von einem Underdog mit wenig R&D.

Ich denke Apple wird den Wettbewerb weiter anheizen, wobei Intel und AMD klar ist, echter Wettbewerb ist das noch lange nicht, da der M1 abseits Apple unanwendbar ist, da Preis. Eine Lizenzfertigung wird durch die begrenzte 5nm Fertigung + Marge von Apple als Lizenzgeber daher unmöglich. Da kann Apple nicht mit Intel oder AMD mithalten, welche direkt von TSMC oder Eigenfertigung haben. Nochmal +45% Apple Marge als Preis oben drauf kann man nich bringen, da kommen eh schon zu wenig 5nm DIEs bei TSMC bei rum.
Wir werden sehen, ob 2023 oder später dann auch Workstations mit Apple CPUs kommen werden.
 
Zuletzt bearbeitet:
Zurück
Oben