News Server-CPU-Marktanteile: AMD kämpft gegen Intel – und später auch ARM

Es kommt am ende drauf an wie gut sich ARM entwickeln wird. Wenn es gemessen an den reinen Kernen mehr liefert ja warum nicht.Achja wenn schon dann bitte fair vergleichen. ARM hat 8 kerne ohne SMT oder sowas.ALso müsste der AMD Ryzen 5800u auch ohne SMT gegengetestet werden,denn sonst wird es nie ein fairer 100 % vergleich. Also sprich 8 kerne vs 8 Kerne ohne Hypertrading. Und da wird wohl dann die AMD CPU nicht mehr so stark davon ziehen wie mit SMT.
Mir ist also die reine CPU Leistung ohne Tricks und ohne versteckte kniffe das wichtigste. Eben nackte Fakten und Zahlen.
Es kommt also auf das volle an. Habe auch nicht umsonst da den selben Takt auf allen CPUS genommen.
Also wenn man 1 zu 1 direkt miteinander Vergleich.Die selben Threads also Kerne ,selbe Takt. Und da sehen wir dann nen Unterschied der unterschiedlichen Archetkturen dann sehr deutlich. Da bin ich mal gespannt wie denn da die reine CPU Leistung am ende sein wird.
Denke mal durch diese Limiterung kann man dann bei selben Software ,mit selben Settings und so dann schon deutlich besser die Unterschiede feststellen. Bei mir würde z.b nur die reine Multicore Leistung Entscheiden. Die Single core ist zwar auch interessant aber wer so wie ich sicher immer die CPU zu 100 % Auslastet,der weis das die single Core total uninteressant ist. Es sei denn die beeinflusst sehr deutlich die Multicore dann gerne,mehr davon.
 
Nagilum99 schrieb:
Der M1 wird meistens maßlos überhyped und technisch-inkompetent als überragend betrachtet.
Inkompetent weil da viele Details unter den Tisch fallen, die gravierende Unterschiede machen und zweischneidig sind.
LOL was für eine Kompetenz auf deinen Seiten… Was ist dann erst der ARM x86 Emulator in der Qualcomm CPU in deinen Augen? Der M1 rennt wie Sau, wird in weiteren Ausbaustufen seine Leistung weiter ausbauen und hat Windows ARM allein in der EMU schneller laufen lassen als Microsoft selbst auf seinen Gehversuchen für über 1000 Euro.

Wenn hier einige Angst haben sollten, X86 wird für den tollen und einzigartigen Gamer Rechner noch lange erhalten bleiben. Das investieren in überteuerte Mangelware wie GPUs wird morgen auch noch funktionieren und der AMD x86 wird auch noch seine Leitung in die Investition als Gamer in Kombination für (vorsicht ironie) 18K 500 Hz und 400 FPS bei vollem aufdrehen der Regler sein Geld rechtfertigen. Also keinen Grund hier die Zähne zu fletschen.
 
DevPandi schrieb:
Natürlich ist es für AMD und Intel ein leichtes mit ihren dicken Prozessoren den M1 zu schlagen, die Frage ist in dem Fall dann aber nur wie und wer sich damit beschäftigt weiß dann auch, warum der M1 ein sehr guter Prozessor ist, besser warum die Firestorm-Kerne echt pandastische Kerne sind (Ja, absichtlich so geschrieben!).
Der M1 ist ein technisches Meisterwerk, insbesondere die Effizienz und die IPC sind hervorragend, aber AMD und Intel als x86 Lizenzinhaber schlafen ja auch auch nicht. ^^

Hier mal ein übertakteter 11900K gegen den M1 in Geekbench 5. Klar, das ist mit Brechstange, aber das interessiert mich nicht wirklich. Die CPU ist einfach sau schnell bzgl. der Singlethreadleistung. Außerdem kommt Alder Lake bald und legt da nochmal 20% IPC oben drauf. Auch die Multithreadleistung wird sich scheinbar sehen lassen können.

Auch wenn x86 am Ende nicht so sexy ist, aber man kann das Zeuch auf Leistung trimmen und die Softwarelandschaft für den M1 ist ein echter Abturner für mich. Außerdem brauche ich ne CPU, die meine RTX 3090 befeuern kann. :D

So ganz von der Hand kann man die Kritik nicht weisen, der M1 ist hier und da tatsächlich ein wenig overhyped. Die mangelnde Multithreadleistung ist ein klarer Kritikpunkt.

Als abschließende Bemerkung sei (fast schon eindringlich) erwähnt, dass der/die/das (was stimmt nun? ^^) ISA selbst schnuppe ist. Was zählt, ist die Implementierung.
 
Zuletzt bearbeitet von einem Moderator:
Mister79 schrieb:
LOL was für eine Kompetenz auf deinen Seiten… Was ist dann erst der ARM x86 Emulator in der Qualcomm CPU in deinen Augen? Der M1 rennt wie Sau, wird in weiteren Ausbaustufen seine Leistung weiter ausbauen und hat Windows ARM allein in der EMU schneller laufen lassen als Microsoft selbst auf seinen Gehversuchen für über 1000 Euro.

[viel Text]
Damit wäre deine Kompetenz ja auch geklärt. Außer subjektiver Glaskugelfantasien war da jetzt exakt gar nichts verwertbares.
Was der "Emulator" genau ist, weißt du ja bestimmt. Oder auch nicht. Ich hab so meine Zweifel.
 
ZeroStrat schrieb:
Als abschließende Bemerkung sei (fast schon eindringlich) erwähnt, dass der/die/das (was stimmt nun? ^^) ISA selbst schnuppe ist. Was zählt, ist die Implementierung.
Die Aussage ist in der Form falsch und das wüsstest du auch, wenn du dich auch damit beschäftigst, wie man eine ISA entwickelt und wie man eine ISA in Hardware implementiert. Genauso Hilfreich ist es, wenn man mal ein wenig Erfahrung beim Entwurf von Programmiersprachen hat und wie man einen Compiler entwickelt und dann die Programmiersprache in den ISA-Assembler und schlussendlich Bytecode umwandelt.

Natürlich kann man "Schwächen" in der ISA auch durch die genaue Implementierung in Hardware abschwächen oder umgehen, nur benötigt man dafür auch einiges an Tricks und steigert am Ende die Komplexität in der eigentlichen Hardware-Implementierung um Schwächen der ISA zu umgehen.

Es ist schon Relevant, ob eine ISA nur 8, 16 oder 32 oder gar bis zu 128 Register (IA64) vorsieht und der Compiler mit diesen Arbeitet. Klar, man kann dann in eine CPU in Zusammenhang mit OoO dann Techniken wie Register-Renaming, Dataflow-Optimization und Co implementieren, doch davon weiß der Compiler nichts, der Arbeitet mit den ihn bekannten Registern und fügt dann auch passende Anweisungen für MOVE, SAVE und LOAD an, wenn Daten in den "Arbeitsspeicher" sollen. Ebenso kann man mit den heutigen "Registerfiles" einiges abfangen, aber auch das wird komplizierter, je weniger Register in der ISA vorgesehen sind!

Die ISA hat hier also sehr wohl direkte Auswirkungen auf die Implementierung und ebenso auch Auswirkungen, wie komplex bestimmte Tricks ausfallen müssen um bestimmte Aspekte in der ISA zu umgehen. Es gibt hier eine sehr einfache Regel und das lernt man eigentlich sehr früh wenn es an das Design einer ISA und eben so an des Design einer damit verbundenen Hardware-Implementierung geht: SAVE, LOAD und MOVE sind böse! Denn all das bedeutet, das man auf Daten warten muss. Klar, man kann dann mit OoO und Co das wieder entschärfen, aber es gilt halt immer noch: Es wird komplizierter.

Das sieht man auch deutlich, wenn man sich mal die Front- und Backends sowie die Infrastruktur moderner x86-Prozessoren ansieht und ebenso von modernen ARM-Prozessoren und auch den Firestorm-Kernen. Moderne x86-CPUs müssen selbst für nur vier Rechenwerke (INT) und zwei Rechenwerke (SIMD) im Frontend bereits auf einen "µOPs"-Cache zurück greifen, damit sie es ausgelastet bekommen. Sie brauchen für die sechs Rechenwerke in der Regel auch eine Infrastruktur an AGU und damit verbunden Load- und Store-Einheiten, die moderne ARM-CPUs in der Form für die gleiche Anzahl an Rechenwerken nicht benötigen.

Wer also meint, dass die ISA Schnuppe ist, hat in der Regel keine Ahnung, denn die Implementierung ist von der ISA abhängig und bediengt auch die Komplexität der CPU und welche Tricks man benötigt.
ZeroStrat schrieb:
Hier mal ein übertakteter 11900K gegen den M1 in Geekbench 5. Klar, das ist mit Brechstange, aber das interessiert mich nicht wirklich.
Irgendwie ist es doch echt süß, wie einige immer wieder mit irgendwelchen Benchmakrs von übertakteten CPUs kommen oder/und mit Prozessoren kommen, die soviel kosten wie ein MacMini und meinen, dass sie damit dann einen Stich in ihrer Argumentation haben.

Wie viel kostet denn ein übertakteter 11900K? 500,- bis 550,- € je nach Händler. Passender Lüfter, Mainboard, RAM und SSD und wir sind vermutlich bei 1000,- €. Einen entsprechenden MacMini mit M1 kann man ab 700,- € kaufen.

Der 11900K ist eine tolle CPU, keine Frage, aber hier stehen dann 5,1 GHz gegen 3,0 - 3,2 GHz für den einzelnen Kern an, deine 2000 Punkte im Geekbench in allen Ehren, aber beim M1 stehen immer noch 1750 Punkte auf der Uhr und wir sprechen dann von 392 Punkte je GHz gegen 547 Punkte oder im Geekbench von einem IPC-Unterschied von 40 %.

Und da muss man sich halt auch die Frage stellen, woher das kommt und ich weiß sehr genau woher das kommt und auch warum Apple so ein Design in der Form auch umsetzten konnte und warum AMD und Intel hier eben nicht auch einfach so ein Design mit x86 umsetzen können.
ZeroStrat schrieb:
Die CPU ist einfach sau schnell bzgl. der Singlethreadleistung
Ja, RocketLake ist eine gute Architektur und es kommen da auch tolle CPUs bei Raus, keine Frage. Genau ist Zen 3 eine tolle CPU und kann mit der passende Infrastruktur einen M1 in seine Schranken verweisen, die Frage ist dabei immer nur wie man es schafft.

Aber wie geschrieben, es ist schon süß, dass man hier dann übertaktete CPUs aussucht, die fast so teuer sind, wie der MacMini oder die am Ende soviel kosten wie ein MacBook Air oder später ein voll ausgewachsenes MacBook Pro mit 16 GB und 1 TB.

Natürlich ist dann ein ausgewachsener Threadripper oder Xeon schneller, aber sind wir dann schon bei vollwertigen Desktops bis hin zu Workstations, die man einfach auch nicht mehr einfach so mit sich herum trägt - Stichwort MacBook Air/MacBook Pro.

Das MacBook Air/Pro richten sich durchaus an Content-Creators, aber eben für die Arbeit unterwegs, nicht für die Arbeit zu Hause und dort bietet selbst das kleine MacBook Air für 1000 € eine Leistung, die man bei Intel oder AMD erst mit wesentlich mehr Budget bekommt und auch verbunden mit mehr Wärme und Energiehunger.
ZeroStrat schrieb:
Außerdem kommt Alder Lake bald und legt da nochmal 20% IPC oben drauf.
Ja und? Zumal die 20 % ein Mittelwert sind und man dann auch mal abwarten muss wie das sich in den einzelnen Szenarien auswirkt.

Aber auch dann muss man halt mal sehen, wie viel Takt und Energie die Alder Lakes brauchen für eine vergleichbare Leistung. Selbst wenn wir hier 20 % IPC nun annehmen, dann würde man hier erst mal den Rückstand auf 16 % verkürzen, statt wie aktuell 40 %.

Damit wäre ein FireStorm-Kern immer noch ein Brett und hätte einen komfortablen Vorsprung und wäre in einem Mobilengerät wie ein MacBook auch weiterhin eine tolle CPU.

ZeroStrat schrieb:
Auch wenn x86 am Ende nicht so sexy ist, aber man kann das Zeuch auf Leistung trimmen
Klar kann man x86 auf Leistung trimmen, das stellt auch keiner in Frage. Nur ist die Frage, welche Aufwand man dafür betreiben muss und wie sich dadurch die Komplexität der CPU erhöht.

Ich würde ja schon gerne mal Mäuschen spielen und den Code für die Sprungvorhersage, die OoO-Sortierung, das Register-Renaming aber auch die Fluß-Optimierung zu sehen zu bekommen und wie sich da die Komplexität der einzelnen Bestandteile auch unterscheidet.

Es ist hier eben schon entscheidend, ob man einen komplexen Algoritmus zur OoO-Sortierung hat und für die Flußoptimierung, oder ob ein einfacher reicht. Es ist genau so ein Unterschied, ob ich für 10 Recenwerke nur 2/3 LD und 1/2 ST-Einheiten brauche oder 3/4 uind 2/3. Genau so ist es entscheidend, ob ein Decoder quasi alleine reicht um das Backend auszulasten, oder ob ich noch einen µOPS-Cache dazu nehmen muss.

All das sind Transistoren die man zusätzlich braucht, all das schaft Komplexität, die beherrscht werden will und all das schafft auch zusätzliche Fehlerquellen.

ZeroStrat schrieb:
die Softwarelandschaft für den M1 ist ein echter Abturner für mich. Außerdem brauche ich ne CPU, die meine RTX 3090 befeuern kann.
Und da sind wir halt bei den individuellen Anforderungen. Meine Software läuft vollständig auf dem M1 und ich habe meine Tools für den Filmschnitt, für die Tonbearbeitung, für die Entwicklung, für die Publizierung und so weiter. Ich habe all die Werkzeuge, die ich brauche und da schneidet nichts ein.

Liegt vielleicht auch daran, dass mein MacBook auch mein Arbeitsgerät ist und nicht zum Spielen genutzt wird und dafür auch garnicht gedacht ist.

Da sind wir erneut: Was sind die eigenen Anforderungen und was erwartet man und was braucht man.
ZeroStrat schrieb:
Die mangelnde Multithreadleistung ist ein klarer Kritikpunkt.
Nein, das ist in dem Fall kein klarer Kritipunkt, sondern eher Scheinargument, weil ihr versucht eure eigenen Anforderungen als objektives Wertungskritierium zuverkaufen, was so aber nicht passt.

Der M1 wird aktuell in einem Kleinstpc, zwei mobilen Rechnern und einem Familien-All-In-One angeboten. All diese Rechner sind für normale Büroarbeit sowie hobbymäßige und semiprofessionelle Contenterstellung gedacht sowie ggf. als Präsentationswerkzeug bei Kunden und eigent sich sich auch bei der professionellen Contenterstellung für kleine bis mittlere Projekte, wenn man unterwegs ist.

Ihr jedoch definiert hier hochprofessionelle Workloads, für die man weder einen KleinstPC kauft, noch einen mobilen Laptop oder einen All-In-One-PC, sondern für den man sich in der Regel selbst eine professionelle Workstation anschaft oder sogar einen ganzen Server bishin zu einem Serververbund. Nur ist weder der MacMini, noch das MacBook Air oder das MacBook Pro 13" und auch nicht der iMac als ausgewachsene Workstation und erst recht nicht als Renderfarm gedacht und auch der M1 ist für diese Aufgaben nicht gedacht.

Betrachtet man den M1 also nun in dem Kontext, in dem er verwendet wird und zieht hier die Prozessoren von AMD und Intel hinzu, dann bietet der M1 hier auch eine sehr gute Multithreading Leistung, die auch - gerade beim Verbrauch - auch zu beeindrucken weiß.

Und damit kommen wir halt zu dem Punkt: Ihr versucht hier die CPU als "overhyped" darzustellen, weil die CPU in den von euch gestellte Anforderungen nicht glänzen kann. Das die CPU dazu überhaupt nicht gedacht ist, lasst ihr dabei vollkommen unter den Tisch fallen. Das ist aber dann kein Argument dafür, dass die CPU overhyped oder technisch überbewertet ist, sondern es ist nur ein Argument, dass die CPU für einen gewisse Workload nicht geeignet ist.

Ich kann mit deinem Argument - warum die CPU ja "overhyped" ist - quasi jede CPU von Intel oder AMD als überbewertet darstellen, bis ich bei einer CPU angelangt bin, die die für mich passende Anzahl an Kernen hat, aber ich kann nicht die technische Raffinesse hinter der CPU bewerten, die viele Tester beeindruckend finden.

Lege ich eure Argumente an, dann ist selbst ein Core 11900K vollkommen überbewertet und zwar auch von dir, weil diese CPU in Multithreading total abstinkt und diese CPU sich für komplexes Datamining so überhaupt nicht eignet. Bei Big-Data kann man erst ab 32 Kernen überhaupt daran denken zu arbeiten und Spaß mach das alles erst bei 128 Kernen.
 
  • Gefällt mir
Reaktionen: Colindo
DevPandi schrieb:
Die Aussage ist in der Form falsch und das wüsstest du auch, wenn du dich auch damit beschäftigst, wie man eine ISA entwickelt und wie man eine ISA in Hardware implementiert. Genauso Hilfreich ist es, wenn man mal ein wenig Erfahrung beim Entwurf von Programmiersprachen hat und wie man einen Compiler entwickelt und dann die Programmiersprache in den ISA-Assembler und schlussendlich Bytecode umwandelt.
Du bist doch nicht etwa ein garstiger Pandi? :D

Ich beziehe mich im Wesentlichen auf diesen Artikel. Dort wird u.a. eine Studie der University of Wisconsin diskutiert.

1629131446746.png


DevPandi schrieb:
Nein, das ist in dem Fall kein klarer Kritipunkt, sondern eher Scheinargument, weil ihr versucht eure eigenen Anforderungen als objektives Wertungskritierium zuverkaufen, was so aber nicht passt.

Der M1 wird aktuell in einem Kleinstpc, zwei mobilen Rechnern und einem Familien-All-In-One angeboten. All diese Rechner sind für normale Büroarbeit sowie hobbymäßige und semiprofessionelle Contenterstellung gedacht sowie ggf. als Präsentationswerkzeug bei Kunden und eigent sich sich auch bei der professionellen Contenterstellung für kleine bis mittlere Projekte, wenn man unterwegs ist.
Ob das Wertungskritierium objektiv oder subjektiv ist, spielt doch keine Rolle. Auch in welchen Geräten der Chip zum Einsatz kommt. Man könnte auch sagen, dass der M1 nur in bestimmten Geräten zum Einsatz kommt, weil dem Chip die Multithreadleistung fehlt. Es ist wie es ist, wenn man Moar Core Wums braucht, ist der Chip nix. Aber es soll in dieser Hinsicht ja nachgebessert werden.

DevPandi schrieb:
Klar kann man x86 auf Leistung trimmen, das stellt auch keiner in Frage. Nur ist die Frage, welche Aufwand man dafür betreiben muss und wie sich dadurch die Komplexität der CPU erhöht.
Rein praktisch gesehen nicht. Den 11900K kann ich mit einem Highend Board kombinieren, um dann richtig schnellen, sündhaft teuren Speicher draufpacken, "to tune the shit out of it". Das ganze dann noch mit einer Wasserkühlung abgerundet. Ne sorry, Einwand hier von meiner Seite. :D Aber ich weiß, was du meinst. Kommt vielleicht später irgendwann. Nützt aber aus pratischer Sicht aktuell nichts.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Nagilum99 und Colindo
Also bei aller kritk aller eher aber würde man alle AMD und Intel CPUS auf gerechte sache wie bei M1 setzen dann sieht es wohl anderst aus.
Am besten alle auf 3,2 ghz herunter setzen,feste Stromverbrauch wie 15 Watt,SMT und HT abschalten weil M1 hat sowas ja nicht und dann sahe z.b so ein Ryzen 7 5800h usw nicht mehr so gut aus. Man kann ja die CPU dazu zwingen das sie nur maximal 15 Watt zieht.Da wird die CPU wohl sehr stark ausgebremst. Da will ich unter diesen bedingung noch sehen wie diese der M1 davon ziehen soll.Bleibt da denn dann noch so viel Leistung ihr über oder unterliegt der Ryzen 7 5800H dann dem M1 sogar dann.


Ich habe selbst gemerkt das CPU Leistung alleine wohl nicht alles ist.Habe wie immer am Wochende,mehrere Aufnahmen auf 2 gleiche Programme Paralell umgewandelt.Diese halt durch das Netzlaufwerk. Kaum habe ich dann was verschoben auf diese ,schon ging die CPU Auslastung nach unten. Ich ging immer davon aus das die Bandbreite in der hinsicht egal sei,dem ist es ja scheinbar doch nicht so. Habe nen 1000 Mbit Anschluss.Also bei mir zeigt es jedenfalls 1 Gbit an.
Es gibt zwar noch 10 Gbit,weis nicht ob das Auswirkung hat weil das Netzlaufwerk von HDD Festplatten bestückt ist.
Denke mal da limitiert dann doch die HDD Festplatte.Ich ging halt immer von der falschen sache aus. Sobald ich jedoch nur 1x gleichzeitig Umwandele und dann was verschiebe,bricht die Leistung jedenfalls nicht ein.
Aber es ist halt sehr umständlich alles zuerst auf dem Pc zu kopieren vom Netzlaufwerk nur um es dann ohne Probleme umzuwandeln. Weis also nicht was da wohl besser ist.
Nun verstehe ich also das CPU alleine nicht immer das Entscheidendste ist auf der Welt.Man darf halt nicht alles ausblenden und nur auf die CPU alleine sich fokosieren.
 
ZeroStrat schrieb:
Du bist doch nicht etwa ein garstiger Pandi?
Nein, ich bin da ganz und garnicht garstig, sondern ich sage sehr klar, was in dem Fall Tatsache ist.
ZeroStrat schrieb:
Ich beziehe mich im Wesentlichen auf diesen Artikel. Dort wird u.a. eine Studie der University of Wisconsin diskutiert.
Die Studie kenne ich und ich kenne auch das Fazit von dieser und da kommen wir jetzt zu den entscheidenen Punkten - deswegen ist die Studie als auch der Artikel nicht falsch und du hast sogar den entscheidenen Punkt zitiert nur nicht farblich markiert:

"– ISA differences have implementation implications, but modern microarchitecture techniques render them moot; one ISA is not fundamentally more efficient."

Und wenn man dann etwas weiter ließt, dann ist dort sogar ein schönes Zitat von Jim Keller: "If I want to build a computer really fast today, and I want it to go fast, RISC-V is the easiest one to choose. It’s the simplest one, it has got all the right features, it has got the right top eight instructions that you actually need to optimize for, and it doesn’t have too much junk."

Die Aussage der Studie, als auch des Artikels ist also nicht, dass die ISA "Schnuppe" ist, sondern dass die Unterschiede zwischen den ISA durch die technischen Implementierungen ausgeglichen werden.

Und das ist dann der Knackpunkt deiner Aussage und ich würde es dann an der Stelle anderes Formulieren: Die verwendete ISA sagt nichts darüber aus ob eine CPU schnell, effizient oder beides ist, sondern es kommt darauf an WIE man die ISA implementiert.

Die Frage ist also nicht ob x86 effizienter oder schneller ist als ARM und umgekehrt, sonder welcher Aufwand damit verbunden ist und welche Komplexität dann die Kerne annehmen.

Es ist "einfacher“ schnelle und effiziente Kerne mit ARM umzusetzen als mit x86, das heißt aber nicht das es mit x86 um möglich ist.

Oder anders ausgedrückt: Bei x86 musst du einfach früher in die Trickkiste greifen und auch eventuell tiefer.
 
  • Gefällt mir
Reaktionen: Colindo
DevPandi schrieb:
Die Aussage der Studie, als auch des Artikels ist also nicht, dass die ISA "Schnuppe" ist, sondern dass die Unterschiede zwischen den ISA durch die technischen Implementierungen ausgeglichen werden.
Hä?? Das habe ich doch gesagt. Die ISA ist schnuppe, es kommt auf die Implementierung drauf an. Du begegnest mir aber argumentativ, als hätte ich nur gesagt, dass die ISA schnuppe sei, ohne jeden Zusatz.
 
  • Gefällt mir
Reaktionen: Nagilum99
ZeroStrat schrieb:
Hä?? Das habe ich doch gesagt.
Nein, das hast du nicht gesagt und auch nicht geschrieben.

Es ist ein Unterschied, ob man schreibt, dass die ISA Schnuppe ist und es auf die Implementierung ankommt, oder ob man sagt, dass die ISA nichts über die Geschwindigkeit und/oder Effizienz aussagt, sondern es drauf ankommt, wie man die ISA implementiert.

Hier geht es um eine sprachliche Feinheit und ich habe dir nun sogar noch erläutert, warum die ISA eben nicht Schnuppe ist, sondern das die ISA auch auf die Implementierung eine direkte Auswirkung hat, denn die ISA bestimmt die Komplexität der technischen Implementierung und welcher Aufwand betrieben werden muss.
 
DevPandi schrieb:
Es ist ein Unterschied, ob man schreibt, dass die ISA Schnuppe ist und es auf die Implementierung ankommt, oder ob man sagt, dass die ISA nichts über die Geschwindigkeit und/oder Effizienz aussagt, sondern es drauf ankommt, wie man die ISA implementiert.
Ja komm, jetzt fangen wir an Korinthen zu kacken. Entscheidend ist doch der Hinweis auf die Implementierung, welche hinsichtlich gewisser Eigenschaften einen Gleichstand schafft, so dass die ISA an sich schnuppe ist. Oder halt die Kurzform, die ich usprünglich genutzt hatte. Aber du wolltest mal zeigen, dass du es drauf hast. Ist schon klar. Geschenkt, Korinthen-Pandi... :D
 
ZeroStrat schrieb:
Hä?? Das habe ich doch gesagt. Die ISA ist schnuppe, es kommt auf die Implementierung drauf an. Du begegnest mir aber argumentativ, als hätte ich nur gesagt, dass die ISA schnuppe sei, ohne jeden Zusatz.
Das war das, was ich letztens auch in einem Arikel über die Architekturen las. Kann aber keine Quelle nennen, ist schon eine Weile her. Ich kann "Pandi" nicht mehr lesen, der Stil passt zur "Argumentation".
Ergänzung ()

latiose88 schrieb:
Also bei aller kritk aller eher aber würde man alle AMD und Intel CPUS auf gerechte sache wie bei M1 setzen dann sieht es wohl anderst aus.
Am besten alle auf 3,2 ghz herunter setzen,feste Stromverbrauch wie 15 Watt,SMT und HT abschalten weil M1 hat sowas ja nicht und dann sahe z.b so ein Ryzen 7 5800h usw nicht mehr so gut aus. Man kann ja die CPU dazu zwingen das sie nur maximal 15 Watt zieht.

Du schreibst schon wieder wirren Unsinn. Ich zog zum Vergleich den U, nicht den H ran. Warum fängst du jetzt mit H an und willst ihn Leistungsbeschränken? Ist das jetzt irgendwie sinnvoll?
Und eine Architektur auf eine Frequenz statt den Verbrauch zu reduzieren ist der größte Unsinn den man schreiben könnte.
Wie eine Architektur die Leistung erreicht ist völlig irrelevant und nicht zu letzt stark Fertigungsprozess beeinflusst. Das was du da vorschlägst, kann man zwar machen, hat aber fachlich rein gar nichts zu bedeuten.
(Weitere Lernstelle: Fertigungsprozesse)
 
Zurück
Oben