News Im freien Fall: Ein Drittel weniger Umsatz bringt Intel tiefrote Quartalszahlen

Ist doch alles nur Mimimi auf hohem Niveau. Nahezu alle Techfirmen haben zur Pandemie massive Gewinne eingefahren. Dass ein Rückgang zu erwarten war, konnte sogar ein 10-Jähriger prognostizieren.

Mein Mitleid hält sich in Grenzen.
 
  • Gefällt mir
Reaktionen: bttn und Skudrinka
ETI1120 schrieb:
Natürlich ist es kein Weltuntergang. Natürlich wird Intel nicht Pleite gehen, und schon gar nicht schnell Pleite gehen. Intel hat im Gesamtjahr Gewinn gemacht und Intel hat eine gute Finanzstruktur. Intel kann noch einiges an Mobileye-Aktien verkaufen ohne die Beherrschung über Mobileye zu verlieren.
und warum wird dann jedes mal ein drama drauß gemacht, wenn solche firmen mal eben nicht trillionen umsatz oder gewinn erwirtschaften? und selbst wenn sie pleiten gehen würden, würden doch nur die aktionäre weinen, weil ihr buntes papier dann nur mehr brennwert hat.
p.s. natürlich hängen da arbeitsplätze dran, was ein persönliches schicksal sein kann, aber wirtschaftlich kommt dann halt ein anderer, an intels stelle.
wenn solche firmen wirklich für alles bezahlen müssten bzw in ihren bilanzen (ihre tatsächlich verursachten kosten) berücksichtigt werden würden, da wär kein land mehr..
 
Und hier ein weiterer Beleg dafür das in naher Zukunft auch die Grafikkarten Preise in sich zusammenbrechen werden. Die Nachfrage ist mal GANZ weit von der Normalität entfernt was Consumer Electronics angeht.
 
Die Frage wird sein, wie läuft es bei den Server CPUs? Sieht so aus als wenn intel nicht mehr so einfach mit den Gewinn von den Server CPUs den Rest quersubventionieren kann. Wenn AMD hier auch noch weiter weg zieht kann dies sehr schnell bedrohlich für intel werden.
 
  • Gefällt mir
Reaktionen: aldaric
@Sam Miles

Na das muss man vorerst mal erwarten.

Ursprünglich war Sapphire Rappids ja als Gegenstück für Zen2 entwickelt. Und laut Gerüchten da wohl auch nur in Teilbereichen Konkurrenzfähig.

Durch die ganzen Verschiebungen muss Sapphire Rappids nun aber nicht gegen Zen2, sondern Zen4 Server-CPUs antreten.

Da erwarte ich ehrlich gesagt keine Wunder.
 
Wenn man sich so umschaut hat man den Eindruck, die Inflation würde spurlos an den Menschen vorbei gehen.
Intel ist nur die Spitze des Eisbergs, da werden sich noch eine ganze Menge anderer Unternehmen umschauen müssen.
 
aldaric schrieb:
Durch die ganzen Verschiebungen muss Sapphire Rappids nun aber nicht gegen Zen2, sondern Zen4 Server-CPUs antreten.

Da erwarte ich ehrlich gesagt keine Wunder.
Das ist halt das Ergebnis, wenn man die Produkte 2 Jahre später auf den Markt bringt als eigentlich geplant. Die Produkte sind nicht mehr konkurrenzfähig und können nur noch mit Abschlägen verkauft werden. Es ist ja auch nicht nur Sapphire Rapids oder Arc. Raptor Lake war eigentlich auch nicht geplant. Meteor Lake für den Desktop ist derart verspätet, dass es vielleicht nicht mehr kommt. Raptor Lake war ja schon nicht geplant und nun soll es möglicherweise noch einen Raptor Lake Refresh geben und danach gleich Arrow Lake. Intel muss seine Prozesse und die Yields in den Griff bekommen, sonst sieht es tatsächlich noch düsterer aus für die nächsten beiden Jahre.
 
Nolag schrieb:
Intel hat die Bruttomarge im Verlauf der letzten beiden Jahre von 60% auf unter 40% gesenkt. AMD hat dagegen im gleichen Zeitraum seine Bruttomarge bei über 50% halten können.
ist so nicht ganz richtig AMD hat im selben Zeitraum seine Margen von 45% auf+50% hochgeschraubt.
und das obwohl sich die Martanteile nur Minimal verändert haben
 
HansDetflefAndi schrieb:
Office, Surfen etcpp ist für mich Idle.
AMD System braucht für die Aufgabe 100W, Intel 40W
Ist leider nicht zielführend, da es stark von den verwendeten Komponenten abhängt. 7950X vs. Atom? 13900KS vs. 3000G?
 
flaphoschi schrieb:
Spekulative Ausführung ist das Wesen von Out-Of-Order Execution.
Nein, das ist falsch, was du hier schreibst.

Out-of-Order-Execution bedeutet erst mal, dass Befehle unabhängig der Reihenfolge ausgeführt werden können. Hier findet allerdings noch keine spekulative Ausführung von Befehlen statt. In einer In-Order-Architektur werden Befehle in der Reihenfolge abgearbeitet, wie sie kommen.

Out-of-Order-Execution ermöglicht erst mal nur, dass Befehle zur besseren Auslastung umsortiert werden und entsprechend ausgeführt werden.

Die spekulative Ausführung von Befehlen ist noch mal etwas ganz anderes.

flaphoschi schrieb:
SMT ist der Versuch Intels mit einem Prozessorkern zwei Prozesse teilweise parallel auszuführen, was auf Grund nur einmal vorhandenere Einheiten eingeschränkt funktioniert und Seiteneffekte nach sich zieht.
Du musst mir nicht erklären, was SMT ist. Das weiß ich selbst gut genug und nach dem du schon scheinbar nicht mal den Unterschied zwischen OoO und der spekulativen Ausführung von Befehlen kennst, wundert mich an der Stelle auch nicht, dass auch hier eher Halbwissen zum Besten geben wird.

SMT ist nicht nur von Intel ein Versuch auf einem Kern zwei Task/Threads/Prozesse parallel auszuführen, sondern, das macht auch AMD so bei ihren Zen-Kernen und ebenso IBM bei ihren Prozessoren und da geht es sogar so weit, dass bis zu 8 Threads auf einem Kern gleichzeitig laufen.

Und "einschränkt" funktioniert ... SMT funktioniert sogar sehr gut und macht auch das, was es soll. Heutige Prozessorkerne werden selten alleine durch einen Thread vollständig ausgelastet und es liegt quasi immer Rechenleistung brach. Das Hauptziel von SMT ist es nicht, dass man 2, 4 oder 8 Threads auf dem Kern parallel laufen lässt, sondern dass man die vorhanden Ressourcen möglichst effizient nutzt.

Während bei einem Prozess auf die Daten gewartet wird, kann ein anderer die ALUs belegen und umgekehrt. Daher laufen 2 Threads auf einem Kern auch in der Regel schneller ab, als ein Thread alleine. Deswegen ist auch 1 Core / 2 Theads nicht "0,5", sodass am Ende eben auch Werte über 1 herauskommen. (AMD steigt die Leistung um bis zu 30 %.)
flaphoschi schrieb:
Diese Seiteneffekte sind bei SMT jetzt nicht nur einmal negativ aufgefallen, sondern sind inhärent.
Natürlich gibt es auch negative Seiteneffekte, es kommt aber darauf an, welche du meinst. Geht es um die Sicherheit? Dann haben diese Seiteneffekte eher damit zu tun, dass Kontextswitchtes nicht sauber ausgeführt wurden, um Zeit zu sparen oder dass die Register in den Registerfiles als auch die Speicheradresse nicht sauber getrennt wurden.

Geht es um Probleme bei der Leistung: Ja auch diese gibt es, das passiert in der Regel dann, wenn beide Prozesse sich vollständig blockieren, solche Probleme kommen aber relativ selten vor. Das Hauptproblem bei SMT ist viel eher, dass "1T"-Anwendungen wirklich gebremst werden, weil sie weniger Ressourcen haben als vorher. Bei nT-Anwendungen kann man durch SMT aber in der Regel eher eine Steigerung des Durchsatzes beobachten.
flaphoschi schrieb:
Die Prozessorfläche ist sichere und effizienter genutzt mit SMP. Vereinfacht ausgedrückt:
... klar, deswegen hält Intel und AMD an SMT bei den großen Kernen fest. …
 
  • Gefällt mir
Reaktionen: flaphoschi und ETI1120
DevPandi schrieb:
Deswegen ist auch 1 Core / 2 Theads nicht "0,5", sodass am Ende eben auch Werte über 1 herauskommen. (AMD steigt die Leistung um bis zu 30 %.)
Hat wenig mit AMD zu tun, sondern hängt einzig und alleine davon ab, wie ineffizient die Ausführung sonst wäre und wie lange die eigentliche Berechnung sonst zum Beispiel auf Daten aus dem Speicher warten müsste. Das kann auch schon mal hüben wie drüben, eine Leistungssteigerung weit über den angepeilten 30% bedeuten oder auch einen Leistungsverlust.
1674997710154.png

https://www.anandtech.com/show/1626...-multithreading-on-zen-3-and-amd-ryzen-5000/2

DevPandi schrieb:
... klar, deswegen hält Intel und AMD an SMT bei den großen Kernen fest. …
Grundsätzlich dürfte sich aber die Frage stellen, ob der Verzicht auf SMT und der Einsatz von "kleinen" Kernen als Ersatz dafür nicht die bessere Variante wäre. Vermutlich nicht, sonst hätte Intel keine P-Kerne mit SMT und E-Kerne ohne SMT kombiniert, aber wer weiß was die Zukunft bringt.
 
Zuletzt bearbeitet:
flaphoschi schrieb:
Die Prozessorfläche ist sichere und effizienter genutzt mit SMP.
Das mit der Sicherheit ist übrigens auch ein Argument von Ampere gegen AMD und Intel im Datacenter. Obs wirklich verfängt werden wir sehen.
DevPandi schrieb:
... klar, deswegen hält Intel und AMD an SMT bei den großen Kernen fest. …
So wie ich es verstehe soll Zen 4c auch SMT haben. Was mich nicht sonderlich positiv stimmt.

Man kann es so sehen, dass SMT eine der Säulen des Erfolgs von Zen ist.
Aber das OneSizeFitsAll mit dem Zen so erfolgreich war, hat IMO keine Zukunft mehr. Wenn X86 überleben soll, müssen AMD und Intel jeweils mehrere CPU Kerne mit unterschiedlichen Eigenschaften anbieten.

Wenn Zen 4c tatsächlich Zen 4 nur mit einem bisschen weniger Cache ist, mag das als Einstieg funktionieren. Aber langfristig wäre das zu wenig. Dass Zen 4c SMT kann sehe ich als Hinweis darauf, dass nur am Cache geschraubt wurde.

Ich denke SMT hat für große CPU-Kerne eine wichtige Funktion. Aber man benötigt nicht für alle Funktionen große CPU-Kerne. Bei einem kleinen CPU-Kern ergibt SMT keinen Sinn.

xexex schrieb:
Grundsätzlich dürfte sich aber die Frage stellen, ob der Verzicht auf SMT und der Einsatz von "kleinen" Kernen als Ersatz dafür nicht die bessere Variante wäre. Vermutlich nicht, sonst hätte Intel keine P-Kerne mit SMT und E-Kerne ohne SMT kombiniert, aber wer weiß was die Zukunft bringt.
Die Zukunft wird vielfältig. Die Anzahl der Firmen die CPU-Kerne entwickeln steigt.

Die CPU-Kerne sind nicht mehr alleine. Hinzu kommen GPUs, AI-Kerne, ... Das bedeutet, dass sehr viel Software neu geschrieben wird. Und es kommt darauf an wie effizient CPU, GPU und AI-Kerne gekoppelt werden.

IMO bedeutet dies, dass sich die Anforderungen an die CPUs verändern und dass je nach Anwendungs-Szenario von den CPUs andere Funktionen und Leistungen verlangt werden. Natürlich kann man dann auch die OneSizeFitsAll-CPU-Kerne einsetzen. Aber wenn es ein breiteres Angeboot an CPU-Kernen gibt und auch ein breiteres Angebot an CPUs, kann es passieren, dass die OneSizeFitsAll-CPUs zu teuer sind.

X86 hat MC68000 und alle HighEnd-RISC-Architekturen verdrängt, weil X86 über die Stückzahlen einen Hebel gefunden hat. Gegen Arm und RISC-V wird die Geschichte mit den Stückzahlen nicht funktionieren. Ich habe eher das Gefühl, dass sich X86 auf die Leistungsspitze zurückzieht.
Ergänzung ()

flaphoschi schrieb:
PS: Intel liefert inzwischen einzelne Prozessoren nur mit E-Cores?
Die sollen AFAIK in den nächsten Jahren für Server kommen.

Für den Desktop werden E-Core-Only-CPUs nicht kommen, weil sie zu eine zu kleine Single Thread Leistung haben.

Wenn dich SMT/Hyperthreading stört dann deaktiviere es.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Die sollen AFAIK in den nächsten Jahren für Server kommen.

Für den Desktop werden E-Core-Only-CPUs nicht kommen, weil sie zu eine zu kleine Single Thread Leistung haben.

Wenn dich SMT/Hyperthreading stört dann deaktiviere es.
Alder-Lake N im Notebook ist E-Core only
 
xexex schrieb:
Hat wenig mit AMD zu tun, sondern hängt einzig und alleine davon ab
Die Aussage ist nicht ganz richtig und nicht ganz falsch. Wie gut SMT am Ende abschneidet, hat auch mit der Implementierung von SMT zutun.

Genauso die Sicherheit von SMT, die auch an der Implementierung abhängt. Hier ist die Aussage ein klares: Kommt darauf an.
xexex schrieb:
wie ineffizient die Ausführung sonst wäre und wie lange die eigentliche Berechnung sonst zum Beispiel auf Daten aus dem Speicher warten müsste.
Natürlich ist hier immer die Frage, wie lange man auf Daten ggf. warten muss, welcher Bereich gerade vom Thread wie gefordert wird usw. Das habe ich aber bereits erwähnt.
xexex schrieb:
Das kann auch schon mal hüben wie drüben, eine Leistungssteigerung weit über den angepeilten 30% bedeuten oder auch einen Leistungsverlust.
Gut, ich hätte im "Mittel 30 %" schreiben sollen, am Ende ist es aber Relativ. Wichtig ist, dass auf den aktuellen großen Kernen von Intel und AMD die Rechnung eben nicht 100 % / 2 Threads = 50 % pro Thread ist, sondern dass beide Threads eben in der Regel mehr als 50 % der Leistung erhalten und daher der Gesamtdurchsatz steigt. Aus den 16 Test bei Anand Tech sieht man ja, dass zwei Tests Leistung deutlich verlieren, 2 Tests quasi gleich bleiben und in 12 Tests die Leistung steigt.
xexex schrieb:
Grundsätzlich dürfte sich aber die Frage stellen, ob der Verzicht auf SMT und der Einsatz von "kleinen" Kernen als Ersatz dafür nicht die bessere Variante wäre.
Kommt auf den Workload an und welche Leistung da benötigt wird. Viele kleine Kerne könnten sowohl in nT-Workloads als auch in 1T-Workloads von Vorteil sein, wenn es bei beiden Workloads um eine massive parallele Ausführung geht.

Klar 1T-Workload spricht erst mal gegen "parallel" Ausführung, aber nur im ersten Moment. Ich sage nur moderne Webserver, die entsprechende Worker-Threads aufmachen für die Seitenaufrufe. Da wird pro Thread nicht viel Leistung benötigt um die Anfragen aber möglichst schnell abzuarbeiten braucht man viele Kerne.
xexex schrieb:
Vermutlich nicht, sonst hätte Intel keine P-Kerne mit SMT und E-Kerne ohne SMT kombiniert, aber wer weiß was die Zukunft bringt.
Viele kleine Kerne oder wenige große Kerne. Die Diskussion gibt es quasi seit 10 Jahren und ist ja auch von AMD mit Bulldozer angestoßen worden. Große Kerne braucht man immer für Workloads, die sich nicht gut parallelisieren lassen, die dennoch Rechenleistung erfordern. Viele kleine Kerne sind dann im Vorteil, wenn man die Aufgaben gut parallelisieren kann udn gleichzeitig die einzelnen Threads nicht "massiv" auf Rechenleistung angewiesen sind.

Man sieht ja aktuell, dass Intels 16E + 8P-Kerne - also 32 "virtuelle" Kerne - nicht viel schneller oder langsamer sind als AMD Zen 4 bei nT-Tests, die auch auf 32 virtuelle Kerne kommen.
ETI1120 schrieb:
Das mit der Sicherheit ist übrigens auch ein Argument von Ampere gegen AMD und Intel im Datacenter. Obs wirklich verfängt werden wir sehen.
Ampere sollte sich da mal nicht soweit aus dem Fenster lehnen: Meltdown und Spectre betreffen auch bestimmte und vor allem die größeren ARM-Designs genau so. Das Problem bei ARM ist da sogar teilweise genau das gleiche wie bei AMD und Intel oder IBM: Die verschiedenen Speicherschichten - der jeweiligen Prozesse - werden nicht gut genug gegeneinander isoliert und auch die Isolation zwischen den Threads wurde nicht vollständig implementiert.

Die Sicherheitslücken waren ja nicht SMT spezifisch, sondern OoO und auf die spekulative Ausführung gerichtet. Das SMT diese Angriffe unter Umständen vereinfacht, ist ein Nebeneffekt. Die Probleme liege aber eher darin, dass Prozesse - unabhängig von SMT - entweder kurzfristig oder dauerhaft Zugriff auf Daten hatten, die dem Prozess garnicht gehöhrten.
ETI1120 schrieb:
Aber das OneSizeFitsAll mit dem Zen so erfolgreich war, hat IMO keine Zukunft mehr.
Kommt darauf an. Allgemein, also wirklich jedes Arbeitsfeld abgedeckt, hast du recht. Da wird es mit einem Kern für Alles nicht mehr funktionieren. Aber man sieht es ja aktuell auch gut, dass Intel in den Servern überhaupt kein Hybride-Design umgesetzt hat, sondern dort alles mit den Golden Cove in Saphire Rappids abdeckt, während für Cloud-Server die e-Cores kommen sollen.

Im Desktop und Notebook-Bereich, genauso Workstations mit unterschiedlichen Workloads ergeben Hybrid-Designs wiederum Sinn, weil hier unterschiedliche Lasten auftreten können.
ETI1120 schrieb:
Wenn X86 überleben soll, müssen AMD und Intel jeweils mehrere CPU Kerne mit unterschiedlichen Eigenschaften anbieten.
x86 hat auch heute immer noch einen vorteil den ARM, RISC und Co nicht hat: Kompatiblität. Auch wenn sich das Thema mit der Zeit für ARM und RISC-V "verbessern" wird, aktuell ist ein Ende von x86 noch nicht absehbar.
ETI1120 schrieb:
Dass Zen 4c SMT kann sehe ich als Hinweis darauf, dass nur am Cache geschraubt wurde.
Der Cache - sieh dir mal Die-Shots zu RaptorLake und Co an - ist auch aktuell die Fläche, die am meisten Platz in modernen Prozessoren erfordert. Bei den Raptor Cove geht gut 50 % der Fläche für den L2-Cache sammt Kontroll-Logik und den L3-Cache drauf. Mit dem L1-Caches und deren Logik kannst du das auch 60 % erhöhen.

Alles andere - also wirklich der "Kern" - anschließed ist überschaubar. Bei Zen4 nehmen die 32 MiB L3-Cache ca. 50 % der Fläche ein. AMD kann also hier aktuell sehr gut an den Kernen schrauben und gerade im Cloud-Bereich, für den Zen4c gedacht ist, ist L3 nicht mehr ganz so wichtig, weil hier die Kommunikation zwischen den Kernen überschaubarer ausfällt.
ETI1120 schrieb:
Ich denke SMT hat für große CPU-Kerne eine wichtige Funktion. Aber man benötigt nicht für alle Funktionen große CPU-Kerne.
Etwas schwer verständlich, meinst du nicht im "Aber man benötigt nicht für alle Aufgaben große CPU-Kerne"?
ETI1120 schrieb:
Bei einem kleinen CPU-Kern ergibt SMT keinen Sinn.
Es kann schon Sinn ergeben, es kommt auf den Kern an. Wäre interessant, was die e-Kerne mit SMT leisten könnten.
ETI1120 schrieb:
X86 hat MC68000 und alle HighEnd-RISC-Architekturen verdrängt, weil X86 über die Stückzahlen einen Hebel gefunden hat.
Oh, das hat in dem Fall nichts mit den Stückzahlen zutun gehabt, sondern alleine damit, dass damals die Kompatiblität für x86 gesprochen hat und alte Software problemlos weiter verwendet werden konnte, ohne dass man sie - im besten Fall - neu kompilieren musste und im schlimmsten Fall vollständig neu programmieren.

x86 hat sich ja nicht durchgesetzt, weil es die "beste" Architektur war, sondern weil die Programme darauf liefen und das auch noch schnell.
ETI1120 schrieb:
Gegen Arm und RISC-V wird die Geschichte mit den Stückzahlen nicht funktionieren.
Die Ausgangslage ist heute eine andere: Software wird heute in der Regel in einer Hochsprache entwickelt und die Compiler sind heute viel besser als noch vor 20 oder 30 Jahren. Viele Optimierungen übernehmen Compiler und das sehr gut, so dass man sich mit Architektureigenheiten einer Plattform kaum mehr befassen muss als Entwickler. Die Prozessor-Hersteller liefern für Compiler entsprechende Optimierungen und so kann man heute relativ einfach die eigene Software sowohl für ARM, x86 oder auch RISC-V bereitstellen.

Ebenso geht der Trend - und Intel geht es ja bei Saphire Rapids bereits so und AMD hat mit den APUs auf Zen4-Basis diesen Schritt auch vorgestellt - von generalisten wieder hin zu Spezialisten. Mit AVX512 und AMX blähte und bläht intel die eigene Architektur auf, gleichzeitig zeigt Google, Apple und Co, dass kleine spezialisierte Zusatzkerne, die über einen Treiber/API angesprochen werden, bestimmte Aufgaben viel schneller und effizienter lösen können.

AMD wird sich Xilinx nicht umsonst "einverleibt" haben. ;)
ETI1120 schrieb:
Ich habe eher das Gefühl, dass sich X86 auf die Leistungsspitze zurückzieht.
Wird man abwarten müssen. Für AMD und Intel ist x86 aktuell noch sehr wichtig und machen quasi das Geschäft aus.
ETI1120 schrieb:
Für den Desktop werden E-Core-Only-CPUs nicht kommen, weil sie zu eine zu kleine Single Thread Leistung haben.
Also in kleinen Office-Maschinen und Laptops für den Alltag? Da könnten sich e-Kerne durchaus durchsetzen.
 
Dittsche schrieb:
Die Dividende wurden mehrmals erhöht. Boomer Baldrian. ;)
Sowas ist manchmal auch nötig. Die Dividenden sind letztlich das einzige was viele Aktionäre noch zum halten der Aktie in solchen Zeiten bewegt. Und ohne Aktionäre kann ein börsennotiertes Unternehmen nun mal schlecht sein. Es war schon ein harter Kampf für den CEO die hohen Investitionen in die neue Foundry Strategie gegenüber den Aktionären zu rechtfertigen, wenn er während der hohen Profitabilität der letzten beiden Jahre die Aktionäre nicht mit Dividenden besänftigen hätte können, hätte er wohl dieses Projekt auch gleich wieder einstampfen können. Nichts destotrotz sind die Ausgaben für Forschung und Entwicklung zuletzt auch ganz gut angesprungen.
 
DevPandi schrieb:
Nein, das ist falsch, was du hier schreibst.

Out-of-Order-Execution bedeutet erst mal, dass Befehle unabhängig der Reihenfolge ausgeführt werden können. Hier findet allerdings noch keine spekulative Ausführung von Befehlen statt. In einer In-Order-Architektur werden Befehle in der Reihenfolge abgearbeitet, wie sie kommen.

Out-of-Order-Execution ermöglicht erst mal nur, dass Befehle zur besseren Auslastung umsortiert werden und entsprechend ausgeführt werden.

Die spekulative Ausführung von Befehlen ist noch mal etwas ganz anderes.

https://stackoverflow.com/questions/49601910/out-of-order-execution-vs-speculative-execution

Scheint zu stimmen. Danke :)
Die obere Antwort hilft und die untere Antwort ergänzt es.

Die Konzept Superskalar, Pipeline, Out-of-Order und Spekulation stehen prinzipiell alleine? Auch wenn sie meist in Kombination auftreten.
Ergänzung ()

ETI1120 schrieb:
Die sollen AFAIK in den nächsten Jahren für Server kommen.

Für den Desktop werden E-Core-Only-CPUs nicht kommen, weil sie zu eine zu kleine Single Thread Leistung haben.
Sind schon für Laptops angekündigt:
https://www.computerbase.de/2023-01...-celeron-nachfolger-nutzt-nur-kleine-e-cores/

Achte Kerne und 7 W TDP klingen gut. Leider sollte die Grafik (UHD) ziemlich limitieren?


Bezüglich "OneSizeFitsAll" und "BIG.little"
Zunächst scheint AMD mit einer Art Zen3 und Zen4-Kern effizienter zu sein als Intel mit dem Mischkonzept. Eleganter wäre ein leistungsfähiger Kern, der nicht benötigte Einheiten drosseln oder ganz abschalten kann?

Andererseits plant AMD mit dem Zen4c womöglich einen kleineren Zen4-Kern mit Featureparität, aber eben kleiner ausfällt:
https://www.computerbase.de/2022-10/amd-epyc-9004-genoa-server-cpus-benchmarks/
http://www.3dcenter.org/news/news-des-21-dezember-2022

Das wäre dann anders als bei Intel, mit unterschiedlichen Kernen.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Ampere sollte sich da mal nicht soweit aus dem Fenster lehnen: Meltdown und Spectre betreffen auch bestimmte und vor allem die größeren ARM-Designs genau so.
Aber irgendwie muss man fehlende Features doch als Vorteil verkaufen. Diese ganze Gerede von der moderneren Architektur ... Letztendlich kommt es darauf an in ob und in welchen Workloads die Prozessoren einen Vorteil bieten.

X86 ist etabliert. Damit die Anwender sich auf eine neue Architektur einlassen, muss diese schon einen deutlichen Vorteil bei den eigenen Workloads bieten.

DevPandi schrieb:
Im Desktop und Notebook-Bereich, genauso Workstations mit unterschiedlichen Workloads ergeben Hybrid-Designs wiederum Sinn, weil hier unterschiedliche Lasten auftreten können.
Das sieht man an sich bei Alder Lake und bei Raptor Lake.

Aber man darf nicht vergessen, das man dies so bewertet, weil sich AMD mit den CCXs und CCDs in eine Nische hineinoptimiert hat. AMD kann nur 8 oder 16 Kerne. Oder eben Kerne deaktivieren.

DevPandi schrieb:
x86 hat auch heute immer noch einen vorteil den ARM, RISC und Co nicht hat: Kompatiblität. Auch wenn sich das Thema mit der Zeit für ARM und RISC-V "verbessern" wird, aktuell ist ein Ende von x86 noch nicht absehbar.
Ein Ende kommt selten abrupt.

Aber man muss sich Mal in Ruhe anschauen in welchen Bereichen des CPU-Marktes X86 überhaupt noch vertreten ist.

Wenn man auf Client (Notebook, Desktop) und Server schaut dominiert X86. Natürlich verwenden einige Embedded Systeme auch X86. Aber für viele Designs ist X86 zu teuer oder passen die verfügbaren X86 CPUs nicht auf ins anforderungsprofil. Oder man kann gar keine X86 verwenden, weil man keine Lizenz bekommt, die es erlaubt einen X86 Kern mit der eigenen IP zu koppeln.

Beim Client haben wir Apple. Bei den Servern die Cloudanbieter und mit Ampera den ersten CPU-Hersteller. Nvidia kommt bald.

DevPandi schrieb:
Alles andere - also wirklich der "Kern" - anschließed ist überschaubar.Bei Zen4 nehmen die 32 MiB L3-Cache ca. 50 % der Fläche ein.
Das Verhältnis wird schlimmer weil SRAM von N5 auf N3E nicht skaliert.
Hybrid Bonding kommt gerade noch rechtzeitig.
DevPandi schrieb:
AMD kann also hier aktuell sehr gut an den Kernen schrauben und gerade im Cloud-Bereich, für den Zen4c gedacht ist, ist L3 nicht mehr ganz so wichtig, weil hier die Kommunikation zwischen den Kernen überschaubarer ausfällt.
Hier gibt es die Hebel Menge von L3 und Anbindung des L3 an die Kerne. Und wie die Kerne untereinander gekoppelt werden.

Die Frage ist wie viel Silizium wird sonst noch mitgeschleppt, das für diese Workloads von geringem Nutzen ist.

DevPandi schrieb:
Etwas schwer verständlich, meinst du nicht im "Aber man benötigt nicht für alle Aufgaben große CPU-Kerne"?
Ja. Ich hätte Workloads anstatt Funktionen schreiben sollen. Außerdem hatte ich groß = wider issue und klein = smaller issue im Hinterkopf, und habe es mir damit zu einfach gemacht.

DevPandi schrieb:
Es kann schon Sinn ergeben, es kommt auf den Kern an. Wäre interessant, was die e-Kerne mit SMT leisten könnten.
Worauf ich hinaus will:
Wenn der Kern A kleiner als Kern B ist, weil weniger Cache, einfachere Steuerlogik und ein einfacher Branchpredictor verbaut sind, aber beide Kerne 4-issue sind, dann kann beim Kern A SMT beizubehalten sehr viel Sinn ergeben.

Wenn der Kern C kleiner als Kern D ist, weil Kern C als 4- und Kern D als 6-issue ausgelegt ist, wird SMT AFAIK bei Kern C weniger Nutzen bringen als im Kern D.

Und wenn dann die Fläche limitiert ist, wie es bei den E-Cores von Intel der Fall ist, muss man eben abwägen wo die Transistoren den größeren Nutzen bringen.

Man wird sehen welchen Nutzen AMD beim Zen 4c aus SMT zieht.

Es ist schon interessant wie gut Apple die 8-issue CPU-Kerne ohne SMT auslasten kann.
DevPandi schrieb:
Oh, das hat in dem Fall nichts mit den Stückzahlen zutun gehabt, sondern alleine damit, dass damals die Kompatiblität für x86 gesprochen hat und alte Software problemlos weiter verwendet werden konnte, ohne dass man sie - im besten Fall - neu kompilieren musste und im schlimmsten Fall vollständig neu programmieren.
Die 68000er waren weit verbreitet und es wurde sehr viel Software für die 68000er geschrieben.
Aber dann sind die X86 mit den Stückzahlen davongezogen. Das hat Intel natürlich ordentlich Einnahmen gebracht.

Als ich 1991/1992 im Spörle Katalog den Preis einer 68030-CPU gesehen habe, war mir eigentlich sofort klar, dass die Sache gegessen war. Aber eingestanden habe ich es mir damals noch nicht. Der 68040 war noch richtig gut. Der 68050 fiel aus und der 68060 war der Abschied. Damals haben alle von RISC geredet und die 68000er-Fraktion hat auf den 88000er geschiehlt. Aber der scheiterte gleich zu Anfang.

DevPandi schrieb:
x86 hat sich ja nicht durchgesetzt, weil es die "beste" Architektur war, sondern weil die Programme darauf liefen und das auch noch schnell.
Der 68000 war erheblich besser. Aber auch zu teuer, wesdhalb sich IBM für den X86 entschieden hat.

Motorola hat sich noch eine ganze Weile im Erfolg mit Workstations und im Embedded-Bereich gesonnt. Mac, Amiga, Atari ST haben sie IMO nicht so richtig geschätzt. Letztendlich lies Motorola die 3 im Regen stehen.

In den 90igern konnten Motorola gegen Intel nicht mehr mithalten und im Workstation-Markt wurde der 68000er von X86 und RISC ausradiert. Intel hat ab dem 386er einige sehr gute CPUs abgeliefert.

Im Embedded-Markt konnten die 68000er sich länger in Nischen halten. Auch heute laufen manche neu verkaufte Produkte noch mit 68000er.

DevPandi schrieb:
Die Ausgangslage ist heute eine andere: Software wird heute in der Regel in einer Hochsprache entwickelt und die Compiler sind heute viel besser als noch vor 20 oder 30 Jahren.
Der zweite wichtige Punkt sind die neuen Paradigmen, wie z B. GPU, Rechenwerke für AI, DPUs.

Bei einigen Geräten wie DPUs kommen intern auch CPUs zum Einsatz, aber es sind keine X86.

Der dritte wichtige Punkt ist auf dem Server Java und die Interpretersprachen. Mit einer guten Laufzeitumgebung hat man schon sehr viel erreicht.

DevPandi schrieb:
Ebenso geht der Trend - und Intel geht es ja bei Saphire Rapids bereits so und AMD hat mit den APUs auf Zen4-Basis diesen Schritt auch vorgestellt - von generalisten wieder hin zu Spezialisten. Mit AVX512 und AMX blähte und bläht intel die eigene Architektur auf, gleichzeitig zeigt Google, Apple und Co, dass kleine spezialisierte Zusatzkerne, die über einen Treiber/API angesprochen werden, bestimmte Aufgaben viel schneller und effizienter lösen können.
IMO sind AVX512 und AMX Sackgassen. Sie sind richtig toll in einigen Workloads, aber sie werden auch mitgeschleppt wenn man sie gar nicht benötigt. Und wie weit skalieren sie, wenn man richtig viel von dem Stoff braucht? Wenn man dann Spezialhardware reinpackt, bleibt das Silizium wieder ungenutzt.

Gerade im anbrechenden Zeitalter der Chiplets halte ich diesen Ansatz den CPU-Kern immer weiter aufzublasen für überholt. Eine schlanke*) CPU die darauf getrimmt ist die klassischen CPU-Lasten hoch effizient abzuarbeiten, eng gekoppelt mit GPU, AI-Engines, DPUs .... Das ganze mit ausreichend gemeinsamen Speicher ausgestattet. Was es braucht ist die Softwareunterstützung. Und dank Chiplets kann man die Recheneinheiten so konfigurieren wie man es benötigt.

*) Vom Funktionsumfang aus betrachtet, was ja nicht heißt dass man an den Integer ALUs sparen muss. Als Laie ist mir nicht klar was man an FloatingPoint-Leistung reinstopfen muss.

Der kritische Punkt ist so oder so die Software. Hier sind die AMD APUs leider das Negativbeispiel. Hardware bringt ohne Software die sie verwendet leider nichts. Man überlege Mal ganz kurz was mit Cuda für die Caveri-APU möglich gewesen wäre, ...

DevPandi schrieb:
AMD wird sich Xilinx nicht umsonst "einverleibt" haben. ;)
Meiner Meinung nach war die AIE der Grund warum AMD Xilinx übernommen hat und warum sich Xilinx so bereitwillig von AMD kaufen lies. Dass AMD über Xilinx Zugang zu neuen Märkten bekommt und dass AMD die Abhängigkeit vom Client-Markt verringert war es erst in zweiter Linie. Dass es zwischen AMD und Xilinx keine Überschneidungen gab, hat die Sache erst ermöglicht.

AMD hatte bei AI ein riesiges Loch und Xilinx war zu klein um die AIE im erforderlichen Tempo zu verbreiten.

Beim Client steht und fällt es mit der Software. Falls die AIE bei Phoenix Point ausgelastet wird, könnte sie einen gewaltigen Unterschied machen. Ein dickes Falls weil Software und AMD ... ich gebe aber die Hoffnung nicht auf dass Xilinx hier was beisteuert.

Auf der anderen Seite wird die Softwareentwicklung erheblich einfacher wenn man keine Spezialboards benötigt, sondern alles schon eingebaut ist. Vor allem um Einsteiger anzulocken. Schau'n wir Mal, ob Xilinx das auch so sieht.

DevPandi schrieb:
Wird man abwarten müssen. Für AMD und Intel ist x86 aktuell noch sehr wichtig und machen quasi das Geschäft aus.
Momentan. Aber viele Workloads, die momentan zunehmen sind nicht an X86 gebunden.

Ich erwarte dass Nvidia mit Grace Intel und AMD so richtig weh tun wird. Denn viele X86 CPUs werden verwendet um Nvidia-Karten zu bedienen. Nvidia wird dafür sorgen, dass Grace das besser als die X86-CPUs kann.

Und RISC-V drängt mit aller Macht nach. Sie werden nicht so lange wie Arm brauchen. Gewissermaßen hat Arm den Weg für RISC-V vorbereitet. Natürlich wird einiges an Zeit vergehen bis die anderen Architekturen z. B. bei Datenbankanwendungen überhaupt eine Alternative zu X86 sind.

Aber X86 hat die RISC-CPUs auch nicht in einer Generation verdrängt. Und der Zombie Power hält sich ja immer noch.

Genau deshalb ist es erforderlich dass AMD und Intel die Einfallstore für neue Marktteilnehmer verschließen. Und das funktioniert IMO nur wenn Kerne mit unterschiedlicher Charakteristik entwickelt werden.

Für mich war beim FAD 2022 der wichtigste Punkt, dass AMD angeboten hat AMD-Kerne und Customer IP zusammenzupacken. Wenn es AMD und auch Intel gelingt Kunden von diesem Weg zu überzeugen, hat X86 eine Chance. Falls nicht wird X86 immer mehr in eine Nische wandern.

Dabei halte ich wie gesagt den häufig angepriesene Effizienzvorteil von Arm und RISC-V eher für belanglos. Ob es nun 5 oder 10 Prozent sind. Viel wichtiger ist die Anzahl der verfügbaren Designs und dass sie viel besser auf die Workloads abgestimmt werden. Und dass eigene IP mit Arm bzw. RISC-V viel einfacher kombiniert werden kann.
 
ETI1120 schrieb:
Intel macht nicht dicht.
Ich habe den Konjunktiv verwendet und bzgl der Patente etwas extrem argumentiert.
Genau um die Relevanz von Intel darzulegen.

Wenn jemand too big to fail ist dann sicher Intel.
Worst Case: Elon kauft das alles auf und morgen klebt ein neuer Name auf den CPUs .
 
flaphoschi schrieb:
Bezüglich "OneSizeFitsAll" und "BIG.little"
Zunächst scheint AMD mit einer Art Zen3 und Zen4-Kern effizienter zu sein als Intel mit dem Mischkonzept.
Hier würde ich schon Mal einen deutlichen Strich ziehen.

Ich bin von BIG.little wie es Intel gemacht hat nicht beeindruckt. Es funktioniert und es ermöglicht es Intel einen Schwachpunkt bei AMD auszunutzen. Aber es bewirkt auch, dass einiges an Siliziumfläche nicht genutzt werden kann. auch wenn AVX-512 auf dem Client keine Rolle spielt.

Beim Vergleich kommt darauf an ob wir von den Chiplet-CPUs reden oder von den monolithischen APUs.
Bei den APUs ist Zen 3 AFAIK bei niedriger Power effizienter sowohl als der BIG- als auch als der little-Kern.

Bei den Chiplets-CPUs bezahlt Zen 3 den Preis für zusätzliche Bumps und längere Signalwege durch MCM mit einem organic Substrat.

Ich gehe davon aus, dass der größte Teil der zusätzlichen Transistoren bei Zen 4 in die FPU gewandert ist. Bei den Workloads auf dem Client wirkt sich das nicht so aus. Bei einigen typischen Workloads auf den Server jedoch schon.

D. h. Zen 4 schleppt auf dem Client totes Silizium mit.

flaphoschi schrieb:
Eleganter wäre ein leistungsfähiger Kern, der nicht benötigte Einheiten drosseln oder ganz abschalten kann?
Es ist nur so lange elegant, bis jemand einen billigeren Chip anbietet der für diese Workload dasselbe leistet. Oder einen Chip der dasselbe kostet aber mehr leistet. Auch wenn die Einheiten zu 100 % abgeschaltet werden, haben sie einen Einfluss auf die Leistung des Chips.

flaphoschi schrieb:
Andererseits plant AMD mit dem Zen4c womöglich einen kleineren Zen4-Kern mit Featureparität, aber eben kleiner ausfällt:
https://www.computerbase.de/2022-10/amd-epyc-9004-genoa-server-cpus-benchmarks/
http://www.3dcenter.org/news/news-des-21-dezember-2022
Der L3-Cache wird halbiert, ansonsten ist alles unklar.

Ich habe es inzwischen aufgegeben zu viel in vage Äußerungen von AMD-Leuten hinein zu interpretieren. Eine Mitschrift des Interviews habe ich gelesen. Die Aussage von Mark Papermaster bezieht sich auf den Kern, was immer er da auch mit berücksichtigt.

Den eigentlichen Kern zu verkleinern würde ein komplette neue Architektur erfordern. Hatte AMD die Kapazitäten und die Zeit dies bei Zen 4c umzusetzen?

flaphoschi schrieb:
Das wäre dann anders als bei Intel, mit unterschiedlichen Kernen.
Das habe ich anfangs auch gedacht. Aber dass beide Kerne dieselbe ISA unterstützen, bedeutet nicht dass sie die Befehle mit derselben Geschwindigkeit ausführen. Das heißt es wird eine Rolle spielen, auf welchem Kern eine Workload läuft. So wie bei 7900X3D und 7950X3D.
 
Zurück
Oben