Notiz Nuvia Phoenix: Effiziente CPU-Kerne sollen besser als Apples Lösung sein

Kacha schrieb:
Der Vergleich mit x86_64 ist aber immer wieder unpraktisch, da diese Architektur ganz andere Vorteile hat. Einer davon ist schlicht die Kompatibilitaet. Alle Energieeffizienz und Leistung bringt dir nichts, wenn deine Software nicht laeuft. Ich denke wenn man das ganze bei x86_64 ueber Bord wirft und sagen wir alles nur auf 64 Bit ausrichtet, dann gewinnt man da auch ganz gut Effizienz. Aber wer will das?

Eben, die beste Leistung und Effizienz bring mir nix, wenn meine Lieblingsprogramme nicht drauf laufen.
Von welchem benötigten/unterstützten Betriebsystem reden wir denn hier überhaupt? Windows, Linux, Mac OS oder Android?
 
Ganz ehrlich... wenn ich Investor wäre und die mir so einen Graphen präsentieren würden, dann würden die von mir keinen Pfennig bekommen.

Offensichtlich ist Investoren Abzocken dank deren Gier auch heute noch mit solchen billigen Schaubildern ohne weiteres möglich.

Alleine das Idle normalized Watts vs. Single Core Performance ist doch schon schmufix vom feinsten. Kleiner Chip, wenig idle Verbrauch. Da nimmt man dann auch lieber die Single Core Performance in einer unspezifizierten Performance Metrik, simuliert eine Single Core CPU gegenüber den Konkurenten, fertig ist der Investoren Honeypot.

Gibts irgendwo ein A13 Lightning Benchmark den man direkt einem Ice Lake / Renoir gegenüberstellen kann? Dann fällt diese Folie vermutlich schon in sich zusammen.
 
Zuletzt bearbeitet:
meiner meinung nach ist soetwas zutiefst schwierig in eiem markt wie dem der prozessoren - als ob es nicht bereits genügend architekturen gäbe..
wenn man sich nur an 64-bit taugliche architekturen hält, fallen mir neben x86-64 und arm(v8) spontan schonmal mips, dec/alpha, powerpc, (ultra)sparc(64) und itanium (ia-64) ein; und das in verschiedensten "geschmacksrichtungen".z.b, den playstation3 prozessor den cell (cbe) - wo im grunde ein powerpc kern mit computing cores ("spe") kombiniert wurde.
dazu kommen noch etliche theoretische architekturen in hochschularbeiten, etc. dazu.

es geht schon lange nicht mehr um pure performance oder energieeffizienz alleine, sondern auch um kompatibilität der softwarelösungen. und hier gibt es im "consumer" bereich im grunde nur noch x86-64 und arm.

ja, natürlich unterstützen etliche linux distros auch exotische oder gar längst "tote" architekturen, aber nicht überall macht einsatz von linux sinn. und nicht jeder möchte es überall nutzen.

insofern ist das jetzt erstmal eine meldung der marke..joa, mal schau'n wenn was praktisches gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cookie_dent
Wie man in den letzten 20-30 Jahren feststellen kann ist gerade in diesem Bereich die Menge an Blendern und Größenwahnsinnigen besonders hoch. Die Rate an Entwicklungen, die im Investitionsmülleimer landen machen der Pharmaindustrie bisweilen Konkurrenz (nur 10 % der Medikamente schaffen es in klinische Phase 3 Studien) und die Ansätze zur Entwicklung eines Corona Impfstoffes sind hier ein Pars pro Toto. (offtopic off)

Ich tippe hier wie @Shoryuken94 zunächst und aus zwischenzeitlich 35 jähriger Beobachtung der Branche auf "heiße Luft". Und wenn hier ein besseres "Startup" auf die Bühne tritt, mit dem Anspruch das Rad neu erfunden zu haben und hier mit Milliardenkonzernen in Konkurrenz treten will ist das mindestens auf eine amüsante Weise ambititioniert - mehr aber auch nicht. Wenn es besagte Firmen dazu nötigt, aus "bewährten" Denk- und Entwicklungsstrukturen auszubrechen zumindest nützlich.
 
  • Gefällt mir
Reaktionen: cruse und NDschambar
Ach ja, Geekbench mal wieder. Wo der A12X schneller als ein i7-H ist...

Da würde ich zunächst mal nicht so viel Vertrauen reinstecken, obwohl ich ja gerne an ein Performance-Effizienzwunderkind glauben würde.

Solche vollmundigen Versprechungen wurden schon oft von Startups gebracht, um Investorengelder rauszuschlagen und sind erst mal nicht mehr wert, als das Papier, auf dem sie nie gedruckt wurden.

Beispiel Transmeta, da wurde auch das Blaue vom Himmel versprochen. Die Realität sah dann ganz anders aus. Aber lest selbst: https://de.wikipedia.org/wiki/Transmeta

Ein aktuelleres Beispiel ist Tachyum, kürzlich ebenfalls in den CB News aufgetaucht. Bis die nichts handfestes geliefert haben, glaube ich denen nix. Aber vielleicht landen Sie ja doch nen Jackput. Abwarten, Kaffee trinken.
 
Zuletzt bearbeitet:
Hochmut kommt vor dem Fall...
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Vor allem "Single Core Performance" und keine Aussage über Größe, Struktur, Anzahl Kerne.

Ich wette, Apple könnte auch einen A13 Thunder Kern (oder wie die heißen) auf die größe eines jetzigen A13 skalieren und mit dem gewonnen Platz mal nen bisschen Strom und Feature-Optimierung betreiben. Und schon siehts ganz toll in der Simulation aus.

Nur praktikabel anwendbar isses halt trotzdem nicht.
 
Noch nicht einmal ein tape out, aber große Töne spucken. Die anderen Hersteller scheinen ja komplett unfähig zu sein wenn man diesen CPU-startups Glauben schenkt. Hat da nicht dieser Tage schon mal jemand so rumposaunt? We will see.
 
Conqi schrieb:
Meine Vermutung: damit ist gemeint wie viel mehr der CPU-Kern gegenüber dem Idle-Zustand aufnimmt. Wenn der Kern im idle also beispielhaft 0,5W aufnimmt und unter Volllast dann 4W, hat man 3,5W idle-normalized power.
Damit steht potentiell die Möglichkeit im Raum, dass ihr Idle-Verbrauch sehr hoch ist oder das ganze drumherum, das eine CPU neben den einzelnen Kernen noch hat, sehr ineffizient ist, aber ich würde es trotzdem als faireren Vergleich sehen, wenn es nur um die Effizienz ihrer CPU-Kerne geht.
Ich nehme an, das ist eine sehr gute Vermutung, es paßte auch zu den Veröffentlichungen von AnandTech über die Verbräuche verschiedener SoCs und CPUs bei einem Spec2006-Lauf. Die angegebenen Kurven der 'Wettbewerber' sehen recht realistisch aus. Hier zum Vergleich die Kurve vom A12-Vortex-Core von AnandTech:
Apple_A12_Vortex.jpg

Der Extrapunkt auf der blauen Linie markiert die 2,325 GHz, mit denen die Vortex-Kerne im A12X getaktet werden, wenn sie alle zusammen laufen. Sie verbrauchen dann ca. 7,5W.

Conqi schrieb:
Insbesondere wenn es vermutlich noch keine annähernd finalisierte CPU gibt.
Selbstverständlich nicht, die Firma existiert erst seit Frühjahr 2019. der Mitbegründer Gerard Williams war der ARM-Chefentwickler bei Apple. Er hatte Apple verlassen, weil Apple kein Interesse daran hatte, mit einer eigenen CPU den Servermarkt aufzumischen.

Conqi schrieb:
Die Grafik ist trotzdem lächerlich, wenn ihre eigenen Erwartungen noch zwischen 1600 und 2300 Punkten schwanken. Das ist keine Unsicherheit, das ist reines Wunschdenken und hoffen.
Die Entwicklung der CPU wird noch so lange dauern, daß sie eventuell bereits in N3 hergestellt werden könnte. Nimm die 2300 als Obergrenze für diesen Fall, die 1600 als Untergrenze für in eine Realisierung in N5.

Kacha schrieb:
Der Vergleich mit x86_64 ist aber immer wieder unpraktisch, da diese Architektur ganz andere Vorteile hat. Einer davon ist schlicht die Kompatibilitaet.
Das ist der einzige Vorteil, den diese Architektur noch bietet und der ihr Überleben bis heute gesichert hat und auch weiterhin sichern wird.

pipip schrieb:
Kurze Frage, vllt auch für die News selbst interessant. Wir sprechen hier von einer ARM Arch. oder ?
Denn ich glaube NUVIA wollte auch etwas auf RISC-V Basis machen oder ?
Die Gründer sind mit die Besten, die es in Sachen ARM-Architektur z.Z. gibt und RISC-V ist ganz weit weg von irgendwas Performantem. Es wäre also eher überraschend.

deineMudda schrieb:
Kann mir das mal bitte jemand erklären?
Er glaubt, wenn man nur ganz dolle hinguckt, werden x86-Prozessoren auf wundersame Weise viel effizienter.

Chismon schrieb:
Es sind wohl schon Geruechte im Umlauf, dass Intel ein gesteigertes Interesse an (einer Uebernahme von) Nuvia haben koennte, zumal deren Xe GPUs wohl scheinbar hinter den eigenen Erwartungen (insbesondere von der Effizienz/dem Verbrauch her) zurueck liegen sollen, so dass evt. Nuvia Know-How da evt. eine schnelle Anpassung/Umstellung ermoeglichen koennte.
Es gibt keine schnellen Anpassungen/Umstellungen im Chip-Design. Jedes Gerücht, das mit sowas ankommt, zeigt nur, daß der Gerüchteverbreiter aber auch nicht die geringste Ahnung hat.
Balikon schrieb:
Oh, die wissen jetzt schon, wie stark Apple Silicon wird?
Wenn man bis April 2019 der ARM-Chefentwickler von Apple war, dann hat man ganz Gewiß eine ziemlich gute Vorstellung davon, zu was zumindest Apples A14, A15 und A16 zu leisten in der Lage sein werden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: new Account() und Teralios
NDschambar schrieb:
Ach ja, Geekbench mal wieder. Wo der A12X schneller als ein i7-H ist...
Man muss den Geekbench nur lesen können um seine Ergebnisse zu verstehen.

Geekbench zeigt relativ gut was eine CPU- oder eben eine GPU-Architektur leisten kann, wenn die Problem teilweise nicht vom L2/L3-Cache und vollständig vom RAM unabhängig sind.

Das ist nicht realistisch, aber es zeigt auf, dass moderne ARM-Designs mit den passenden Erweiterungen wie NEON, SVE und neuere „TPU" genau so Leistungsfähig sind, wie entsprechend moderne x86-Designs.

Gleichzeitig zeigt es aber dann auch, dass die reine CPU nicht alles ist, sondern dass die Infrastruktur auch massiven Einfluss hat und zeigt wie wichtig schnelle und gut angebundene Caches sind und ebenso wie wichtig die Anbindung von RAM als auch anderen Erweiterungen sein kann, wenn dann wegen fehlender Infrastruktur dem ARM die Puste ausgehf.
 
Teralios schrieb:
Man muss den Geekbench nur lesen können um seine Ergebnisse zu verstehen.
Du willst doch nicht etwa den eetimes-Leuten Lese-Imkompetenz unterstellen? Wo sie doch nur unfähig zur Analyse sind.... :D

Teralios schrieb:
Gleichzeitig zeigt es aber dann auch, dass die reine CPU nicht alles ist, sondern dass die Infrastruktur auch massiven Einfluss hat und zeigt wie wichtig schnelle und gut angebundene Caches sind und ebenso wie wichtig die Anbindung von RAM als auch anderen Erweiterungen sein kann, wenn dann wegen fehlender Infrastruktur dem ARM die Puste ausgehf.

Dann nehmen wir doch Linus Thorvalds' Lieblingstest aus Specint2006: 403.gcc (das ist der, den er in seiner liebenswürdigen Art nicht Sch...e findet, um genau zu sein ;) ).
34,3 - A11 (2,4 GHz)
44,6 - A12 (2,5 GHz)
55,4 - A13 (2,7 GHz)
57,3 - Ryzen 3900X (4,6 GHz)
52,3 - i7-1065G7 (3,9 GHz)
59,5 - i9-9900K (5,0 GHz)
Dieser Subtest läuft bspw. auf dem A12 ungefähr 3 Minuten lang und der Vortex-Core verarbeitet dabei 1,05 Billionen Instruktionen. Und Teufel noch eins, ihm will einfach nicht die Puste ausgehen...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: LipsiaV
Herdware schrieb:
-Unnötiges Komplettzitat entfernt-

Klar, es ist schwer, das streitet keiner ab. Aber wie war das mit dem SSD Controller...

Dass die aufgekauft werden ist wahrscheinlich, aber das schliesst ja nicht aus, dass sie es koennen.

cookie_dent schrieb:
-Unnötiges Komplettzitat entfernt-

Im Endeffekt das, plus es gibt immer noch genug das man mit der Architektur anfangen kann.

smalM schrieb:
Das ist der einzige Vorteil, den diese Architektur noch bietet und der ihr Überleben bis heute gesichert hat und auch weiterhin sichern wird.

Und da x86_64 nur noch der Decoder ist wird das auch noch lange so bleiben. Mal abgesehen davon, dass die zusaetzlichen Befehlssaetze auch noch ein schoener Vorteil sind. Deswegen verstehe ich auch nicht den Hype um ARM. Sollen die Prozessoren das gleiche leisten, dann heben die sich null ab. Wuerde man eine dermassen abgespeckte x86_64 CPU liefern waere die im gleichen Bereich wie ARM jetzt. Aber was hilft das?
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Marflowah schrieb:
Ich finde es generell fragwürdig, diese Art von CPUs mit den x86er CPUs zu vergleichen.
Das ist wie bei Äpfel und Birnen: Das ist beides Obst und hat Kerne. Das war's dann aber auch schon mit den Gemeinsamkeiten.

Inwiewern war es dass mit den Gemeinsamkeiten ?

Bei beiden Archs, wird intern eh alles auf Micro Ops runtergebrochen. Mir würde spontan pro X86 noch einfallen, dass Neon nur bis 128 Bit macht und man ansonsten auf proprietäre Erweiterungen setzen muss. Dafür hat man auf der anderen Seite weniger Altlasten (RISC V ist ja eh ziemlich neu und bei ARM ist alles unter v8 fallen gelassen worden) und der Decoder braucht weniger Komplexität für die selbe Breite.

Der Rest ist halt das Resultat aus dem Einsatzzweck und den spezifischen Anforderungen für die konkreten Umsetzungen.

Oder fällt dir ein Fundamentaler Grund ein, der ARM oder RISC-V da limitieren sollte ?
 
Kacha schrieb:
Und da x86_64 nur noch der Decoder ist
Das wird gerne kolportiert, aber das ist nur die halbe Wahrheit. Das enge Programmiermodell und die Umsetzung von CISC-Ops auf die µOps erzeugt einen ganzen Haufen Probleme, denen nur mit hohem Aufwand beizukommen ist und sind ein Hauptgrund, wieso x86 über die Jahre so wenig in die Breite entwickelt wurde; und natürlich wieso x86 nie so effizient sein wird wie ARM.

Kacha schrieb:
Sollen die Prozessoren das gleiche leisten, dann heben die sich null ab. Wuerde man eine dermassen abgespeckte x86_64 CPU liefern waere die im gleichen Bereich wie ARM jetzt.
Auch das wird gerne kolportiert und wird dadurch nicht wahrer. Wenn x86-CPUs so weit runtergefahren werden, daß sie im selben Verbrauchsbereich wie ARM-CPUs liegen, leisten sie auch sehr viel weniger.

PS:
Wie schon mal gesagt, die hier dargestellten Watt-Kurven sind durchaus realistisch, ARM ist schlicht so viel effizienter als x86. Keine Ahnung woher diese ganze Realitätsverweigerung eigentlich her kommt.
Andrei von AnandTech dazu: "The ignorance & stupidity is flabbergasting." Die 'stupidity' hätte ich jetzt nicht von mir gegeben, aber 'ignorance' kann man getrost stehen lassen...
 
  • Gefällt mir
Reaktionen: Miuwa, cruse und new Account()
Die Hauptkritik geht ja nicht gegen ARM. ARM hat sicher seien stärken und schwächen wie alles im Leben. Und ja, x86 sieht dagegen langfristig nicht gut aus. Aber ARM sitzt auch trotz allem in der Nische fest, eben weil die x86 Infrastruktur um welten weiter entwickelt ist. Selbst innerhalb der x86 Welt ist das ja ein gern gebrachtes Argument gegen AMD und Linux. Und genau den weg wird ARM schon erstmal gehen müssen. Als Server CPU ja, als ultra mobile ja. Aber im PC Laptop und in der Workstation sehe ich auch noch lange kein ARM. Eben genausowenig wie Linux sich da durchgesetzt hat. ---> Die Vorteile sind da, die Nachteile überwiegen aber.

Die Hauptkritik vieler hier geht aber doch gegen diese völlig bizarre Investorenverarsche die Nuvia hier abzieht. Ich hab gerade auch eine µArch entworfen und simuliert und zieht Euch das mal rein!

1597254271494.png


Wer will mit investieren?
 
Zuletzt bearbeitet:
@Ned Flanders Sorry, auch wenn dein Balken etwas länger und steiler steht, ist Nuvias Balken einfach dicker. Darauf stehen Investoren :evillol:.
 
  • Gefällt mir
Reaktionen: Ned Flanders
Axxid schrieb:
Wenn dann endlich die Wunderakkus mit den WunderCPUs und den Wunderdisplays mit den Wunderspeichern in dem Gehaeuse aus Wundersmaterialien steckt und man sich mit dem Wundernetz vebunden hat....

Kann nur noch ein paar Jahre dauern. News dazu gibt es ja regelmaessig.
Selbst wenn es das alles geben sollte, würde es eh nie sofort auf den Markt kommen, sondern in kleinen Portionen veröffentlicht werden. Sprunghafter Fortschritt ist nicht im Sinne des Kapitalismus.
 
  • Gefällt mir
Reaktionen: GameOC
  • Gefällt mir
Reaktionen: nr-Thunder
Das erinnert an die unendliche Wäscheleine des „Weißen Riesen“ und weiter gar nichts.
 
Bin gespannt.

Apple strapaziert seine Nutzer ja wieder mal mit einem Architektur-Umstieg auf ihren Macs.
Allerdings glaube ich, dass sie damit auf lange Sicht vermutlich sehr gut fahren.

Erleben wir vielleicht sogar bald das Ende von x86?
Jaja ... die leisten im Moment noch viel mehr. Die Frage ist, wozu und wie lange das so bleibt.
1) Der weltweit stärkste Super-Computer ist bereits ARM basiert ... das scheint also auch für CFD und ähnliche Profi-Anwendungen valide zu sein.
2) Games? Auch die laufen auf aktuellen High End Mobile Geräten immer besser ... wobei hier natürlich noch ein großer Abstand zu HighEnd-PC-Gaming besteht. Die Frage ist, ob der verschwindet, sobald man einen HighEnd-Desktop-PC-Arm-Prozessor bringt.
3) Office, Audio, Video und Bildbearbeitung? Kommt immer mehr auf dem Tablet ... Performance ist da schon lange kein Hinderniss mehr.
 
Zurück
Oben