News Grace: Nvidias erste CPU auf ARM-Basis erscheint 2023

DFFVB schrieb:
Das wird ne spannende Kiste, nachdem Apple mit M1 gerade gezeigt hat
Mhh nicht wirklich. Man muss hier ganz klar unterscheiden. Apple richtet sich mit dem M1 direkt an Endkunden, Nvidia nicht. Du wirst unter deinem Tisch keinen Nvidia Gameing-PC stehen haben. Viellleicht zum streamen, weil Nvidia dir das so verkaufen möchte ;) Dazu kommt noch das Problem mit Windows und das ich dann doch auch meine "alten" Games zocken möchte.
 

Beteigeuze.@ ich weiß nicht ob ich gemeint bin aber in den letzten Jahren habe ich mit dem gearbeitet was der Markt so Angeboten hat eben halt ein X86 und deren GPU´s ich habe viel gebastelt und Betriebsysteme Ausprobiert wir User werden immer mehr dahin gehend missbraucht und Geldmäßig abgemolken und entrechtet zu werden. Ich denke das so wir werden irgendwann sowas wie eine Konsole haben auf dem Steht "PC" wir werden ein Betriebsystem haben auf dem steht du bist nicht Eigentümer und Programme und Spiele gibt es nur noch in einer Wolke und du darft drum Bitten diese gegen GELD zu benutzen, die einzigen die das Nützt sind eine Handvoll Unternehmer Hinter den NVIDIA UND AMD Sowie Intel stehen wird. Vielleicht wird es noch ein paar weitere Unternehmen geben die Heute Gummistiefel herstellen oder Gummibärchen Produzieren ich weiß es nicht aber es wird so sein das der Computer so wie wir ihn Heute kennen nicht mehr geben wird...​

 
Intel macht jetzt GPUs, NVIDIA macht jetzt CPUs.
Was ist denn auf einmal los ? :lol:
 
Was die Rückständigkeit der x86-CPUs für bestimmte Einsatzfälle angeht, bin ich ziemlich sicher, dass das weniger an grundsätzlichen Schwächen der Architektur liegt.

Der Hauptgrund dürfte sein, dass sich jeder mit genug Know How sein eigenes, für seine speziellen Bedürfnisse maßgeschneidertes ARM-SoC zusammenstellen kann. Mit genau den Funktionen, die man braucht, und Stärken an genau den Stellen, auf die es ankommt. Z.B. jetzt Nvidia mit Fokus auf die optimale Anbindung von (GP)GPUs.

Bei x86 ist man in den allermeisten Fällen darauf angewiesen, etwas "von der Stange" zu kaufen. Wohl grob auf bestimmte Marktsegmente zugeschnitten, aber weit weg von der Spezialisierung, die man bei selbstentwickelten ARM-SoCs erreichen kann.
(Wenige Ausnahmen bestätigen die Regel, wie z.B. die x86-SoCs in Playstation und XBox, die wegen der enormen Stückzahlen möglich sind.)

Sowohl AMD als auch Intel hatten es sich in der Vergangenheit immer wieder mal auf die Fahnen geschrieben, zusammen mit den Kunden maßgeschneiderte Lösungen zu entwickeln und zu produzieren, aber an irgendwelchen Dingen scheint das meist gescheitert zu sein. (Z.B. habe ich neulich gelesen, dass es externen Entwicklern wohl schwer fiel, mit den hauseigenen Entwicklungstools und Schnittstellen von Intel zurecht zu kommen.)
 
  • Gefällt mir
Reaktionen: paul.muad.dib, USB-Kabeljau und Zibbe
LäuftBesser2000 schrieb:
AMD und Intel werden eh auf kurz oder lang die x86 Architektur verlassen müssen, wenn alle nur noch auf Arm setzen. Der Schritt ermöglicht ein komplett neues Entwickler Portfolio und vor aller dingen eine breitflächige Kompatibilität von Plattformen.
Über Kurz oder Lang wird man bei x86 sicherlich was machen müssen, die Frage ist nur: Schwenk auf ARM, oder abschneiden alter Zöpfe? Man könnte ja auch eine reine x64 Architektur planen, welche x86 nur noch emulieren kann und alle uralten Chipteile über Bord wirft. Das ist ja mit ein Vorteil von ARM, dass man sehr schlanke Kerne ohne legacy Ballast hat.
 
Beteigeuze. schrieb:
aus dem Stand herraus? Was hast du die letzten 10 Jahre gemacht?

1- Du willst sagen, Apple hat zehn Jahre am M1 gearbeitet? 2- man kann aus dem Stand auch mit dem ersten Wurf gleichsetzen, und der ist ja scheinbar gelungen.

Lord_X schrieb:
Apple richtet sich mit dem M1 direkt an Endkunden, Nvidia nicht.

Noch nicht- ich bin mir sicher, dass da noch was kommt, und sei es eine Shield auf Steroiden.
 
Herdware@ Auch weiß ich nicht ob es schwer fällt aber es liegt wohl am Willen die eigenen Interressen nicht zu Verbiegen. Beim X86 CPU ist schon so alt das ein jeder seine Programme schreiben kann und genau das ist so manchen Konzern ein Dorn im Auge man möchte gerne eine CPU haben in der nicht ein jeder Rechte hat das zu Programieren was er will, Patente und Schutz ist zwar auf der einen Seite gut aber hat aber auch den Nachteil das die Freiheiten enden
 
Oberst08 schrieb:
Man könnte ja auch eine reine x64 Architektur planen, welche x86 nur noch emulieren kann und alle uralten Chipteile über Bord wirft.

Das ist schon Mitte der 90er passiert, mit dem Pentium Pro.
Seit dem arbeiten alle modernen x86-CPUs intern mit schlanken Micro Operations, also quasi wie RISC-CPUs ala ARM. Die x86-Kompatibilität wird nur noch über einen vorgeschalteten Befehlsdecoder erreicht.
 
  • Gefällt mir
Reaktionen: McFritte und Oberst08
Zibbe schrieb:
ich weiß es nicht aber es wird so sein das der Computer so wie wir ihn Heute kennen nicht mehr geben wird...

Dauerfett ist ja noch schlimmer als Feststelltasteneinraster. :evillol:


Wenn ich in 20 Jahren immer noch so einen doofen Kasten unter meinem Schreibtisch stehen habe, bin ich aber auch mehr als enttäuscht.

Natürlich gehört "Rechenleistung" in die Cloud und das System Miete ist nun einmal für 80+% aller Menschen von Vorteil.

Ganz sicher, ist "der PC" aber in 20 oder 30 Jahren nicht mehr als Objekt zur Erhöhung des Selbstwertgefühls zu gebrauchen. Die Zeiten sind heute schon mehr oder weniger vorbei.

mfg
 
  • Gefällt mir
Reaktionen: edenjung
  • Gefällt mir
Reaktionen: Mike-o2
Da frag ich mich wohin die Reise von Intel geht.
Ergänzung ()

[wege]mini schrieb:
Dauerfett ist ja noch schlimmer als Feststelltasteneinraster. :evillol:


Wenn ich in 20 Jahren immer noch so einen doofen Kasten unter meinem Schreibtisch stehen habe, bin ich aber auch mehr als enttäuscht.

Natürlich gehört "Rechenleistung" in die Cloud und das System Miete ist nun einmal für 80+% aller Menschen von Vorteil.

Ganz sicher, ist "der PC" aber in 20 oder 30 Jahren nicht mehr als Objekt zur Erhöhung des Selbstwertgefühls zu gebrauchen. Die Zeiten sind heute schon mehr oder weniger vorbei.

mfg
Dauerfett ist nie gut :)
 
  • Gefällt mir
Reaktionen: paul.muad.dib
ridgero schrieb:
Dauerfett ist nie gut :)

Na ja, mit BMI > 30 ist man zumindest bei der Impfung ganz vorne dran... :rolleyes:
Finde ich ganz Klasse, dass man quasi bestraft wird, wenn man Sport macht und sich gesund ernährt, aber das ist jetzt zu viel OT.
 
Gibt es nun eigentlich einen unterschied zwischen Multi-GPU-Chip oder eine Chiplet-GPU? Das meherere GPU Chips als eine Einheit agieren scheint ja derzeit ausgeschlossen.

Ist das nicht eigentlich genau das, was AMD vor 2 Wochen als Patent angemeldet hat/wollte?

Die bisherigen Versuche mit MCM-Designs im GPU-Bereich zeigten, dass die Latenzen zwischen den Chiplets viel zu hoch waren. Darüber hinaus hatte man Schwierigkeiten mit den Programmiermodellen, da die parallele Aufgabenverteilung deutlich schwieriger zu handhaben war. AMD will diese Probleme jetzt mit passiven Crosslinks zwischen den einzelnen Chiplets und den anderen Systemkomponenten lösen.

So soll jedes GPU-Chiplet direkt mit der CPU kommunizieren können. Es bekommt darüber hinaus auch seinen eigenen Cache. Im Grunde läuft das Design dann darauf hinaus, dass die Grafikkarte nach außen nicht als System mit einer GPU auftritt, sondern man quasi eine Rechner-Architektur mit mehreren Grafikchips erhält, die unabhängig voneinander direkt angesteuert werden können.
 
DFFVB schrieb:
1- Du willst sagen, Apple hat zehn Jahre am M1 gearbeitet?
Nein wie kommst du darauf?
Nach dieser Logik würde AMD schon seit zwanzig Jahren und mehr an ZEN3 arbeiten..
DFFVB schrieb:
2- man kann aus dem Stand auch mit dem ersten Wurf gleichsetzen, und der ist ja scheinbar gelungen
Apple arbeitet seit vielen Jahren an ARM Prozessoren also kann nicht von aus dem Stand die Rede sein im Gegenteil.
 
  • Gefällt mir
Reaktionen: Darkseth88 und Mike-o2
[wege]mini schrieb:
Natürlich gehört "Rechenleistung" in die Cloud und das System Miete ist nun einmal für 80+% aller Menschen von Vorteil.

Ich sehe keinen Vorteil für mich, alles an meiner Rechenleistung extern auszulagern, monatlich blechen zu müssen und von der gerne auch von Abbrüchen geplagten Internetleitung abhängen zu müssen. Was für Südkorea noch irgendwie gelten kann, ist ja bei weitem nicht auch in Deutschland so, durch die im Vergleich leider hinkende Infastruktur.

[wege]mini schrieb:
Ganz sicher, ist "der PC" aber in 20 oder 30 Jahren nicht mehr als Objekt zur Erhöhung des Selbstwertgefühls zu gebrauchen. Die Zeiten sind heute schon mehr oder weniger vorbei.

Wenn du damit meinst dass ein PC nicht mehr frei konfigurierbar und die internen Komponenten nicht mehr getauscht werden können dann ist es auch kein "Personal Computer" mehr.
Für Erhöhung vom Selbstwertgefühl, wenn man's braucht eignen sich heute andere Sachen viel besser, wie z.B. ein fetter Porsche. ;)
Wo übrigens von Technikmagazinen noch vor 50-60 Jahren auch prophezeit wurde, die bodenfahrenden Autos würden verschwinden und im Jahre 2000 sind wir mit fliegenden Autos und Luftschiffen unterwegs.
 
Zuletzt bearbeitet:
Grundlegend bin ich da bei NV, für Spezialbereiche wo ich das System exakt so designen kann wie notwendig, wird es sicherlich einen Markt geben. Aber sobald auch nur ein Hauch Flebilität gebraucht wird oder doch wieder viel CPU Leistung ist man wieder bei x86.
 
Volker schrieb:
Ja wir können alle Korinthen kacken, aber Samsung nennt bisher auch keiner CPU Hersteller auch wenn sie Exynos seit Jahren bauen.
Falls das ein Argument sein soll so ist mir der Sinn entgangen. Denn die (vorerst: gefühlte) Falschaussage war ja nicht das NVIDIA nun zum erstenmal als CPU-Hersteller bezeichnet würde.

Volker schrieb:
Sind halt alles schön schwammige Begriffe. Ryzen, also Vermeer, ist für mich kein SoC sondern CPU.

Soweit Deine Sichtweise. Aber warum willst Du das so sehen? Wie sich beim A300-"Chipsatz", der in Wirklichkeit nichts anderes war als ein Platzhalter, gezeigt hat läuft Ryzen auch ohne einen externen Chipsatz. Was würde denn da Deiner Meinung nach noch zu einem SoC fehlen?
Ergänzung ()

Balikon schrieb:
Nach Apple wäre Nvidia die vierte Partei, die den Ring betritt.
Nach welchem Kriterium? Hersteller von ARM-CPUs gibt es sicher mehr als vier.
Hersteller von ARM-Server-CPUs? Marvell, Microsoft, Amazon? Ampere? Nuvia?
Hersteller von Server-CPUs? Die von ARM und x86 und zusätzlich noch IBM Power? Sun UltraSparc?
Hersteller von High-Performance-CPUs? Zusätzlich noch ein paar Vector-CPUs.
Ach ja, die Chinesen nicht zu vergessen, mit x86, ARM und MIPS...

Selbst wenn man den verbrecherischen Verbreitern gefakter Hardwarekennzahlen und angeblich lauffähiger aus Holz geschnitzter Vorführmodelle abnimmt dass diese kommende CPU leistungsstark wird - sie starten trotzdem erstmal unter "ferner liefen".
Ob sie sich von dort aus dann einen PLatz auf den vorderen Rängen erarbeiten wird man sehen.
Die älteren unter uns werden sich noch an den Hype um die Tegras erinnern. <lol>
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Balikon
Zurück
Oben