News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?

@Gordon-1979
Es gibt den Fertig-PC-Markt. Wie viel Prozent aller Menschen überhaupt stecken sich selbst einen Rechner zusammen?
 
Zuletzt bearbeitet: (Erwähnung wegen neuer Seite)
Im CPU Bereich ist der Break-even-point, also wo der normale User eigentlich nicht mehr Leistung braucht als im Einstiegs-Bereich geboten wird, längst überschritten. Für Office uns Surfen ausreichend.

Wenn die GPU nachzieht und durchschnittliche Spiele im Einstiegs-Bereich möglich sind, ist die Sachen gegessen.

Dann braucht es nur noch SOCs mit allem, Apple macht es vor. x64 wird von etlichen ARM SOCs Anbietern vom Markt geschoben, es sei denn ARM versaut es mit den Lizenzen und alles wird RISC-V. Allgemein aber deutlich mehr Hersteller.

Die CPU wird durch weitere Beschleuniger auch weniger wichtig, klar aber auf "mobile first". Zumindest für Heimanwender.

10Ghz? Eher nicht. Big-little? Durchaus noch möglich. Verlötet? Wahrscheinlich, außer im Serverbereich. RAM? Direkt an der SOC für CPU und GPU und AI usw...

Im Grunde stopft man den PC von heute auf ein SOC und gut ist.
 
Diesen Vortrag von Jim Keller wollte ich hier noch verlinken, hatte ich vergessen... die wirklich interessanten Dinge fangen ab Minute 8 an.

 
  • Gefällt mir
Reaktionen: tidus1979, DeadMan666 und Dome87
Ich vermute mal die Zukunft wird dahin gehen dass die Leute zuhause nur noch einen Client mit wenig Leistung haben, dessen einzige Aufgabe es ist, sich mit einem Rechenzentrum zu verbinden.
Und beim Rechenzentrum kauft man sich dann die Rechen- und Grafikleistung die man haben will für einen bestimmten monatlichen Betrag. Das Rechenzentrum macht die Arbeit und streamt dann die Ergebnisse auf den Client.
Könnte mir vorstellen dass es dann verschiedene Tarife gibt je nachdem wieviel CPU und GPU Leistung man so braucht.
Und was die Daten angeht, die meisten werden die wohl dann auch in die Cloud auslagern, aber einige werden sicher auchnoch HDDs/SSDs/Kristallspeicher/WasAuchImmer an die Clients anschliessen.

Was dann wichtig wird damit das ganze gescheit funktioniert ist eine möglichst schnelle Internetverbindung.
 
spannendes Thema, solche Diskussionen wünsche ich mir hier :daumen:
Faust2011 schrieb:
In der aktuellen c't (lag gestern im Briefkasten) ist gerade ein Artikel aus der Rubrik Wissen drin: Superschnelle optische Computerchips. Sehr interessant zu lesen :)
Hei wow, das dürfte ja letztes Mal vor 15Jahren gewesen sein wo ich in einer Zeitschrift von Photo-Prozessor gelesen habe.
Licht ist schneller und wird nicht warm, macht kein Lärm.
Nie etwas umgesetzt!
 
Der Takt wird bestimmt noch gesteigert werden. 10Ghz mit dieser Technik für jedermann wird es wohl nicht geben. Eher 16-32 Kerne für den Mainstream. Das größte Problem ist eher die Software. Meiner Ansicht nach könnten die CPU´s (und auch GPU´s) mehr leisten, wenn die Programme, Treiber und Co. besser wären. Die Verlustleistung ist bei vielen Dingen schon sehr hoch.
 
  • Gefällt mir
Reaktionen: angband1 und Dome87
Ich sehe die Zukunft eher in einer Konvergenz von CPUs/APUs die entsprechende SoCs hervorbringt.
Ich denke, daß die Zukunft nicht nur mehr CPUs/APUs für Laptops bringen wird, sondern noch etwas weiter gehen wird: SoCs, die sowohl im Smartphone gut funktionieren können, und dann eben auch als "plug-in" zumindest den Business Laptop ersetzen können. Samsung hatte ja mit Dex schonmal gezeigt, daß sowas eigentlich funktionieren könnte, und waren da ja noch nicht einmal die ersten. Leider hat Microsoft für Windows zumindest im Moment Qualcomm Exklusivität für Windows-on-ARM gegeben, und QC scheint hier solchen Konzepten wie Dex eher ablehnend gegenüber zu stehen; die verkaufen auch lieber mehrere SoCs als nur eins. Früchtemäßig: Apples SoCs, zumindest in den großen iPhones (die genug RAM haben), wären schon heute mehr als fähig, MacOS zu betreiben, Compute Leistung (CPU und GPU) ist genug da. Natürlich wird das erst Mal nicht passieren, denn Apple verkauft ihren Kunden gerne iPhones, iPads und Macs; QC und Windows lassen grüßen. Wie wir ja wissen, hat Apple sich auch bis heute geweigert, selbst den großen (M SoC) iPad Pros dual Boot zu erlauben, und die könnten das locker stemmen.
Ich denke aber doch, daß sich solche Konzepte mit entsprechenden CPUs/APUs durchsetzen werden; die Architektur dieser CPUs wird dabei eben noch mehr für einen sehr weiten TDP Bereich ausgelegt sein, damit man sowohl mit dem Smartphone 2-3 Tage unterwegs sein kann, und dann aber im Dock auch mehr dauernd um und über 10 W/h ziehen kann und darf.
 
Die Zukunft der CPU ist eh egal, da man/frau sich eh die GPU nicht leisten kann ^^
 
Hmm Ryzen 8950X3D-32C/64T mit 2x64MB Dual 3D Cache auf X760 und 4 Channel DDR5-10000
P Cores NEIN DANKE!
GPU wieder mit HBM.

mfg
 
Ich würde mir auch gerne mehr gigahertz wünschen, aber solo viel tut sich da leider nicht mehr.

Ich glaube bei 5ghz schafft elektrische Spannung mit Lichtgeschwindigkeit etwa einen Unterarm an Strecke. Bei 10 ghz wäre es nur noch die Hälfte.
 
Die Steigerung der Ghz wird hoffentlich nicht kommen dafür RISC-V oder OpenPower die mit Hilfe einer offenen GPU kein Chaos wie derzeit bei ARM verursachen.
 
  • Gefällt mir
Reaktionen: Dome87
dualcore_nooby schrieb:
mehr als 7GHz scheint wohl eher schwierig zu werden. Mehr Kerne und höhere IPC sind aber sicher.
Da geht noch mehr. Mit anderen Materialien lassen sich weitaus höhere Taktfrequenzen erreichen.
 
  • Gefällt mir
Reaktionen: Dome87
24733783-buzzfeed-de-PmBG.jpg

1GB 5Zoll HDD, ownt alles 🤛
:D
 
  • Gefällt mir
Reaktionen: Dome87 und eastcoast_pete
8MB Arbeitsspeicher. Da lächelt der Cache im 5800X3D nur müde drüber :p
 
  • Gefällt mir
Reaktionen: Coeckchen
Ich glaube, dass das Thema Energieeffizienz und Gesamtstromverbrauch der PCs eine größere Rolle spielen wird. Nicht nur wegen gestiegener Strompreise, sondern auch im Sinne des Umweltschutzes bzw. wegen der globalen Klimaerwärmung.

Daher wäre es sinnvoll, dass es wieder Prozessoren mit weniger als 35 Watt TDP im x86-Bereich gibt. Auch eine hybride Lösung mit ARM wäre für mich denkbar.
 
  • Gefällt mir
Reaktionen: Dome87
Meine Glaskugel:

Die Parallelisierung von Aufgaben wird zunehmen durch kluges Chip- und Softwaredesign. Da steckt viel Potential für Leistungssteigerungen.

Insgesamt wird die Bedeutung der CPU abnehmen, da das "Heavy Lifting" in vielen Bereichen von spezialisierten Chips übernommen werden wird. AI- und Neuronetwork-Prozessoren, Chips für Ver- und Entschlüsselung, De- und Encoding, DSPs für Bild-, Ton- und Datenverarbeitung.
 
St3ppenWoLF schrieb:
DaS kÖnNeN wIr UnS nIcHt LeIsTeN!!11!
Genau das ist das Problem. Und die Hardwareindustrie verdient kein Geld daran, wenn die Software optimiert ist und dadurch weniger Hardware kostet.
 
Dome87 schrieb:
@q3fuba

Naja, die CPUs haben ca. 4x mehr Kerne (bezahlbar im "Mainstream") und sind 4x kleiner. Der Takt wurde immerhin verdoppelt. Und man darf nicht vergessen, dass der Takt nach dem GHz-Rennen am Ende der "Netburst-Ära" erstmal wieder abgesenkt wurde. Auch die ersten Phenom takteten relativ niedrig.
Naja, bezahlbar im "Mainstream" ist recht einfach wenn die Fabriken um ein VIELFACHES mehr produzieren, die Maschinen um ein VIEFACHES kleiner produzieren können UND es zusätzlich VIEL mehr Abnehmer gibt als vor 15 Jahren.

Daher, wenig bis kein Fortschritt im Sinne von "was neues erfinden/erschaffen", vor allem nicht im Mainstream!
Es ist einfach wieder nur "optimieren von schon vorhandenen dingen" und das ist für mich kein Fortschritt und schon gar kein "Durchbruch" wie es oft bezeichnet wird und rechtfertigt somit nicht die Preise!
 
Nordwind2000 schrieb:
Und die Hardwareindustrie verdient kein Geld daran, wenn die Software optimiert ist und dadurch weniger Hardware kostet.
Was aber im Hinblick auf Ressourcenverschwendung usw. vollkommener Schwachfug ist :freak:
Ich sehe schon, wir sind eigentlich der selben Meinung in dieser Angelegenheit ^^
 
  • Gefällt mir
Reaktionen: Nordwind2000
Zurück
Oben