Eure Meinung ĂŒber CPUs und deren Technik in 15 Jahren?

Ich denke, in 15 Jahren werden CPUs vermutlich...

  • ...mit 8 oder mehr GHz takten

    Stimmen: 185 31,1%
  • ...herstellerĂŒbergreifend 16+ "P"-Cores haben

    Stimmen: 271 45,5%
  • ...iGPUs haben, die fĂŒr AAA-Titel ausreichen

    Stimmen: 87 14,6%
  • ...fast ausschließlich eine Art "V-Cache" haben

    Stimmen: 281 47,2%
  • ...deutlich sparsamer sein

    Stimmen: 238 40,0%
  • ...mehr Strom brauchen, um mehr Leistung zu erzeugen

    Stimmen: 137 23,0%
  • ...ausnahmslos nach dem big.LITTLE-Prinzip funktionieren

    Stimmen: 211 35,5%
  • ...durch neue Architekturen wieder niedriger takten

    Stimmen: 154 25,9%
  • ...durch eine völlig neue Technik ersetzt

    Stimmen: 133 22,4%
  • ...immer fest mit dem Mainboard verlötet sein

    Stimmen: 40 6,7%
  • ...im Desktop nicht mehr auf x86 basieren

    Stimmen: 189 31,8%
  • ...von mehr Herstellern als Intel, AMD (und Apple) angeboten

    Stimmen: 144 24,2%
  • ...keine große Bedeutung mehr in Desktop-PCs haben

    Stimmen: 68 11,4%

  • Umfrageteilnehmer
    595
In 15 Jahren gibts Quanten-Computer im handlichen Format đŸ„ł
 
  • GefĂ€llt mir
Reaktionen: Dome87
theGucky schrieb:
In 15 Jahren gibt es sicherlich keine Desktop-PCs mehr.
Blödsinn, den Desktop-PC wird es in 15 Jahren immer noch geben. In welcher Form hÀngt von zu vielen Faktoren ab um eine Voraussage/Prognose abgeben zu können.
 
andr_gin schrieb:
Ich denke, dass alles NICHT zutreffen wird, kann aber nicht abstimmen. Deswegen hier die Antwort und BegrĂŒndung wieseo:
  • Ich denke jedoch, dass langfristig der RAM auf das CPU Package wandern wird.
Ich kann mich da Allem anschliessen ausser der Zitierten Aussage, da glaube ich eher das es einen Teil des RAM auf dem CPU Package geben wird und der Rest nachrĂŒstbar im klassischem Sinne sein wird.
 
  • GefĂ€llt mir
Reaktionen: Dome87
Nachdem eine KI die Macht ĂŒbernimmt und die großen LĂ€nder gegeneinander ausspielt, beginnt der Atomkrieg. CPU*s werden dann nur noch in den Terminatoren verbaut. CP wird dann ĂŒbernommen von den Maschinen. Hier wird dann nur noch ĂŒber 0 und 1 diskutiert.
 
  • GefĂ€llt mir
Reaktionen: Javeran
Javeran schrieb:
PCs gibts nun auch schon einige Jahre und das Prinzip hat sich dennoch nicht so stark verÀndert wie man es gedacht hÀtte.
Ich finde das sich das ganz enorm geÀndert hat. Und zwar durch Tablets.
Ich erlebe immer mehr Leute, die klar keinen Tower mehr haben, weil der eben viel Platze frisst mit Bildschirm und so, aber auch (vollstÀndig) weg vom Notebook gehen. Die "klassische Hausfrau" hatte ja oft nur ein Notebook. Da wird gerne mal komplett auf ein Tablet umgestiegen. Bei MÀnnern so ab 40-50 trifft das auch immer hÀufiger zu.
Das hat sich mMn schon ziemlich gewandelt die letzten Jahre.

-=:Cpt.Nemo:=- schrieb:
und der Rest nachrĂŒstbar im klassischem Sinne sein wird.
Aber warum sollte man genau das tun?
Das ist doch so ein Ding, weswegen man das GerĂ€t am Ende entsorgt und sich ein neues kauft. Kann mir nur schwer vorstellen, dass Hersteller diese wundervolle Option liegen lassen, dass das nicht mehr aurĂŒstbar ist.
 
  • GefĂ€llt mir
Reaktionen: Dome87
Zum RAM:

Cardhu schrieb:
Das ist doch so ein Ding, weswegen man das GerĂ€t am Ende entsorgt und sich ein neues kauft. Kann mir nur schwer vorstellen, dass Hersteller diese wundervolle Option liegen lassen, dass das nicht mehr aurĂŒstbar ist.

Es haengt nicht nur vom Hersteller ab. Wenn ein grosser Teil der Kunden bereit ist, zu einem Hersteller zu wechseln, der erweiterbares RAM bietet, wird sich jeder Hersteller hueten, nur nicht-erweiterbare Geraete anzubieten. Bei der Apple-Kundschaft gab es aber offenbar wenig Bereitschaft.
 
500 Teilnehmer und viele spannende und interessante BeitrÀge. Danke!
 
Ich denke, dass langfristig RAM komplett verschwinden wird. Stattdessen wird in der Speicherhierarchie nach dem Cache gleich nichtflĂŒchtiger Speicher (NVM) kommen, der direkt auf CPU-Package platziert wird. NAND-Flashspeicher ist dafĂŒr natĂŒrlich viel zu langsam und zu wenig haltbar, aber STT-MRAM hĂ€tte z.B. das Potential dafĂŒr. ZellgrĂ¶ĂŸe vergleichbar mit NAND, Haltbarkeit vergleichbar mit RAM und Geschwindigkeit und Energieverbrauch besser als bei NAND oder RAM.

Eine weitere Entwicklung dĂŒrften die vermehrte Integration von Beschleunigern jeglicher Art sein. Das macht speziell dann Sinn, wenn man Software-seitig an die Grenzen des Multithreadings stĂ¶ĂŸt. Es gibt zwar durchaus Software, die sich fast beliebig parallelisieren lĂ€sst, aber andere hingegen nicht. Deshalb machen immer mehr Kerne hĂ€ufig keinen Sinn. Statt mehr Kerne könnten dann mehr Spezialeinheiten Einzug finden. Diese kombinieren höchste Performance mit geringem Stromverbrauch.

NatĂŒrlich gibt es sehr viel mehr AnwendungsfĂ€lle als man Spezialeinheiten integrieren kann. Daraus folgt meine nĂ€chste Vermutung, nĂ€mlich die Integration von rekonfigurierbarer Hardware (FPGAs). Diese stellt bzgl. Performance und Energiebedarf ein Mittelding zwischen ASICs und frei programmierbaren CPU-Kernen dar. Hierzu passt auch, dass sowohl Intel als auch AMD in den letzten Jahren Hersteller von FPGAs ĂŒbernommen haben.
 
  • GefĂ€llt mir
Reaktionen: TomH22
Ich denke, dass sich in 15 Jahren nichts revolutinĂ€res Neues entwickelt. Vor 15 Jahren hatten wir den Core2Duo, und auch schon den Quad, AMD stand kurz vor der EinfĂŒhrung des Phenom II (2009). Das heute ist nur eine logische Entwicklung dieser Generationen (AMD steckte zwischendurch mal in der FX-Sackgasse, aber ist ist ja glĂŒcklicherweise vorbei) Die Taktraten waren bis 3GHz oder bald auch leicht darĂŒber, also kann man bei 6GHz heute in 15 Jahren schon mit 8 GHz und mehr rechnen. Besonders, wenn man weiß, dass sich Intel, bedingt durch die fehlende AMD-Konkurrenz von 2012 bis 2017 kein Bein ausgerissen hat, um die Entwicklung voranzutreiben. Aktuell sind Intel und AMD auf Augenhöhe und Apple stösst auch noch hinzu, dass lĂ€sst auf durchgĂ€ngig weitere Steigerungen hoffen.
 
  • GefĂ€llt mir
Reaktionen: Dome87
In 15 Jahren wird:
Es wird x86 weiterhin geben, es gibt bis jetzt keinen Standard der mehr KompatibilitÀt hat.
(Bei ARM gabs den Bruch mit ARM v7 zu v8 mit 32bit zu 64bit vor nicht mal einem Jahrzehnt)

IGP die Leistung hat gibts auch heute schon, was ist ein AAA Spiel ?
Ein Grafikblender oder Terraria das mehr spielen als manch andere Spiele von den Großen.

Mehr Hersteller zumindest einen weiteren wird es bei x86 geben, die Chineses haben sich bei VIA bedient.
(Die EuropÀer wollten schon ARM an Nvidia also das letzte was wir haben an die USA verschachern)

Neue Architektur steht wohl fest.

RiscV könnte sich ĂŒber Asien aus verbreiten.



US Unternehmen werden weiter machen wie bisher.
EU Unternehmen werden immer noch ganz Kurzfristig denken und alles verschachern
China denkt langfristig und könnte mit CPU, GPU, NAND fĂŒr DRAM und SSD eine Konkurrenz werden.
 
  • GefĂ€llt mir
Reaktionen: Coeckchen
AAA oder đŸ’© A ? Steht in der Regel fĂŒr die Spiele von riesen Studios mit Riesen Publisher, wo die QualitĂ€t manchmal sehr zu wĂŒnschen ĂŒbrig lĂ€sst am Anfang und die durch die Bank weg (ĂŒberwiegend) mit Bezahlinhalten im Vollpreistitel verseucht sind. Ist so eine pessimistische π x 👍 Beschreibung.

Gibt aber auch mal gute.
 
  • GefĂ€llt mir
Reaktionen: Coeckchen
Cardhu schrieb:
Aber warum sollte man genau das tun?
Das ist doch so ein Ding, weswegen man das GerĂ€t am Ende entsorgt und sich ein neues kauft. Kann mir nur schwer vorstellen, dass Hersteller diese wundervolle Option liegen lassen, dass das nicht mehr aurĂŒstbar ist.
Weil nicht genug RAM auf das CPU Package passt und man deswegen eh noch min. einen RAM Slot verbauen muß.
 
-=:Cpt.Nemo:=- schrieb:
Ich kann mich da Allem anschliessen ausser der Zitierten Aussage, da glaube ich eher das es einen Teil des RAM auf dem CPU Package geben wird und der Rest nachrĂŒstbar im klassischem Sinne sein wird.
Der Hauptvorteil von DRAM am CPU Package ist, dass die möglichen Bandbreiten viel höher sind. NachrĂŒstbarer RAM wĂŒrde also nur mit 2 Cache Ebenen funktionieren. Ist die Frage, ob sich das auch wirklich auszahlt oder ob man die Nischenanwendungen mit mehr Bedarf nicht in den Serverbereich drĂ€ngen will.
 
  • GefĂ€llt mir
Reaktionen: Dome87
andr_gin schrieb:
Der Hauptvorteil von DRAM am CPU Package ist, dass die möglichen Bandbreiten viel höher sind. NachrĂŒstbarer RAM wĂŒrde also nur mit 2 Cache Ebenen funktionieren.
Das stimmt, außer es gibt da noch eine andere Lösung bis dahin.

Ist die Frage, ob sich das auch wirklich auszahlt oder ob man die Nischenanwendungen mit mehr Bedarf nicht in den Serverbereich drÀngen will.
Die Antwort werden wir in 15 Jahren wissen ;)
Ich persönlich halte davon aber nicht viel wenn man Sachen in die "Cloud" auszulagert.
Gerade in Bezug Sicherheit und Datenschutz halte ich es sogar fĂŒr hoch problematisch.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Alexander2
Aufgrund des Endes von Moore's Law vermutlich in Richtung "Sapphire Rapids" und auf Multi-Chiplet Basis bestehen, aber auch entpr. mehr Strom verbrauchen fĂŒr Maximierung der Leistung (das Big-Little Prinzip sollte diesem ja entgegenwirken und die Effizienz fĂŒr geringe bzw. mittlere Lasten verbessern). Ferner vermute ich, daß sich on-Interposer-RAM generell durchsetzen wird, da Speicherdurchsatz immer mehr zum Flaschenhals wird und der Weg in Richtung immer höherer Integration geht. BezĂŒglich Architektur wĂ€re RISC-V, als nicht proprietĂ€re ISA und hinsichtlich des Verhaltens von Softbank, der logische Weg fĂŒr die Zukunft, aber das wird sich zeigen, da hier auch andere Faktoren eine Rolle spielen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: TomH22
Hmm also an der Umfrage direkt werde ich mich nicht beteiligen. Denn irgendwie sind die Sachen, die auch wĂ€hlen wollen wĂŒrde, sehr fixiert auf eine konkrete aktuelle Implementierung von Hersteller XY. Deswegen versuche ich es mal mit einem ausformulierten Beitrag.

8GHz oder mehr halte ich nicht fĂŒr unmöglich, aber doch eher fĂŒr unwahrscheinlich.

Dass die Anzahl der Kerne zunehmen wird, keine Frage. Aber mehr als 16P Cores ... sind damit jetzt genau die Implementierungen gemeint, wie sie Intel umsetzt?

iGPUs die AAA-Spiele flĂŒssig laufen lassen gibt's schon lange (siehe diverse Playstation und XBox Generationen). Geht die Frage eher in die Richtung, obs das dann auch im PC gibt? Das ist schwer zu sagen, aber ich wĂŒrde mal tippen dass nicht. Warum? Aus dem selben Grund warum es das bisher auch nicht gibt: Der Preis.
Bei Konsolen lassen sich SoCs mit großen GPUs deswegen kostengĂŒnstig realisieren, weil sie in Masse produziert werden. Jeder Mensch der sich eine PS5 kauft bekommt genau den selben Chip.
Im PC hat man viel zu individuelle AnsprĂŒche der einzelnen User, als dass man da fĂŒr eine konkrete Konstellation genug Absatz erzeugen wĂŒrde, außer fĂŒr die ganze billigen Varianten.

3D-Cache ist etwas, das ich mir sehr gut vorstellen kann. Chips in die Höhe zu bauen. Ist tatsĂ€chlich ein Bestreben, welches schon lange existiert. Da es allerdings nicht ganz unproblematisch ist gab es bisher hier nur kleine Fortschritte. Speicher eignet sich durch seine gleichmĂ€ĂŸige Struktur am ehesten fĂŒr Stapel-Verfahren, daher denke ich dass wir sowas in Zukunft noch öfter sehen werden. Zu mal der Cache auch einen betrĂ€chtlichen Anteil der FlĂ€che einnimmt und man so FlĂ€che am effizientesten einsparen kann.

Ob Chips jetzt deutlich sparsamer sein werden, oder mehr Verbrauch fĂŒr mehr Leistung generieren werden ... das ist denke ich nicht die Frage. Man muss in jeder HW-Generation einen vernĂŒnftigen Tradeoff finden zwischen Performance und Leistungsaufnahme. Fraglos werden kĂŒnftige Architekturen jedoch energieeffizienter arbeiten.

... ausnahmslos nach dem bigLittlte Prinzip funktionieren: Auch das halte ich als Frage fĂŒr zu eng gegriffen. BigLITTLE is letztlich nichts anderes als die konsequente Fortsetzung der Heterogenisierung moderner Prozessoren. Der wesentlikche Unterschied ist jetzt nur, dass in diesem Fall beide Architekturen mit dem selben Befehlssatz arbeiten. Man versucht also die Hardwarestruktur durch verschiedene Implementierungen besser auf die anliegende Rechenlast zu optimieren. Das ist etwas, was wir in Zukunft sicher noch hĂ€ufiger oder extremer sehen werden.

... durch eine völlig neue Technik ersetzt? Ich bin mir nicht ganz sicher, zielt das jetzt darauf ab, dass x86 evtl austirbt, oder wir in Zukunft keine CPUs mehr haben sondern andere Architekturen, oder gar etwas richtung Quanten-Computer?
Quanten-Computer gibt es zwar, aber fĂŒr den Heimgebrauch definitiv ungeeignet und das wird sich auch nicht in 15 Jahren Ă€ndern lassen. Neben der ganzen Problematik, dass es momentan noch 0 Software gibt, wer will schon seine Wohnung auf ein paar kuschelige Kelvin abkĂŒhlen.
Auch durch welche andere Architektur sich eine regulĂ€re CPU einfach so ersetzen ließe, kommt mir gerade nicht in den Sinn. Das einzige, was ich mir vorstellen könnte, wĂ€re dass ARM oder RISC-V in Zukunft eine etwas grĂ¶ĂŸere Rolle spielen.

Dass CPUs fest mit dem Mainboard verlötet werden halte ich bei Desktop PCs, außer in Ausnahme fĂ€llen, fĂŒr sehr unwahrscheinlich. Das steht dem ursprĂŒnglichen modularen Ansatz tatsĂ€chlich diametral entgegen.
 
  • GefĂ€llt mir
Reaktionen: TomH22 und -=:Cpt.Nemo:=-
CM286 schrieb:
In 15 Jahren gibts Quanten-Computer im handlichen Format đŸ„ł
Quanten-Computer werden bisherige Computer nicht ersetzen, höchstens ergĂ€nzen. V.a. mĂŒssen Quanten-Computer erstmal bei Zimmertemperatur funktionieren, das tun diese nĂ€mlich bislang nicht.
Quanten-Computer eignen sich nur fĂŒr bestimmte Aufgaben, nicht fĂŒr alle Aufagben.
 
  • GefĂ€llt mir
Reaktionen: TomH22
mae schrieb:
. Wenn ein grosser Teil der Kunden bereit ist, zu einem Hersteller zu wechseln, der erweiterbares RAM bietet, wird sich jeder Hersteller hueten, nur nicht-erweiterbare Geraete anzubieten.
Also wenn wir uns mal anschauen wie sich GerÀte so entwickelt haben, interessiert es die Kunden in der Regel nicht, sondern sie tauschen brav alle X Jahre ihr GerÀt aus. Auch sonst lÀsst die Mehrheit alles mit sich machen, nicht nur bei sowas^^
Du fĂŒhrst etwas ein, Leute Ă€rgern sich, aktzeptieren es dann dennoch, es ist etabliert.
-=:Cpt.Nemo:=- schrieb:
Weil nicht genug RAM auf das CPU Package passt und man deswegen eh noch min. einen RAM Slot verbauen muß.
Oder du lötest ihn einfach ganz smart auf ;)
 
Ich habe nicht wirklich Ahnung von der Materie, aber hier mal was ich denke... könnt mich ja gerne belehren :)

"mit 8 oder mehr GHz takten" Kann ich mir gut vorstellen, ich glaube da spricht nicht so viel dagegen? Aber auch dort gibt es eine physikalische Grenze, bei der es dann keinen Sinn mehr macht entsprechende KĂŒhlleistung und Energie aufzubringen, fĂŒr den erreichten Takt.

"herstellerĂŒbergreifend 16+ "P"-Cores haben" Kann ich mir ebenfalls vorstellen, aber frage mich nach der Wahrscheinlichkeit, das mĂŒsste nĂ€mlich bedeuten, dass diese 16+ Kerne auch gebraucht werden und zumindest bei PC Spielen (Workstation und Editing ausgenommen) sehe ich das nicht wirklich so, da sich dort Prozesse nicht beliebig viel parallelisieren lassen, es dort also eine Grenze gibt (es sei denn Videospiele sind in Zukunft völlig anders aufgebaut, aber 15 Jahre? Nee...) wo genau diese Grenze liegt, ob bei 16 oder mehr Kernen: das weiß ich nicht.

"iGPUs haben, die fĂŒr AAA-Titel ausreichen" Schwierig, auf solchen kleinen Chips eine Ă€hnliche "Art von Leistung", wie sie die riesigen Grafikkarten erreichen und wie sind ĂŒberhaupt Triple A Spiele in 15 Jahren? mMn. unmöglich zu beantworten.

"deutlich sparsamer sein" Ebenfalls schwierig, ich denke sparsamer in bestimmten Anwendungsbereichen und Szenarien, aber grundlegend wĂŒrde ich nein sagen: sondern eher effizienter, statt sparsam.

"mehr Strom brauchen, um mehr Leistung zu erzeugen" Zumindest auf Seiten der Grafikkarten sieht man momentan viel Leistung durch teilweise sehr viel Strom, das kann ich mir auch gut fĂŒr CPUs der Zukunft vorstellen, diesen Punkt halte ich leider mitunter am wahrscheinlichsten.

"durch neue Architekturen wieder niedriger takten" Ich stelle mir vor, dass ab einem gewissen Punkt die Taktrate "unwichtig" ist, wenn neue Techniken grundlegend anders und schneller arbeiten, bei gleichem oder sogar weniger Takt (denn dadurch könnten andere Vorteile entstehen, die vielleicht bedeutender sind als Takt?).

"durch eine völlig neue Technik ersetzt" Halte ich fĂŒr sehr unwahrscheinlich (auf 15 Jahre bezogen, in 50 Jahren könnte die Antwort anders aussehen).

"von mehr Herstellern als Intel, AMD (und Apple) angeboten" Möglich, aber dann mĂŒsste man erstmal Produkte erschaffen die Vorteile haben, die AMD und co. bisher nicht haben, oder sowas... und das kann ich mir ehrlich gesagt nur schwer vorstellen.

"keine große Bedeutung mehr in Desktop-PCs haben" Halte ich fĂŒr den mitunter unwahrscheinlichsten Fall, ich denke nicht, dass die Bedeutung einer CPU sinkt oder eine CPU durch etwas völlig neues ersetzt wird (nicht in 15 Jahren).
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Dome87
ZurĂŒck
Oben