News Die CPU der Zukunft: 10 GHz, 3D V-Cache und 16 P-Cores ohne x86?

Naturtrüb schrieb:
-> Long story short: Chromebook-ähnliche Geräte, Tablets und Smartphones werden den Markt dominieren, alle werden ihre Inhalte auf überall präsente billige OLED-Bildschirme streamen können...
Das hat man doch vor 20 Jahren schon versucht und ist vor eine Wand von Ablehnung gekracht.
Es ist eben nicht so, daß jeder seine Daten gern im Netz teilen möchte.

Und Spielen mit einem Bildschirmchen, wenn zu Hause ein 75 Zöller an der Wand hängt oder der 32 Zöller auf dem Tisch steht?

Wird sicher nicht passieren.

Und der Traum vom GaAs-PC wird noch lange nicht in Erfüllung gehen.
Wir sind bei 6-Zoll Scheiben, hat mein Kommilitone aus der Kristallzieherei in Freiberg gesagt.

Galliumarsenid ist noch 10 mal schlechter zu bearbeiten, als Silizium.
 
Mehr Kerne, geringere Frequenz. Keine Verarbeitung von 32 Bit Befehle mehr möglich.

Wenn X86 nicht effizienter wird, wird in 10-15 Jahren wohl ARM den Prozessorarchitektur-Wettbewerb gewinnen.

Allerdings auch:
Was ist mit Quantenprozessoren? https://de.m.wikipedia.org/wiki/Quantencomputer
Hier macht ja IBM Fortschritte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dome87
CPUen sind heutzutage leistungsfähig wie noch nie. Leider gibt es immer noch genügend Rechner, die intern durch zu hohe DPC Latenzen oder schlechte Kühlkonzepte einfach nur ineffizient arbeiten und beispielsweise für Audiobearbeitung nicht geeignet sind.

Ich sehe im Bereich Betriebssystem, Treiber und Applikationen einen deutlich höheren Optimierungsbedarf als im Bereich der CPU. Vor allem müsste Windows 11 noch ordentlich umgekrempelt werden. Die Kernvirtualisierung ist ein unverschämter Leistungsfresser. Es kann auch nicht im Sinne von Security sein, dass durch ein schlechtes Design so viel Leistung verloren geht.

Dann könnte man vielleicht auch mal darüber nachdenken, den Stromverbrauch vom PC wieder zu deckeln. Das ist durch das Kopf an Kopf Rennen zwischen Intel und AMD alles etwas aus dem Ruder geraten. Leistung und (Energie-) Effizienz wären m.E. viel wichtiger.

Es müssten auch viel mehr gute Konzepte aus anderen Bereichen übernommen und in Windows direkt integriert werden. Beispielsweise von Prozess Lasso Pro: Energieprofile applikationsabhängig laden und wenn der Rechner IDLE ist, auf Stromsparen umschalten und nach einiger Zeit in den sleep modus wechseln.

Weiter verbesserungswürdig ist sleep/wakepup. Das ist irgendwie so schlecht implementiert, dass es einfach nicht mit allen Geräten ordentlich funktioniert. Eigentümer von Recording PCs können da ein Liedchen von singen.

Schön wäre es auch, wenn man als Anwender die maximale Laufzeit von Treibern parametriesieren könnte, damit die DPC Latenzen nicht zu hoch werden, was für Audio Anwendungen / Recording durchaus wichtig ist.

Wenn das alles mal laufen würde, wäre schon viel (mehr) gewonnen und es ließe sich eine Menge Energie sparen.

Bevor solche Dinge nicht zufriedenstellend gelöst sind, sind mir die CPUen der nächsten Jahre erstmal völlig Humpe. Wir haben doch eigentlich genügend Performance, man muss sie nur durch Optimierungen sinnvoller und vielfältiger nutzen können.
 
  • Gefällt mir
Reaktionen: Eisenoxid
Wenn die Welt den Klimawandel ernst nehmen will/wird, bleibt zwangsläufig nur die Entwicklung zu viel effizienteren und sparsameren Prozessoren, wo auch die Softwarelandschaft einen Wandel zu effizienteren Code hinlegen muss. Es gibt genügend Softwarebeispiele (z.B. Microsoft Teams) wo man als Endanwender die Ressourcenverschwendung richtig spürt.
Durch die "Notwendigkeit" auf effiziente Systeme ist es auch ziemlich sicher das teure lizenzpflichtige Designs eher auf dem absteigenden Ast sein werden, ARM hat potential aber nur wenn es günstig umgesetzt werden kann und den weg den ARM einschlägt, sieht nicht danach aus. Deshalb schätze ich schon das RISC mehr Daseinsberechtigung bekommen wird.
Weitverbreitete Systeme mit möglichst viel Optimierung, darauf wird es wohl hinauslaufen.

Außerdem werden Computer eine längere Garantie, inklusive auf die Software erhalten, damit bestehende Systeme länger genutzt werden.
Eine Kreislaufwirtschaft mit mehr Recycling wird viel wichtiger. Und mann Computerhardware inkl. Smartphones auch einfach im Supermarkt oder Container neben Glascontainern abgeben zum Recycling, kein Grund mehr auf besondere Abfallhöfe zu gehen.
 
Shader schrieb:
Wenn die Welt den Klimawandel ernst nehmen will/wird, bleibt zwangsläufig nur die Entwicklung zu viel effizienteren und sparsameren Prozessoren,
Wie bitte?

Ein I 8086 hat eine Maximalleistung von ein paar Watt gehabt, mit 5V Versorgungspannung.
Der i 80486 hat um die 10W gehabt bei 3,3V (I/O) und 2 ... 2,7V Kernspannung.
Ein Core 2 größer gleich 55W.
Ein I5 6500 hat als Mittelklasse 65W.
Der I5 13600 hat 125W Grundverbrauch nach oben offen bis 180W.


Shader schrieb:
wo auch die Softwarelandschaft einen Wandel zu effizienteren Code hinlegen muss.
Schön aber es gibt Termine.
Da steht der Abteilungsleiter hinter dir .
Für Optimierung und Fehlerbereinigung hat man ja nach dem Release genug Zeit.

Shader schrieb:
Durch die "Notwendigkeit" auf effiziente Systeme ist es auch ziemlich sicher das teure lizenzpflichtige Designs eher auf dem absteigenden Ast sein werden,
Man sollte die Macht der installierten Prigramme nie unterschätzen.
Schon der Itanium ist daran zerbrochen.


Shader schrieb:
Deshalb schätze ich schon das RISC mehr Daseinsberechtigung bekommen wird.
Könnte sein, aber die Prozessoren sind ja CISC / RISC Mix.

Shader schrieb:
Weitverbreitete Systeme mit möglichst viel Optimierung, darauf wird es wohl hinauslaufen.
Da warten wir nun schon 40 Jahre drauf.

Shader schrieb:
Außerdem werden Computer eine längere Garantie, inklusive auf die Software erhalten, damit bestehende Systeme länger genutzt werden.
Zwei Kisten Gerstensaft meiner Wahl dagegen.

Shader schrieb:
Eine Kreislaufwirtschaft mit mehr Recycling wird viel wichtiger. Und mann Computerhardware inkl. Smartphones auch einfach im Supermarkt oder Container neben Glascontainern abgeben zum Recycling, kein Grund mehr auf besondere Abfallhöfe zu gehen.
Ob ich zum Werststoffhof oder Supermarkt gehe kommt genau auf das Gleiche raus.

Man sollte mal servicefreundliche Geräte bauen, wie in den 50er bis 80er Jahren.
Bei meinem bajazzo CR 7500 sind mit 5 gleichen Schrauben die Außenteile ab und noch 5 Schrauben und das ganze Innenleben ist raus.

Wenn ich da ein aktuelles Auna-Radio dagegen sehe, wird mir schlecht.
 
Ich denke, in 15 Jahren werden CPUs mit Sicherheit deutlich relativ sparsamer (effizienter) werden, vermutlich gar keine große Bedeutung mehr in Desktop-PCs haben und sogar durch eine völlig neue Technik ersetzt - etwa Quantencomputing.
 
  • Gefällt mir
Reaktionen: Dome87
In bis zu 15 Jahren wird sich so einiges verändern. Das der PC Zuhause ausstirbt glaube ich nicht . Er wird vielleicht in viel Kompakterer Form daher kommen. Zur Zeit scheint alles wieder größer zu werden. Ich glaube das wird sich ändern sobald man einen Supercomputer mit KI und AI beauftragt eine neue CPU Architektur zu entwerfen.
Priorität: Stromsparen - Herstellungskosten - Leistung
Oder in anderer Prioritätsreihenfolge.

Es wäre auch möglich das sich der PC Aufbau komplett ändert. Vielleicht wird alles modularer und man erweitert mit einem Upgrade nur die GPU oder nur den Vcage.

Beim Cloud Thema denke ich an Ergänzung.
Ablösen wird Cloud das PC-Gaming nicht . Versuche mal 8k Streaming mit 240 fps durch das Internet zu bekommen. Da sind wir in 15 Jahren und das wird mit ung. 6 Milliarden Gamern nicht möglich sein.
Ich würde mir Cloud-Gaming als Ergänzung zu meinem bestehenden System wünschen.
Sprich ....meine Hardware wird komplett ausgenutzt plus Cloud-Boost!!

Die CPU im speziellen wird wohl wie Nvidia es vormacht auch KI Kerne bekommen. Ich sehe jedenfalls keinen Grund warum das nicht kommen sollte. Und ...ich glaube Nvidia wird eigene CPUs raus bringen.

KI , AI werden noch sehr viel Veränderung bringen. Auch im Bereich Software. Was Menschen nicht hinbekommen schafft die KI oder Algorithmen.
Die Spiele-Software wird alle Kerne ausnutzen.
Den Part der Recourcen Verteilung wird von der KI programmiert . Es wird Zeit die CPU Power die wir haben richtig zu nutzen. Zur Zeit nutzen die wenigsten Menschen die Leistung ihres PCs vollständig aus.

Durch neue von KI gestaltete CPU Architektur wird es uns ermöglichen CPUs zu konstruieren die die GPU besser entlasten. Im Optimalfall pendeln sich GPU und CPU so ein das die Leistung beider Geräte voll ausgenutzt wird wodurch kein Flaschenhals mehr entsteht.

Ich denke die optimale Nutzung vorhandener Recourcen sei es Hardware oder Energie wird in Zukunft im Vordergrund stehen.

CPUs die mit Licht funktionieren wären ein Traum weil dann der Stromverbrauch extrem sinken würde.
Aber ob das schon in 15 Jahren kommt...bezweifel ich.
 
  • Gefällt mir
Reaktionen: Dome87
jauns91 schrieb:
Das ist ein sehr spannender Aspekt aber ich glaube fast dass uns x86 noch lange begleiten wird. Zu groß die Legacy (besonders durch das Windows Ökosystem) zu ineffizient die emulierung.
Bin ich mir garnicht mal so sicher. Apple macht ja gerade vor, wie gut x86 Emulation (oder glaube eher transpilation?) auf Arm funktionieren kann. Und abseits von Spielen gibt's garnicht so viel Software, die einerseits Performance braucht, aber von der es andererseits nicht ohnehin alle paar Jahre ne neue Version gibt (die dann auch für ne neue Architektur rausgebracht werden kann).

Sehr sehr vieles läuft inzwischen doch ohnehin in ner Browserengine.
 
Scr1p schrieb:
In 15 Jahren haben nur noch "sonderbare Menschen" Stand-PCs Zuhause, alles läuft über Cloud Gaming und kostet ein Schweine Geld, aber die Leute zahlen es.
Das hab ich schon vor 15 Jahren gesagt! Der PC wird künstlich am Leben erhalten!
 
  • Gefällt mir
Reaktionen: Scr1p
Rock Lee schrieb:
Rock Lee schrieb:
Also Turbo von 8Ghz in ~10 Jahren kann ich mir das durchaus vorstellen, auch wenn sich Moores Law verlangsamt.
Denn von 4 auf 6 GHz sind es 50% mehr Takt. Von 6 auf 8 GHz aber nur noch 33%


Wenn damit AAA-FullHD-niedrige Details gemeint sind. Ja absolut. Denn bereits AMDs Phönix wird hier einen neuen Maßstab setzen. Für AAA-Ultra Settings machen IGPUs einfach keinen Sinn. Denn der Enthusiast ist nie zu Kompromissen bereit und kauft sich lieber ne Dedizierte GPU.

Eher gibt es 2 Super-"P"-Cores als 16+ P-Cores. Es lassen sich schlichtweg nicht alle Workloads unendlich parallelisieren.

Aber hallo! Nodes wie N3X von TSMC zeigen wo die Reise hingeht.

Wenn Neu = Alles, was nicht auf Silizium-Halbleitern, die belichtet werden ist: Nein, nicht in den nächsten 25 Jahren.
In 15 jahren später wird bei mir die Grenze zwischen highend und mitrelklasse verschwunden sein weil man durch alles tricks und Kniffe die meiste Leistung herausgeholt hat. Dadurch stoßen die hersteller an ihre Grenze. Die cpus werden teurer werden aber durch die massive steigerung ist dies auch nicht mehr nötig. Eine Mischung aus dem ganzen höhere. Takt von 8 GHz mit ipc Steigerung wird massiv für mehr Leistung führen. Sobald aber die 8 GHz erreicht sind und es dann nicht mehr so hoch geht wird man nur noch durch die ipc Steigerung kleine Sprünge hinlegen werden. Die Kunden kaufen seltener neue cpus weil die Sprünge immer kleiner werden. Das kann man nur noch durch höhere Preise kompensieren. Es wird also in den nächsten 15 Jahren immer härter werden für die CPU hersteller.

Mit Tricks schafft an es mit den 64 bit Einheiten 32 bit Software zu emulieren um wirklich jede Software abzudecken. Der Rest ist ja eh schon 64 bit. Durch das schafft man auch noch mehr Luft um noch mehr leistung heraus zu kitzeln. Später werden die cpus immer breiter werden um noch mehr leistung da draus zu holen durch das steigt der Preis jedoch noch mehr aber auch der Stromverbauch wird steigen.

Bei gpu also zum zocken wird 6k mindestenz das mas der Dinge sein. Durch so hohe Auflösung steigt die last auf die gpu weiter an. Die CPU muss kaum noch so viel ackern weil die gpu mehr machen muss. Damit die CPU mehr zu tuen bekommt als schwitzen kommen bestimmt neue Verfahren dazu. Wer aber so wie ich aber bei full hd bleiben will weil habe wieder nen downgrade gemacht steigt auch in Zukunft die Hardware Anforderung weniger an. Durch das braucht man keine so starke gpu um die CPU gescheit zu füttern.

Spannend wird es wie sich da die gaming verändern wird weil vr brillen sowie das alles in ein kleines gerät rein passen wird könnte die Art des zockens sehr stark verändern. Wer weiß wie es da weiter gehen wird. Denn ab einen gewissen Level an Auflösung könnte auch ne stärkere CPU umso wichtiger werden.

Apus wenn man bei full hd bleiben wird, werden sich massiv gestiegen sein, so daß momentane gpu in der mitrelklasse sowie untere Klasse ersetzt werden durch die Apus. Gtx 1650 und Co werden dann retro hardware sein wo jede winzige cpu mit onboard Schlitten fahren wird. Auch die heutigen gehobene mitrelklasse wird sich in acht nehmen müssen durch die apu.

Durch die moderne Sache wird auch andere elektro Geräte profitieren können.

Sofern es kein Welt weit Krieg geben wird wird sich die CPU so schön weiter entwickeln. Das sich keiner um die CPU Leistung sorgen machen muss.
Da stehen mit Quanten computer zwar auch noch für die zukunft interessante technik an aber leider wird es mit den fast gesamte momentane software nicht mit Quanten Computer kompatibel sein.

Wie sich das betriebsystem entwickeln wird weiß man auch nicht. Könnte ebenso die CPU mit beeinflussen.
Nach 15 Jahren wird meine Software so 20 Jahre alt sein und ob es da dann Alternativen geben wird ist nicht sicher.

Problem ist das es manche Bereiche geben wird da wird sich nix mehr tuen. Und ob da immer mehr cpu leistung dann noch was hilft weiß ich nicht.

Verwende seid einigen Jahren x264 und will es auch in Zukunft weiter verwenden. Zwar scheint so langsam x265 sich so weiter entwickelt haben das es nicht mehr so langsam ist und das obwohl die CPUs sich nicht mehr so schnell weiter verbessern bzw entwickelt haben. Nach 15 Jahren werden ich also noch immer x264 haben und Videos in 720p sowie 1080p umwandeln. Auch die Auflösung des Bildschirm bleibt dort hängen. Werde also dennoch sehr stark von der neuen CPU profitieren. Sofern ich nicht bei der Software das Limit bei der Hardware erreicht habe.
Ich Blicke also gespannt in die Zukunft.

Das erste Ziel ist erst mal 30 % mehrleistung auf dem 7950x oder 13900k drauf zu warten. Warum weil die Leistung noch immer nicht genug ist auf der CPU leistung. Und wenn die dann erreicht sind dann habe ich 50 % mehr Leistung auf dem ryzen 9 5950x und dann Lonst sich das auch für mich. Ob die hardware 15 Jahre lang halten wird, bleibt spannend.

Auf jeden Fall wird bis dahin schon etliche neue ssd gekauft haben weil ich in 3 Jahren so viel geschrieben habe wie andere in ihrem ganzen Leben als normale User.
Sollte die mehrleistung nicht reichen ershlage ich halt die software mit noch mehr cpu leistung bis diese schnell genug ist, das es für mich reicht. Die doppelte Leistung gegenüber der 5950 dürfte schon das maximum sein. Damit werden threadripper zumindest für mich überflüssig sein weil da die software die highend cpus zu Tode liniert.

Ob da dann noch 16 Kerne Standard sind oder nicht doch 24 Kerne oder mehr. Man kann 16 Kerne ja nicht zu Tode opimieren.
Ich finde den Gedanken echt spannend wie es in Zukunft so sein könnte.
 
  • Gefällt mir
Reaktionen: Dome87
in 15 jahren wirds den kram nur noch zur miete geben, als cloud service z.b. was dann dann für cpus zu einsatz kommen ist schwer zu sagen.
 
Gestern nachmittag hatte ich zufaellig einen Bericht im Radio gehoert, wo es um die neuen Intel Xeons ging, wo man nach Bezahlung Features und Leistung freischalten kann.

Das koennte der erste Schritt sein. Wenn PCs bald noch mehr Nische werden als sie es jetzt schon sind, wuerde mich nicht ueberraschen wenn das auch beim PC Einzug haelt, denn es koennte sein das in ein paar Jahren es keine separaten normalen Desktop CPUs mehr gibt.
Das koennte man dann auch weiterspinnen, und Abos fuer Features einfuehren. Oder gar Abrechnung nach Verbrauch.

Realistischer allerdings gehe ich davon aus, das der klassische PC in 15 Jahren defacto nicht mehr existiert.
Man hat vielleicht noch ein PC aehnliches Geraet zu Hause, aber es wird zugenagelt sein und unter (fast) voller Kontrolle eines Anbieters stehen. Wer eine schnelle Verbindung hat, hat wahrscheinlich nur noch ein Terminal zuhause, mit dem Cloudrechenleistung verwendet wird.
Das ist doch, wo die Entwicklung grade hingeht.

Und selbst wenn man einen Computer mit unabhaengigem Betriebssystem zuhause hat. Die Wahrscheinlichkeit dass das Internet groesseren Zugangsbeschraenkungen unterlegt wird ist auch gegeben. Womoeglich kommt man also mit einem solchen PC nicht mehr, oder nur sehr eingeschraenkt ins Internet. Schon heute ist es ja so, das Linuxsysteme teilweise kuenstlich eingeschraenkt werden, bei Streamingdiensten zum Beispiel gibts teilweise nur HDReady fuer Browser unter Linux.
Ein Szenario wo in Deutschland ein Internetzugang nur noch mit dem ePerso moeglich ist, und die noetige Software nur fuer Windows existiert, halte ich fuer nicht ausgeschlossen.

Was dann an Hardware drunter liegt? Keine Ahnung, die Glaskugel ist in Reparatur :D
Grundsatzlich gilt eh erstmal: Software sells Hardware. Es haengt also stark davon ab was die Software dann haben will. Und da habe ich die Erfahrung gemacht, das Software flexibeler wird. Ich habe jetzt zB am Wochenende ein Windows on ARM Geraet in Betrieb genommen. Man sieht keinen Unterschied am Windows selber. Fuer ARM kompilierte Software kann man ganz normal installieren, wie auf normalem Windows.
Windows 11 (konnte ich noch nicht drauf installieren) soll eine passable x86 Emulation haben (MacOS hat die definitiv), so das es dem Enduser eigendlich egal sein kann was fuer eine Architektur druntersteckt.

Hohe Frequenzen halte ich fuer so gut wie unmoeglich. Selbst wenn man die Core so hoch druecken kann wird es ineffizient, was der neue Intel ja eindrucksvoll zeigt.
 
Vermute auch, dass es in 15 Jahren eher auf totale "Smartisierung" im Homebereich und Clouding hinaus laufen wird und größere lokale PC-Hardware im Privatbereich weiter zurück geht und mobiler wird. Dann wird auch OLED tapeziert und in diverse Fronten integriert, Standalone-Monitore und TVs obsolet..

Mögliche Datenschutzbedenken und Vorwände gegen Tracking sind doch schon in den letzten 15 Jahren mächtig gefallen. Was hat man damals noch wehement vor TPM, Cloudoffice und & co. gewarnt.
Heute melden sich die Leute freiwillig mit ihrem google-Account überall an, verschicken und teilen ihre Privatsachen über social media und mail und zahlen zunehmend jeden Lutscher digital.
Auch wenn man es selber kritischer sehen mag, man wird die Entwicklung nicht verhindern. Der Mensch ist nunmal bequem.

Was die CPU-Entwicklung dann angeht, wird die elektrische Verarbeitung größtenteils Lichtleitern weichen, dann ist ihr Potenzial endgültig ausgeschöpft. Für X86 sehe ich keine längere Zukunft mehr.
 
  • Gefällt mir
Reaktionen: Coeckchen
Ich vergleiche letztens die Chip-Hersteller mit der Autoindustrie. Die Autos werden immer größer und verbrauchen immer mehr Ressourcen. Und bei den Computern ist es nicht anders. Immer mehr Kerne, immer schneller, die 2 TB SSD wird auch wieder schnelle voll. An der Entwicklung sind wir aber selbst schuld. Weil wir die Firmen, die ineffiziente Hardware herstellen oder schlechte Software schreiben nicht bestrafen.

Meine Eltern brauchten einen neuen Rechner. Der alte hatte noch Intel Pentium E5700 @ 3.00GHz drin. Und der neue Mini-PC hat AMD Ryzen 5 5560U und sollte dann für weitere 8-10 Jahre wohl reichen. Wg. der Größe sind beide glücklich. Und dazu noch weniger Energieverbrauch.

Für die Zukunft erhoffe ich mir ein Umdenken bei den Kunden und den Firmen.
 
  • Gefällt mir
Reaktionen: aid0nex
Also die wo sagen cloud und so ist für mich keine Option. Mag sein das es weiter mit den cloud voran geht. Aber da ich ein Nas System hat speichere ich meine Sachen eben lieber selbst lokal vor Ort drauf zu haben und jeder Zeit drauf zugreifen zu können. Ich stelle mich also bewusst gegen den Fortschritt. Ich verwende auch 5 Jahre alte Software und uralte Games. Bin gespannt was ich in Zukunft machen werde mit den alten games ob ich diese noch abspiel kann oder nicht. Werde ich bei der Entwicklung bei CPU mit Sicherheit erleben. Bei mir wird sich relativ nur wenig ändern. Ich lerne ja schon online Aktivierung ab. Also werde ich früher oder später wohl weiter abgehängt werden. Ob es da auch noch ne lösung geben wird. Egal ich schlengel mich schon irgendwie durch.
 
Für mich ist die Sache recht einfach: Schaut mal, wie wir heute immer noch stockende Software, ein eher langsam ladendes Windows etc. sehen. In den letzten 5 Jahren hat sich diesbezüglich rein gar nichts verändert, obwohl Prozessoren, RAM, SSD immer schneller werden. Das Problem ist einerseits ganz klar die Software, welche teils verbuggt ist oder die neuen Komponenten einfach nicht richtig nutzt. Mit unserer Hardware heute, müsste ein Rechner in 2 Sekunden aufgestartet sein, alle Programme inkl. Photoshop <1s, auch kleine Fotos mit 1000MB/s kopiert werden können etc. Aber nein, man optimiert immer weiter in Richtung für den Normalbenutzer unnötigen Dingen wie: noch mehr CPU-Kerne, dafür abnehmende Gigahertz-Zahl und die Weiterentwicklung von integrierten GPU-Einheiten ist auch zu langsam, bei SSDs immer noch höhere Maximaldurchsätze anstatt bei 4K-Leistung mal etwas zu verbessern. Alles Dinge, welche im Alltag nichts bringen.

Ich bin überzeugt, mit optimalem Betriebssystem und gut programmierter Software, bräuchte sich heute kein Nutzer mehr über zu langsame Rechner beklagen. Und der zweite Punkt ist, dass heute auch das Internet oft zu langsam läuft, obwohl man massig Leistung im Download hätte. Kaum eine durchschnittliche Webseite uploadet mit >100MBit/s, was nützen da die heutigen 10Gbit/s, welche bereits vorhanden wären? Ich habe trotz einer 1GBit/s-Leitung immer noch Webseiten, die ewig lahm sich öffnen oder ruckelnde Videos oder Mail-Anhang-Downloads von <1MByte/s. Das ist doch lächerlich.

Zudem: Warum sollen Desktop-Geräte aussterben? Nicht jeder begnügt sich mit einem grottigen 15-Zoll-Bildschirm seines Laptops. Ausserdem ist es günstiger, bei defektem Desktop-Gerät, Komponenten zu tauschen als einen Laptop zu entsorgen, weil es zu teuer ist, sich von einem Fachmann eine neue CPU oder ein Mainboard einbauen zu lassen.
 
  • Gefällt mir
Reaktionen: Klever
Wanderer82 schrieb:
Zudem: Warum sollen Desktop-Geräte aussterben? Nicht jeder begnügt sich mit einem grottigen 15-Zoll-Bildschirm seines Laptops.
Docking. Seitdem ist es mir schnurzpiepegal ob ich einen Laptop oder Desktop verwende da die Peripherie die Gleiche ist. Als Bonus hat man die USV direkt integriert und kann den gesamten 'Desktop' leicht von A zu B transportieren. Der niedrigere Stromverbrauch ist auch nicht zu verachten. Gerade im Sommer kann das doch ein paar Grad weniger im Arbeitszimmer bedeuten. Aussterben werden Desktops trotzdem nicht aber weniger werden sie definitiv werden.
Wanderer82 schrieb:
Ausserdem ist es günstiger, bei defektem Desktop-Gerät, Komponenten zu tauschen als einen Laptop zu entsorgen, weil es zu teuer ist, sich von einem Fachmann eine neue CPU oder ein Mainboard einbauen zu lassen.
Das ist Ansichtssache. Zu dem Zeitpunkt wo ein Notebook/Desktop unbrauchbar/kaputt wird, ist sowieso meist schon ein neues Gerät fällig. AM4(und ev. AM5) war bisher eher eine Ausnahme mit den CPU-Upgrades. Ansonsten hat man halt im Desktop maximal den Massenspeicher, Arbeitsspeicher und GPU aufgerüstet. Sobald die Boards anfangen zu sterben ist es eh auch schon schwer genug dafür Ersatz zu bekommen, egal ob Notebook oder Desktop.

Der einzige Anwendungsfall der aus meiner Sicht noch für Desktops übrig bleibt sind grafikhungrige Anwendungen die nicht auf Server ausgelagert werden können. Spiele wären hierfür ein Paradebeispiel allerdings sägt hier Geforce Now an diesem Ast. Die Generation die noch mit Desktops und nicht mit Laptops aufgewachsen ist, wird aber gerade Älter und hat tlw. mittlerweile ganz andere Prioritäten. Von Generation Smartphone will ich mal gar nicht anfangen... Ich bin froh wenn die Desktops innerhalb der nächsten 10 Jahre 'nur' mit Laptops ersetzt werden und nicht mit Tablets/Smartphones...
 
Zurück
Oben