Die Zukunft des Prozessors

Alles nicht ganz einfach. Es gibt schon einige Ansätze, die ein Voranschreiten bedeuten könnten. Ob es dann auch funktioniert oder wir bald auf Grenzen stoßen, insbesondere wenn es nicht um Parallelität geht. Quantencomputer stecken noch in den Kinderschuhen und ob die die Aufgaben von klassischen Computern komplett abdecken können, bleibt auch offen, sieht ja auch eher nach massiv paralleler Rechenkraft aus.
Auf Basis des Klassikers Silizium wird es wohl nicht lange so weiter gehen. Ich glaube, es war Gallium, auf dessen Basis es ein Schritt weiter gehen kann, was Miniaturisierung angeht. Graphen muss man überhaupt erst einmal in den Griff bekommen, lässt sich damit ein Chip wirklich herstellen und kann man dann damit zuverlässig arbeitende Logiken mit realisieren? Computer auf Neuronenbasis? Können die eigentlich auch mehr als nur Parallel? Unser Gehirn verarbeitet ja eine menge Daten, ohne das es uns bewusst ist, vieles davon dürfte auch eher auf massiv Parallel hinauslaufen, Reize aus Millionen "Sensoren" werden analysiert, unrelevante Teile rausgefiltert und dann zu ein Ganzes zusammengefügt, klingt auch alles nach Parallel.
Sicher, viele Probleme lassen sich bestens Parallel lösen, aber eben auch nicht alle, und genau da könnte als erstes die Hürde entstehen. Also könnte die sukzessive Verarbeitung bald stagnieren, während es bei der simultanen Verarbeitung noch viel länger weiter geht.

Es bleibt die Frage: Geht es immer weiter, nur weil es bisher so war?
Steckt im Universum doch mehr Plan dahinter (ohne jetzt an eine übergeordnete, omnipräsente Macht/Kreatur zu denken)?
Immerhin ist es schon jetzt erstaunlich, wo wir bereits technologisch hingekommen sind, bei den doch sehr beliebig anmutenden Stoffen, die wir zur Verfügung haben. Genauso erstaunlich, wie dass wir überhaupt existieren. Nur mal als Denkansatz.
 
Entwicklungsfortschritte wird es bei CPUs auch in Zukunft geben, nur werden dies nicht in der Steigerung des Taktes liegen, da gibt es andere Möglichkeiten:
1. Mehr Cores
2. Größerer Cache
3. Optimierung der Befehlsausführung (Reduzierung der notwendigen Takte pro Befehl)
4. Schnellere Anbindung des RAM an die CPU.
5. Übergang von 32 auf 64 Bit ist vollzogen, die nächste Stufe könnte 128 Bit sein.
6. Optimierung der Befehlsausführung
usw.
 
Gut, den Ansatz mit dem Graphen ist interessant.

Ausgehend das wird was und wir haben wirklich 500Ghz...wäre das evt eine itneressante Entwicklung zurück, denn, klar, Single core ist und bleibt natürlich einfacher zu programmieren/auszunutzen als ein Netz von 1000 Cores.

Man weiß ja nie.

Ansonsten, ja, siehe Gehirn, Universum, es ist niemals etwas nur 1x da, das Universum macht gerne alles...mehrfach, Planeten, Sonnen, Galaxien, evt sogar Dimensionen :) Künstliche Intelligenz, Quantum Computers, da hat Mensch auf jeden Fall noch einige Jahrhunderte Spielzeug
 
Pyrukar schrieb:
@MK one okay ... nur das wir uns richtig verstehen: du beschwerst dich, dass die TDP bei einem Overclockten System nichtmehr den angegebenen Spezifikationen entspricht? und ja ich weis, dass Moderne CPUs bei guter Külung das Powerlimit kurzzeitig ignorieren und darüber hinausschießen ...

aber du sprichst von 30% leistungseinbusen die du hinnehmen würdest ... wie wäre es denn mit dem 8700t der dürfte je nach anwendung auf nur 20% leistungseinbusen kommen und hat nur 35W TDP wenn du dem das Powerlimit festsetzt bekommst du den locker passiv gekühlt :)

Quatsch ... , selbst der " Energiespar " 8700 T " kommt bei Standard Einstellungen und AVX Nutzung auf 112 Watt Leistungsaufnahme ... mit 35w TDP ....
https://www.computerbase.de/artikel...i7-8700t-i5-8500t-cpu-coffee-lake-test.63655/
35 Watt stimmen, aber ...
Die Probe aufs Exempel mit dem Core i7-8700T zeigt, wie unterschiedlich ein T-Modell damit abschneiden kann. Mit aktiviertem Turbo darf sich der Prozessor inklusive AVX2-Auslastung bis zu 112 Watt Package Power genehmigen. Er operiert dann mit 3,8 GHz für alle Kerne und das sind auch 1.400 MHz mehr als der Basistakt, der für die TDP-Berechnung herangezogen wird. Wird der Turbo deaktiviert, sind es im AVX-Test von Prime95 dann noch immer 45 Watt, bei Anwendungen wie Blender mit maximal 37 Watt hingegen ziemlich exakt die von Intel genannten 35 Watt. Die Leistung fällt dann aber auch deutlich niedriger aus: Mit 209 statt 129 Sekunden dauert der Test auch 60 Prozent länger. ----> so sieht es beim 8700T aus wenn die 35w TDP tatsächlich eingehalten werden ....

Der fade Beigeschmack bleibt
Intels Definition der TDP ist klar verständlich und auch ohne Intels „hochkomplexe Arbeitslast zu kennen nachweisbar. Im regulären Alltag ist die Angabe für die meisten Kunden aber völlig unbrauchbar, denn den über die TDP suggerierten Unterschied zwischen K- und T-Modell findet der Anwender weder bei der Leistung noch beim Verbrauch. Der Grund: Jeder Prozessor wird mit aktivem Turbo-Modus ausgeliefert und die meisten Mainboards nutzen den auch.


Manuell kann man dem entgegensteuern per Long Power Target und short Power Target , aber in der Standard Einstellung ist die 35w TDP Angabe einfach nur eines , fürn Arsch ...
Die beiden oben genannten Bios Optionen kennen 95 % nicht einmal bzw wissen was diese bewirken , sofern das Bios diese Optionen überhaupt bietet .

Passive Kühler können nicht mal kurz die Lüfterdrehzahl hochdrehn .... , aber egal , weil fast alle so denken wie du wird auch künftig ne CPU 50 % mehr Strom ziehen als sie müßte nur um 20 - 25 % mehr Leistung zu erhalten .
Hohe Taktraten sind nur eines , ineffizient ...
 
Zuletzt bearbeitet:
Kommt auch drauf an, ob AMD mit Zen2 ein ebenbürtiges oder sogar besseres Produkt erschaffen kann als Intel.

Wenn's ein Flop wird, tippe ich eher auf wieder Stagnation seitens Intel.
 
Zurück
Oben