CPU Geschwidigkeit am Ende

Was sollte denn die Frage?

Es wird so weitergemacht wie bisher:

Zuerst kommen 2012 Anfang Frühling jetzt mal die 3D-Transistoren. Allein das bietet schon enorme Möglichkeiten. Überlegt doch mal!

Anfangs ist da das simple Stacking von Dies, später geht es richtig in die Höhe. Vor kurzem gab es hier einen Artikel über einen würfelförmigen Speicherbaustein. Das wird die Zukunft sein, auch CPU-mäßig (siehe IBMs-Klebstoff-Technik). Man wird Prozessoren haben, die bis zu 5 cm hoch sind (Extrem, ob es wirklich nur so wenig sein wird...? bleibt abzuwarten)..

Danach, nach den 3D-Transistoren und dem Stapeln in die Höhe (echte 3D), kommt die Spezialisierung. Man wird mehr und mehr Spezialeinheiten in CPUs verbauen. Diese werden, ähnlich dem Power 7 von IBM, immer mehr Takt mitmachen. Warum? Weil diese Einheiten auf reinen Takt ausgelegt sein werden. Entsprechend wenige Transistoren werden diese benötigen und entsprechend klein werden sie gefertigt sein.

Und ja - mehr Kerne wird es natürlich auch noch geben, 8 Kerne sind faktisch schon vorhanden, 16 wird es bald beim Discounter geben, wenns so weitergeht. Bis 64 Kerne macht es noch Sinn. Dann ist Schluss mit Kernen, weil es sich dann nicht mehr lohnt wegen des Overheads! Dann werden es nur noch spezialisierte Einheiten sein.

Wie gehts dann weiter? Nun, entweder Materialwechsel, wie hier schon jemand schrieb - oder die Quantencomputer schlagen durch. Aber ich denke, Quantencomputer werden min. noch 50 Jahre nicht möglich werden für den Heimgebrauch. Von daher wird es solange überbrückt werden, mit anderen Materialen, die immer mehr Takt mitmachen werden.

Wenn man mal die Zeitung gelesen hat. Das künstliche Gehirn ist gerade dabei, Realität zu werden. Von daher wird es irgendwann keinen Prozessor mehr benötigen! Künstliches Gehirn rein, fertig. Funktioniert genau wie unser Gehirn, mit Millionen von Synapsen, die allesamt miteinander verbunden sind. Ein erstes "Mini-Gehirn" wurde schon gebaut von IBM. Es kann derzeit steuern, Richtungen erkennen, es kann selbständig zählen (Zahlen erkennen), es kann Entscheidungen treffen.

Was jetzt noch fehlt in der Hinsicht sind Buchstaben, die erlernt werden müssen. Aber das wird alles in den nächsten 3-5 Jahren kommen. IBM hat es so gesagt, und da ich daran glaube, weiß ich auch, dass die es ernst meinen.

Anmerkung: Ein Quantencomputer ist zwar (theoretisch) schneller als ein Gehirn. Aber - ein Gehirn ist professioneller, kann mehr Entscheidungen treffen. Kurzum: Es kann lernen! Das kann der Quantencomputer nicht, daher nimmt man an, wird er nie rauskommen. Man kann dann also einen lernfähigen Computer (kann man das überhaupt noch so nennen?) bauen mit dem künstlichen Gehirn, der selbständig alle Aufgaben durchführt, die man ihm aufgibt. Probleme? Ja - siehe Terminator *fg* Die Computer könnten ihre "Entscheidungen" in Frage stellen.

Aber das Problem hat man heute auch schon bei gewissen "Saugrobotern" ;)

Alles was ich hier geschrieben habe, basiert auf aktuellen Vorgängen. Wenn sie es schaffen, das "Mini-Gehirn" zu erweitern, wird uns wirklich bald etwas "völlig Neues" erwarten. Eine Welt voller Computer.

Stellt Euch erstmal vor, wenn ein künstliches Gehirn am Fließband produziert wird. Stellt Euch vor, wenn jeder so ein Teil dann am Handgelenk trägt (z.b. in der Uhr) oder im Handy/Smartphone (das braucht man dann nicht mehr so nennen) integriert hat. Praktisch braucht man dann keine "PC" mehr. Man macht alles mit der Power und der Intelligenz eines echten Gehirns.
 
Zuletzt bearbeitet:
Mit Verlaub, die Hälfte, die du da erzählst, stimmt nicht.


Dies kann man nicht beliebig übereinander packen, es gibt da eine Grenze, die durch die Wärmeableitung definiert wird. ZB heutige CPUs sind 1 mm (oder etwas weniger) dick und produzieren locker mal 100 Watt Abwärme. Und jetzt willst du sie übereinander packen? Da hat man dann regelrecht eine Kernschmelze im Zentrum des "Würfels", weil die Wärme nicht raus kann.

Mit mehr spezialisierten Einheiten gehe ich mit. Das sieht man ja heute schon bei den APUs und SoCs.

Wann die höchste Kernzahl erreicht wird, kann man noch nicht abschätzen. Intels Many-Core Architektur arbeitet im Moment mit 80 Kernen, wobei offenbar einige Kerne nur für die Organisation abgestellt werden. Ja, Overhead ist ein Problem.

Zum künstlichen Gehirn ist es noch ein weiter Weg. Meine Erfahrung mit künstlichen neuronalen Netzen zeigt mir, dass da noch mindestens 50 Jahre vergehen, bis man mit denen mehr als nur Mustererkennung machen kann. Und dann würde man diesen Netzen auch keine wichtigen Aufgaben überlassen, da sie durch ihre Konstruktion unübersichtlich sind und - ganz wichtig - Fehler machen!
Man müsste sie noch mindestens mit Aussagen- und Prädikatenlogik kombinieren, dann können sie echte Schlüsse ziehen. Damit überhaupt Wissen da ist, muss man zusätzlich noch Beschreibungslogiken, semantische Netze und eine Inferenzmaschine einbauen. Das alles miteinander zu verbinden, ist kein Pappenstiel. Gerade die semantischen Netzen und die Beschreibungslogiken kommen erst seit den letzten Jahren (Internet sei Dank) aus dem Knick.
Neuronale Netze hingegen treten seit 20 Jahren beinah auf der Stelle. Ein KNN in der Komplexität eines Gehirns (10^11 Neuronen, 10^14 Synapsen) halte ich in absehbarer Zeit auch nicht für herstellbar (CPUs haben aktuell gerade mal bis zu 2*10^10 Transistoren, Synapsen gibt es nicht).
 
@SmartSirius

Das erst einmal so weiter gemacht wird, wie bisher, ist klar... aber so eine Frage dreht sich nicht um die Nahe Zukunft. Und wenn man etwas weiter blickt, muss man einfach einsehen, dass es gewisse Grenzen gibt - und die sind nicht nur physikalischer, sondern vor allem auch wirtschaftlicher Natur.

Es gilt ja immer Folgendes: physikalisch möglich > praktisch möglich > wirtschaftlich möglich.

Was die anderen Techniken anbelangt: Sie haben alle ihr Vor- und Nachteile, so wie die bisherige Aufteilung in CPU (geringe Latenz) und GPU (hoher Durchsatz), was den Rechenproblemen geschuldet ist.

Zum Beispiel: Ein Quantencomputer ist nur bei bestimmten Problemen schneller als ein klassischer Computer.

Und ein Gehirn ist kein Computer... das ist eine Analogie. Künstliche Synapsen und künstliche Neuronale Netze sind Abstraktionen, sie haben mit echten Gehirnen und Synapsen so viel Gemeinsam wie eine Skizze von einem Hund mit einem echten Hund.

Davon abgesehen werden künstliche Neuronale Netze schon seit vielen Jahren in der Praxis eingesetzt, z.B. in Geld- und Münzautomaten... es gibt viele sinnvolle Einsatzfelder. Was IBM macht, ist "lediglich" die Umsetzung solcher Netze in Hardware.

Aber ich glaube nicht, dass eine dieser Technologien den klassischen Computer ersetzen wird.
 
Zuletzt bearbeitet:
mrdeephouse schrieb:
... die Rechenleistung eines Taschenrechners (Casio fx-901) reichte 69 aus um APOLLO 11 auf den Mond zu schicken!...
Hmm. So wie ich die Sache verstanden ahbe hatten die Boardcomputer der Raumkaspel und der Momdfähre zusammen nicht mehr Rechenleistung als ein Taschenrechner von heute. In Houston hatte die NASA allerdings schon weitere Rechner stehen. Viele Berechnungen wurden vor dem Start durchgeführt u, die Boardcomputer waren praktisch nur für den Fall falls die Funkverbindung (zur Bodenstation) komplett abbricht.
Ergänzung ()

SmartSirius schrieb:
Anfangs ist da das simple Stacking von Dies, später geht es richtig in die Höhe. Vor kurzem gab es hier einen Artikel über einen würfelförmigen Speicherbaustein. Das wird die Zukunft sein, auch CPU-mäßig (siehe IBMs-Klebstoff-Technik). Man wird Prozessoren haben, die bis zu 5 cm hoch sind (Extrem, ob es wirklich nur so wenig sein wird...? bleibt abzuwarten)..
Das verursacht – wie e-Laurin bereits geschrieben hat – Probleme mit der Wärmeableitung. Dann muss man noch die Sache mit der EMV berücksichtigen, wenn die Schaltkreise der Chips direkt übereinander liegen ist das HF-technisch problematischer als wenn diese nebeneinader liegen.

SmartSirius schrieb:
Man wird mehr und mehr Spezialeinheiten in CPUs verbauen.
Genau dieser Ansicht bin ich auch. Wir werden vermutlich auch noch AVX3, oder wie immer Intel das nennen wird, sehen beim Skylake.
Bei den Cache-Architektur wird es sicherlich noch weitere Optimierungen geben. Latenz u. Größe.
So ab 2014 wird zudem DDR4-RAM kommen.

SmartSirius schrieb:
Und ja - mehr Kerne wird es natürlich auch noch geben, 8 Kerne sind faktisch schon vorhanden, 16 wird es bald beim Discounter geben, wenns so weitergeht.
Mehr als 8 Kerne sind auf absehbare Zeit in einem Desktop-Rechner für Otto-Normal nicht sinnvoll, würde ich sagen. Die Entwickler kommen mit der Software für Privatanwender nicht nach dass diese auf CPUs mit mehr Kernen spürbar schneller läuft, von einigen Spezialanwendungen mal angesehen, z.B. Videoencoding.

Der Trend zu mobileren Geräten ist ungebrochen. In wenigen Jahren werden Smartphones die Rechenleistung von heutigen Notebooks haben.
 
Zuletzt bearbeitet:
Zurück
Oben