CPU Geschwidigkeit am Ende

IchmagToast schrieb:
Für den normalen Michel bedarf es derzeit keine höhere Leistung, als vorhanden.

Klar gehts weiter ... die Rechenleistung eines Taschenrechners (Casio fx-901) reichte 69 aus um APOLLO 11 auf den Mond zu schicken! - damals das non plus ultra ...
 
Ach ja: Die theoretisch mögliche mindest-Isolationsdicke beträgt 3 Atomlagen.

Machen wir aus diversen Gründen eine 'praxisnahen' Wert von 30 Atomlagen draus. Daumen*Pi sind das gerade Mal 3 nm. Bis dahin ist es noch ein verdammt weiter und langer Weg, wenn die Strukturbreite alle 3 Jahre um 20% Schrumpft.;)

(kommt das mit den 20% hin?)

Wie geht die Kette: 22, 32, 45, 60, 90, 130, 180, 350, 600, 800nm
Das sind die Fertigungsgrößen von 1994 bis heute.;)
Ich hoffe ich habe keine vergessen.
 
Zuletzt bearbeitet:
cyberfoxy schrieb:
Wer sagt denn, dass es bei µm bleibt? Es wird mit pm weitergehen und so weiter und sofort.

Aber so wirklich kann dir keiner einer "richtige" Antwort geben, aber eins ist sicher: Es wird immer weiter gehen;)


banane es geht nicht weiter in den Picometer Bereich, Wasserstoff Atome selbst haben einen Durchmesser von 1*10-10m das sind exakt 1 Picometer, aber du musst bedenken dass Silizium 3 Schalen besitzt, da kann man sich mit der Bohrschen Formel einfach Berechnen dass Silizium größer ist als ein Wasserstoff Atom ergo auch kein pm Bereich
 
Zuletzt bearbeitet:
cyberfoxy schrieb:
Wer sagt denn, dass es bei µm bleibt? Es wird mit pm weitergehen und so weiter und sofort.

Sicher nicht. Man kann die Transistoren nicht unendlich klein machen. Irgendwann isoliert die Sperrschicht nicht mehr, da sie einfach zu dünn wird. Das Limit diesbezüglich wird in den nächsten 10 Jahren wohl erreicht werden. Und dann muss man sich was Neues einfallen lassen. Intel geht mit den 3D Transistoren ja bereits in diese Richtung.
 
Atomdurchmesser Silizium: 0.12nm
Bindungslänge Si-Si: 0.233nm
25 Atomlagen= 25*0.12+24*0.233=8,59nm.
Viel weiter wirds dann nicht mehr gehen. Bei ~6nm Strukturbreite wird erstmal Schluss sein.
(in meiner Rechnung sind keine Grenzflächeneffekte berücksichtigt)

Aber vielleicht gehts dann weiter zu anderen Materialien oder neuen Materialkombinationen, die wesentlich schneller schalten können als klassisches Silizium.
 
Zuletzt bearbeitet:
Was machen sich denn manche über diese Frage lustig?Wenn man Anfänger in dem Gebiet ist kommen solche Fragen.Ihr billigen Kaufhauscops habt manchmal auch nichts besseres zutun als nur dumme Sprüche zu klopfen.

Das Forum ist ja für solche Fragen da oder? Egal ob sie komisch sind oder nicht.
 
Sherman123 schrieb:
Atomdurchmesser Silizium: 0.12nm
Bindungslänge Si-Si: 0.233nm
25 Atomlagen= 25*0.12+24*0.233=8,59nm.
Viel weiter wirds dann nicht mehr gehen. Bei ~6nm Strukturbreite wird erstmal Schluss sein.
(in meiner Rechnung sind keine Grenzflächeneffekte berücksichtigt)

Aber vielleicht gehts dann weiter zu anderen Materialien oder neuen Materialkombinationen, die wesentlich schneller schalten können als klassisches Silizium.

An diese Möglichkeit hab ich noch nicht gedacht.
 
War es nicht auch mal Bill Gates, der meinte, dass man unmöglich mehr als 32 MB Speicher nutzen könnte?

Das ist kein besonders guter Einwand. Warum? Bei solchen Einwänden wird immer vergessen, wie viele Ansichten darüber, was noch möglich sein könnte, sich als falsch herausgestellt haben und wie viele Ansichten, was auch zu einem späteren Zeitpunkt nicht möglich sein wird, sich bis heute bewahrheitet haben.

Wo die Grenze sein wird, werden wir im Rückblick wissen.

Quantencomputer sind vermutlich nicht die Lösung... zumindest für den Heimbereich. Was nützt einem ein Quantencomputer bei seriellen Problemen? Er ist perfekt für (quanten)physikalische Berechnungen, weil man nicht mehr an die klassische Mathematik gebunden ist.
 
Zuletzt bearbeitet:
Ich vermute sehr stark, dass sich die CPUs mehr an der Architektur der GPUs orientieren werden.
Nach meiner Vorstellung wird es dann einfach nur noch eine Ansammlung von Recheneinheiten, die getrennt von den anderen Einheiten laufen. AMDs Bulldozerdesign geht etwas in diese Richtung, wenn man auf die FPU schaut. Die kann teilweise einfach an einen anderen Core übergeben werden, wenn dieser es benötigt.
Wenn man das Ganze ähnlich wie bei einer GPU aufzieht, hat man dann am Ende eine CPU mit hunderten Recheneinheiten, die parallel hunderte Threads bearbeiten können. Vielleicht sogar tausende.

Das Vorbild hier ist die GPU mit seinen tausenden Shadern (= "Threads"). Bei GPGPU sieht man ja, wie viel Leistung eine derartige Architektur erbringen kann, auch wenn sie aktuell nur für relativ wenige Anwendungsgebiete einsetzbar ist.


Quantencomputer gibt es bereits. Aber leider sind sie sehr speziell. Einige Probleme können sie in erstaunlich kurzer Zeit berechnen, aber als universelle Recheneinheit taugen sie (aktuell) nicht. Vielleicht in 40 Jahren.


Was bleibt, ist der Ansatz in Richtung der Many-Core-Architektur (siehe Intel) zu gehen. Das verspricht imo für die nächste Zukunft (10 - 15 Jahre) die beste Idee zu sein.

Ansonsten bleibt noch die Idee, vom Silizium weg zu anderen Materialien zu gehen. Ich hab gehört, mit Gallium kann man 30 GHz-Chips basteln. Das bringt einen wieder etwas nach vorne.
 
Nicht jede Software lässt sich beliebig parallelisieren; Simulationen, mathematische Berechnungen usw. natürlich schon.
Aber würde massives aufstocken der Kern-Zahl die effektiv-nutzbare Leistung erhöhen, würde man es höchstwahrscheinlich schon machen, bzw. die Arbeit auf GPU's auslagern (wird aber wie gesagt zur Zeit nur bei speziellen Anwendungen gemacht). Als Universalrechner taugen solche Recheneinheiten aber allem Anschein nach nicht.
 
Quantencomputer gibt es bereits.
Nein, die gibt es nicht.;) Irgendeine US-Firma spammt alle paar Monate mit ihrem Quantenprozessor herum - das Ding hat aber leider nichts mit einem Quantencomputer gemeinsam.
Ich denke eher nicht, dass die Reise in Richtung GPU geht.
 
Doch, doch, die gibt es schon - im Labor und nur als Experiment. Siehe Wikipedia.
 
Mit derzeit praxistauglichen Lithografieverfahren lassen sich keine feineren Strukturen als ca. 15 nm in Großserie fertigen; Lithografieverfahren für noch feinere Strukturen befinden sich noch im Prototypenstadium, noch nicht tauglich für die Serienfertigung von Si-Chips.
Ich würde Sherman zustimmen, so im Bereich um die 8 nm ist def. Schluss mit weiterer Verkleinerung, zumindest bei der bisherigen Si-CMOS-Technologie.
Meiner Vermutung nach werden eher Prozessoren mit noch mehr Kernen auf den Markt kommen als dass die Taktfrequenz deutlich steigen wird. So um die 5 GHz wird wahrscheinlich die sinnvolle Obergrenze sein, weil darüber zuviel in Wärme verbraten wird.
 
WinnieW2 schrieb:
Mit derzeit praxistauglichen Lithografieverfahren lassen sich keine feineren Strukturen als ca. 15 nm in Großserie fertigen; Lithografieverfahren für noch feinere Strukturen befinden sich noch im Prototypenstadium, noch nicht tauglich für die Serienfertigung von Si-Chips.

Aber haben wir nicht noch min. 6-7 Jahre bis dahin? Erscheint mir jetzt nicht unüblich einen so langen Vorlauf für ein Fertigungsverfahren. Oder ist das sogar zu knapp?


Grüße,

Giessl
 
Könnte zu knapp sein, da die Chiphersteller weder mit dem Wirkungsgrad noch mit dem Tempo der Prototypenbelichtungsanlagen zufrieden sind und das bei gleichzeitig steigenden Kosten für die Anlagen.

Aber AMD hat bereits jetzt genug Probleme mit der Produktion von 32 nm Strukturen und auch TSMC meldet Verzögerungen mit der Produktion in 28 nm.
Bei Intel läuft die Serienproduktion in 22 nm gerade an, trotzdem verschiebt das Unternehmen den Verkaufsbeginn der Ivy Bridge CPUs.
Die Probleme werden nicht weniger, eher mehr, je feiner die Strukturen werden.
 
Mir stellt sich da eher die Frage, wozu man noch mehr Leistung benötigt, als ein aktueller Sandy Bridge-Prozessor leisten kann?

Die Diskussion war und ist immer diesselbe: "Wozu braucht man einen Dopperkern", "Wozu braucht man einen Quad" ...
Die Antwort ist: Man braucht's. Die Ansprüche steigen kontinuierlich.


Ich denke auch, in den nächsten Jahren wird es mehr darum gehen, die Anzahl der Kerne zu erhöhen. Was auch Sinn macht.
Warum wir immernoch drauf warten müssen, daß Intel einen einigermaßen erschwinglichen 6-Kerner rausbringt, bleibt ein Rätsel
 
@chris233

Mir ist das kein Rätsel. Dein Q6600 schafft 28 Gflops bei SiSoftware Sandra 2010 Pro, ein i7 2600 83,3 Gflops. Bei Haswell zum Beispiel sollte bei gleicher Taktfrequenz wie dein q6600 und 4 Kernen ohne HT die theoretische FP-Leistung das 4-fache betragen.

Es gibt mehr Möglichkeiten, die Leistung zu verbessern, als eine höhere Taktfrequenz und mehr Prozessorkerne.
 
Zuletzt bearbeitet:
Wenn ich mich dunkel an unseren früheren Physikunterricht erinnere, soll es mit der Strukturbreite bis etwa 10nm gehen und danach dann in die Optik so in etwa gehen. Keine Garantie, ob ich mich richtig erinnere. Aber auf jeden Fall hatten wir das Thema Optik da.

Nach 22nm vermute ich noch 16 und 10nm. [/Glaskugel]

Ich meine, die Nvidia TNT Riva 2 in meinem Notfallrechner hat 230 oder 250nm, und der Pentium 3 auch.
 
Wenn man in einschlägigen Fachzeitschriften die Artikel zu Quantencomputern ließt, merkt man doch sehr stark, wie weit die Grundlagenforschung dort noch voranschreiten muss.
Man ist gerade mal in der Lage, ein Paar von den benötigten Teilchen in einer "Falle" zu halten, um sie irgendwie zu stimulieren, aber bis tatsächlich mathematische Probleme auf diese Art gelöst werden können, ist es noch ein weiter Weg.

Ich denke, wir werden erstmal über Einzelelektrontransistoren und andere "normale" Techniken gehen, bis etwas gänzlich neues die Halbleiterchips ablöst.
Aber wenn es soweit ist, will ich das auf jeden Fall noch miterleben :D

Grüße
jusaca
 
Zurück
Oben