News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

Galium Arsenit, wobei das nen Teufelszeug ist, das willst du nicht im Heimrechner haben. Die zerbrochenen Athlons waren nen scheis dagegen... Das ZEug ist spröde bis dort hinaus. Den Einbau würde kaum ne CPU überleben...

Ansonsten noch Nanotubes und Graphen. Beides ist aber noch zich Jahre weg von der Marktreife. Mit ganz viel Glück wird es mit 2020 was, aber ich glaube nicht dran. Eher was in Richtung 2030. :ugly: Und das auch nur, wenn die Forschung und vorallem das Budget massiv ausgebaut werden!

Ansonsten bleibt noch der Quantencomputer, aber das ist auch so ne Sache. In Forschungslabors gibt es vielleicht schon welche, die kurz laufen, aber nichts, was für den PRoduktiveinsatz brauchbar ist. Da sollte man auch vor 2020 nichts erwarten, eher 2030 oder gar 2040.

Und selbst dann wird das nicht @home stehen, sondern einzelne Rechner in Großrechenzentren. Der technische Aufwand ist einfach abartig, um die nötigen Umgebungsbedingungen zu erstellen. Wer hat schon flüssigen Stickstoff daheim?
 
carom schrieb:
So ist das mit Gesetzmäßigkeiten doch immer, wie soll es auch sonst sein? Die Physik hält sich auch nicht an das Ohmsche Gesetz, nur weil Herr Ohm das so wollte.

Das Ohmsche Gesetz ist ist ein Naturgesetz, da kann man nichts dagegen machen. Dagegen ist das Moorsche Gesetz eher eine Hypothese oder Behauptung, ähnlich wie "Murphys Law", das Wort "Law" kann man meiner Meinung nach nicht 1:1 ins deutsche übernehmen.
 
Es ist aber eine selbsterfüllende Prophezeiung ;)

Die Leute arbeiten darauf zu, dass die Vorhersage sich auch weiterhin bewahrheitet, das hat bisher gut geklappt, aber in Zukunft rennt man halt einfach gegen physikalische und ökonomische Wände, die man nicht mehr einreisen kann. Irgendwann ist halt einfach schluss.
 
Tja, sobald sie entsprechende Supraleiter in Verbindung mit Halbleiter Eigenschaften gefunden haben wird die Show weitergehen. Ich hoffe bis 2020 sind sie da ein gutes Stück weiter als jetzt.
 
Könnte man nicht dann z.B bei 7nm bleiben und dann einfach die Chipfläche größer machen?
Das wird eine Zeit lang machbar sein, allerdings benötigt man, wie Skysnake bereits beschrieben hat, mehr Energie und die Abwärme wird keine Luftkühlung der Welt abführen können.

Außerdem spielt auch hier der, in der News erwähnte, ökologische Aspekt ein Rolle: Die Ausbeute für Intel sinkt, da weniger CPUs pro Wafer gebaut werden können.

Mit Transistoren auf Siliziumbasis kommt man also nicht weit.

Die Sprünge würden vielleicht nicht mehr so rießig... aber dann nimmt man hald 16 Cpus... statt nur Dual oder Quad....
Hier ist die Softwareindustrie gefragt, die auch heute bei vorhandenen Dual- und Quadcore CPUs immer noch nicht ausreichend Multithreading-optimierte Lösungen in einem Maße anbietet, wie man es sich wünschen kann.
Solange da nichts passiert, bringt eine Erhöhung der Kerne nur sehr, sehr wenig.
 
Zuletzt bearbeitet:
Whoozy schrieb:
Man versucht uns mitzuteilen, das was man auch schon vor 5 Jahren gesagt hat, genau das gleiche, im Jahr 2020 soll "schluss" sein.
Anders zu früher, kann man schon heute mit 110mm²-Dies Essential-Notebooks & Desktops auszurüsten.
Und wenn die 28nm-Fabriken abbezahlt sind, können diese 28nm-110mm²-Dies erst recht günstig hergestellt werden.

Ich denke nicht, dass es von heute auf Morgen völlig Schluss ist, sondern dass dieser 2 Jahres-Rythmus vielleicht auf 5 Jahre usw verlängert wird. Ähnlich wie bei den Wafergrößen, deren Intervalle genauso immer länger wurden
http://de.wikipedia.org/wiki/Wafer
Sowie könnten in Zukunft ähnlich wie G450C alle zusammen forschen, was man in den letzten Jahren mit immer mehr Allianz-Mitglieder genauso schon beobachten kann.

Im Grunde sind die Probleme bei Foundrys schon länger Sichtbar.
Denn die neue Fertigung hat nicht nur schlechtere Yields, sondern auch noch teuere Wafer-Kosten (sagen wird mal 4000$ @ 28nm während 40nm nur 2000$ kostet). Damit wären die Kosten-pro-mm² ungefähr gleich, sodass bei der neueren Fertigung "nur" die schlechteren Yields überbleiben.
Also, damit bei der neuen Struktur-Verkleinerung der Yield-Nachteil kompensiert werden kann, muss die zusätzlich Performance überproportional genutzt werden. Und da liegt das Problem, wenn es schon heute Märkte gibt, die die zusätzliche Performance bei weite nicht mehr wie früher brauchen und die überproportionale erst recht nicht. (Siehe z.B. iGPUs, die aufgrund VRAM-Speicher & Platnie eben generell sehr stromsparend sind und jetzt schon für viele völlig ausreichend sind.)

Und genau das meinten sie schon bei Hot-Chips.

Produkt und Marktsättigungen sind im PC-Markt schon seit Jahre zu sehen.
Durch den Smartphone & Tablet-Boom war es vielleicht nicht so sichtbar, aber auch hier könnte es bald zur einer gewissen Sättigung kommen
Q . schrieb:
Intel könnte außer Silizium ja auch mal ein anderes Material verwenden. Germanium bspw.

MMn. werden wohl aber optische Chips die jetzigen beerben. Und ich denke 2020 ist dann noch lange nicht Schluss.
Genau deshalb ist es sinnvoll über das Ende zu reden, dass mit Technologie-Entwicklungen die Fertigung verbessert werden kann.
 
Ich würde mal behaupten, so schnell wie die Technik bzw. die technische Entwicklung in den letzten 10 bis 15 Jahren fortgeschritten ist, kann man nur schwer sagen wohin die Richtung geht. Durch moderne Wissenschaft, neue Fertigungsverfahren und intensiver Forschung wird es IMMER Lösungen und Wege geben.

Dieses Phänomen erstreckt sich von softwareseitiger Entwicklung über Speicherlösungen bis zu Endanwenderprodukten wie Smartphones, Fernsehern oder beispielsweise eben auch CPU´s. Alleine über das Thema Graphen könnte man hier Bände schreiben, ganz zu schweigen von der Idee von biologischen Chips, die gänzlich auf Metalle oder Plastik verzichten und auf "Bakterienkulturen" (lapidar gesagt) basieren.

Wir leben in einer spannenden Zeit, ich denke bezüglich Technik ist es mindestens so spannend und vergleichbar wie zu Zeiten der industriellen Revolution :) Und es wird immer weiter gehen, Innovationen und Forschung treiben uns stets voran.
 
Star Trek Voyager machts doch vor was noch an Technik kommt , bioneurale Gelpacks ;)
 
Smeagol42 schrieb:
Das Ohmsche Gesetz ist ist ein Naturgesetz, da kann man nichts dagegen machen. Dagegen ist das Moorsche Gesetz eher eine Hypothese oder Behauptung, ähnlich wie "Murphys Law", das Wort "Law" kann man meiner Meinung nach nicht 1:1 ins deutsche übernehmen.

Gesetzmäßigkeiten (in der Wissenschaft, nicht in der Rechtssprechung) werden von einem Sachverhalt abgeleitet und nicht andersherum, darum ging es. Ob das nun eine Hypothese oder sonstwas ist, war ja gar nicht die Frage. Jedenfalls gilt das Moor'sche Gesetz nicht deswegen, weil Moore es den Herstellern so vorgeschrieben hat.
 
Zuletzt bearbeitet:
Q . schrieb:
Intel könnte außer Silizium ja auch mal ein anderes Material verwenden. Germanium bspw.
(...)
Ge ist aufgrund seiner etwa halb so großen Bandlücke gegenüber Si bei Raumtemperatur ziemlich rauschig, daneben dann noch:

aivazi schrieb:
Der einzige zwei Gründe warum man auf Silizium setzt ist dass es mega günstig ist und in ziemlich großen Mengen verfügbar ist, Germanium wäre abgesehen vom Rohpreis wahrscheinlich auch in der Reinigung verdammt teuer natürlich wäre das eine alternative aber zu welchem Preis ? ^^
Dazu kommt, dass man einzig für Si einen richtig guten Isolator, nämlich SiO2, am Start hat. Den braucht man überall dort, wo man im Chip Komponenten elektrisch von einander trennen muss. Gleichzeitig ist SiO2 vergleichsweise einfach herzustellen indem man einfach Sauerstoff oder Wasserdampf über die Wafer-Oberfläche bläst. Bei Ge wüßte ich dagegen nicht, dass so ein Isolator entsteht bzw. ebenso einfach herzustellen ist.
Die Reinigung von Si und Ge unterscheidet sich übrigens nicht sonderlich, lediglich die natürliche Häufigkeit. Si muss ebenso unzählige Prozessschritte durchlaufen bis es in einer ausreichend hohen Reinheit vorliegt, um damit CPUs /GPUs zu bauen. Dieser Umstand ist auch die Hauptmotivation für die Forschung an schmutzigen Solarzellen - also Solarzellen die aus "dreckigem" poly-Si aufgebaut sind und gegenüber konventionellen Solarzellen zwar schlechter funktionieren aber in der Herstellung dafür auch deutlich günstiger sind.

Skysnake schrieb:
Galium Arsenit, wobei das nen Teufelszeug ist, das willst du nicht im Heimrechner haben. Die zerbrochenen Athlons waren nen scheis dagegen... Das ZEug ist spröde bis dort hinaus. Den Einbau würde kaum ne CPU überleben...
Wenn man noch den ganzen Zoo der 3-5 und 2-6 Halbleiter hinzunimmt, bekommt man zwar einerseits größere Auswahl, andererseits haben die ganzen Verbindungshalbleiter alle zwei große Probleme gemeinsam:

a) man muss nicht mehr ein sondern gleich zwei Ausgangsmaterialien reinigen, und liegt in der Reinheit aktuell noch hinter Si (dessen hohe Reinheit bzw. Reinigungsprozesse hat man übrigens auch nur deswegen so gut im Griff, weil Si eben fast überall in der HL-Branche eingesetzt wird)

b) die Herstellung von durchweg homogenen 50-50 Verbindungen aus zwei Materialien mit unterschiedlichen Schmelzpunkten ist verglichen mit der einfachen Czochralski-Züchtung von Si wesentlich aufwendiger. Den Schritt weg von Si und hin zu irgendwelchen Verbindungs-HL geht man daher idR nur, wenn man eine spezielle Eigenschaft (zB das schnellere Schaltverhalten von GaAs) unbedingt braucht und dafür alle damit verbundenen Probleme (kein natürliches Oxid, mehr Verunreinigungen, teurere Herstellung usw) in Kauf nimmt.

So lange die ich sag mal "Mainstream"-HL-Industrie nicht kollektiv zu einem neuen Material hingeht, ändert sich da auch nicht viel. Und dann wäre das nächste Problem, wenn man jetzt zB auf Ge oder GaAs wechseln würde, naja das Miniaturisierungsproblem hätte man damit immernoch nicht gelöst. Ge-Atome sind größer als Si-Atome, womit man schon früher in das theoretische "wir können nicht kleiner als ein einzelnes Atom bauen"-Limit rennt, und GaAs hat aktuell nicht die notwendige Reinheit, um darauf zuverlässig Strukturbreiten im kleinen zweistelligen nm-Bereich zu erzeugen.

Schlussendlich würde der Wechsel zu einem anderen Material entweder einfach nichts bringen bzw. man wirft sich selbst mehrere Jahre zurück weil man mit der Reinigung wieder "von vorne" anfangen muss. Mit Si haben wir bereits einen der bzw. den leichtesten und auf atomgrößen bezogen kleinsten intrinsischen Halbleiter am Start, dessen Ausgangsmaterial (Sand) in großen Mengen vorliegt und dessen Reinigung man in den letzten Jahrzehnten kontinuierlich verbessert hat.

Ich sehe eher den Abschied von klassischen CMOS als Grundbaustein, aber wo die Reise hingeht ist aktuell noch unkar. Quanten-Computing ist so ne Sache, Carbon Nanotubes und Graphen und so die ganzen Geschichten sind auch ganz interessant, aber ob und wenn ja wann man mit einem davon Chips auf Si/CMOS-Basis ablösen kann, man weiß es nicht.
 
wo ist das Problem.
Die Quantencomputer pfeifen auf das morsche Gesetz, und früher oder später werden die unsere jetzigen Computer weit in den Schatten stellen.
 
hallo7 schrieb:
Tja, sobald sie entsprechende Supraleiter in Verbindung mit Halbleiter Eigenschaften gefunden haben wird die Show weitergehen. Ich hoffe bis 2020 sind sie da ein gutes Stück weiter als jetzt.
Fraglich, ob es überhaupt Stoffe mit den Eigenschaften eines Supraleiters bei Raumtemperatur gibt, momentan halte ich das für unwahrscheinlich, aber lasse mich gerne überraschen... ;)
Und dann stellt sich noch die Frage, ob man diese überhaupt in einem Halbleiter verwenden kann - das liegt vermutlich sehr sehr weit in der Zukunft.

Voyager10 schrieb:
Star Trek Voyager machts doch vor was noch an Technik kommt , bioneurale Gelpacks ;)

Wie war das nochmal mit den Infektionen, die die Gelpacks bekommen konnten? ;) Das würde "Computer-Viren" einen ganz neuen Sinn geben!

BTT: Natürlich ist es abzusehen, dass Moore's Law irgendwann nicht mehr einzuhalten ist, spätestens wenn ein Gate nur noch aus wenigen Ladungsträgern besteht.
Ich finde es schon erstaunlich, wie lange man das "Law" aufrecht erhalten konnte, das ist schon aller Ehren wert.

Aber warten wir mal ab was passieren wird, wenn man das Ende erreicht hat. Aktuelle Architekturen heben sich von ihren Vorgängern in Sachen Leistung jetzt schon kaum noch ab (siehe IPC-Verlauf bei AMD und Intel) und die höhere Leistung wird meist durch die Anzahl der Transistoren bestimmt.

Gerade aus diesem Grund finde ich die Forderung, jetzt schon über Alternativen nachzudenken, sinnvoll, damit wir in ein paar Jahren keinen Stillstand erleben. Auch wenn man zugeben muss, dass die aktuell zur Verfügung stehende Leistung locker ausreicht und viel Potential noch in Softwareoptimierung steckt. Wer weiss, vielleicht setzt sich auch AMDs HSA-Ansatz durch?

PS: Einfach den Chip zu vergrößern wird keine Lösung sein, da sich der Preis direkt mit der Chipfläche erhöht.
 
Skysnake schrieb:
Ganz abgesehen davon handelst du dir ganz neue Probleme ein, weil es mehrere Takte dauert, bis ein Signal vom einen Ende des Chips zum anderen kommt. Viel Spaß bei der Cachecohärenz usw....

Macht nix, dann erhöhen wir einfach die Lichtgeschwindigkeit! :D

aivazi schrieb:
Der einzige zwei Gründe warum man auf Silizium setzt ist dass es mega günstig ist und in ziemlich großen Mengen verfügbar ist, Germanium wäre abgesehen vom Rohpreis wahrscheinlich auch in der Reinigung verdammt teuer natürlich wäre das eine alternative aber zu welchem Preis ? ^^

Naja Germanium ist an sich super, aber halt nicht bequem in der Fertigung. Aufs Silizium als Haupt-Halbleiter ist man ja eigentlich nur gekommen, weil man mit dem Siliziumdioxid superdupereinfach direkt und präzise einen Isolator auf dem restlichen Chip erzeugen kann, während das anderswo nicht so einfach geht und diverse Prozessschritte zusätzlich erfordert. Aber man rückt ja momentan bei Highend-Anwendungen wie CPUs eh wieder davon ab, weil SiO2 zwar gut, aber nicht exzellent ist. Und bei den paar Atömchen Isolator-Schichtdicke, die man heute noch machen kann, ist Hafniumoxid (z.B.) halt haushoch überlegen, wenngleich sackteuer. Aber bevor man gar nicht weiter schrumpfen kann, nimmt man das halt in Kauf...

Tapion3388 schrieb:
PS: Einfach den Chip zu vergrößern wird keine Lösung sein, da sich der Preis direkt mit der Chipfläche erhöht.

Blöderweise schlimmer als linear, aus statistischen und auch geometrischen Gründen...
 
Ende von Moore's Law?
Wenn sie es nicht weiter verkleinern können, dann müssen sie das Silizium eben in andere Dimensionen auslagern. Platz ist dort genug vorhanden!

Außerdem fängt 2020 dann der Multicore Spaß erst richtig an - mit tausenden Kernen und Parallelberechnungen....
 
Zuletzt bearbeitet von einem Moderator:
can320 schrieb:
Ende von Moore's Law?
Wenn sie es nicht weiter verkleinern können, dann müssen sie das Silizium eben in andere Dimensionen auslagern. Platz ist dort genug vorhanden!

Außerdem fängt 2020 dann der Multicore Spaß erst richtig an - mit tausenden Kernen und Parallelberechnungen....

Das rettet dich aber vielleicht 3-4 Jahre, lass es gut gehen und 10 Jahre sein, aber dann ist wieder ende Gelände und du stehst vor den selben Problemen.

@Quantenverschränkung usw.
Damit kannst du aber keine Information übertragen...
 
wie schon gesagt nochmehr cores macht irgendwann keinen sinn, eine gtx titan hat 7,1 mrd transistoren und 2880 "cores"

größeres chips, auch in einem kleinen nanometer verfahren , sind immer sehr komplex störungsanfällig und verbrauchen viel zu viel, siehe titan.

carbon nanoröhrchen und IBM werdens reißen. die aussichten werden denke ich da absichtlich etwas düsterer dargestellt als sie sind. die grundlagenforschung für 2020 läuft schon sehr lange IBM hat schon alles mögliche an transistor getestet.

ich denke auch dass intel den 3D transistor noch nicht zu seiner vollen blüte gebracht hat.

denen wird noch was einfallen die nächsten 7 jahre. gerade mit den nano röhrchen und graphen was von einem mitglied schon erwähnt wurde das bietet riesiges potenzial
 
can320 schrieb:
Damit kann man aber angeblich keine Informationen/Daten übertragen.....
Sorry, aber du hast es dann einfach nicht verstanden. ;)
Die Daten werden nicht übertragen, sie werden teleportiert, Zeitfaktor null.
Quantenphysik ist verrückt und unvorstellbar in vielen Punkten, schau dir gerne beispielsweise auch mal Spaltversuche an, aber es ist real und bewiesen.
 
Zuletzt bearbeitet:
florian. schrieb:
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will...

naja naja.....dein kommentar bewegt sich in einer "grauzone" zwischen richtig und falsch ;) je mehr transistoren auf einer konstanten fläche desto besser. ihr beachtet aber nicht, was moore's law genau aussagt. es geht darum, dass sich alle zwei jahre die anzahl der transistoren, die auf einer festgesetzten fläche (annahme) passen sich verdoppeln. sprich, wenn moore's law nicht mehr gilt, dann kann es sich immer noch um 0,1-1,7fach alle zwei Jahre steigern.
 

Ähnliche Themen

Zurück
Oben