News TSMC: „Moore's Law“ hält noch 6 bis 8 Jahre

Auf der anderen Seite weiss man nicht was man mit der verbesserten Fertigungstechnik anfangen soll.

Früher haben die Chipdesigner nach mehr Transistoren gelechzt aber alles was denen jetzt einfällt ist wie noch mehr Transistoren? Dann packen wir noch ein Kern auf den Chip.
 
Legolasvegas schrieb:
Ich glaub nicht, dass es zu dem schreckensszenario kommt bei dem auf einmal kein Wachstum mehr möglich ist weil die Rechensysteme sich niht weiter entwickeln.

Die Frage ist, ob das jetzt wirklich ein Schreckensszenario ist. Für den Heimbereich sehe ich, wie schon geschrieben, wenig Grund für deutlich steigende Anforderungen an die Hardware. Bei Supercomputern ist es immer eine Frage des Aufwands und der finanziellen Mittel die man bereit ist zu zahlen. Es wäre theoretisch kein Problem die heutigen Modelle einfach 100mal größer zu bauen. Ja dann braucht man eben mehr Platz und mehr Strom, scheitern wird es also am Ende weniger Aufgrund technischer Gründe sonder wie immer am liebem Geld.
Irgendwelche Mind-Upload und Singularitätsszenarien mal ausgeklammert ;)

---
Transistoren sind ja auch nicht alles. Durchaus möglich das man sich in Teilbereichen in komplett andere Richtungen entwickeln wird. DNA Computer, Quantencomputer,... Memristoren als Ersatz für Speicher, denkbar ist da vieles, wer sagt das wir immer Binär bleiben müssen?. Da gibt es dann ganz andere limitierende Faktoren als die Fertigungsgröße und der Stromverbrauch.
 
Zuletzt bearbeitet:
Okay ich korriegiere es keine wirtschaftlich und bezahlbares Wachstum mehr gibt *grins*
 
Ich benoetige nichts neues mehr sondern ggfs ersatz.. ich denke das wird vielen konsumenten in europa, japan, usa langsam so gehen...

von mir aus braeuchten wir keine einzige innovation mehr ausser vlt in richtung medizin..
 
@ 7bf
Die Frage ist, ob das jetzt wirklich ein Schreckensszenario ist. Für den Heimbereich sehe ich, wie schon geschrieben, wenig Grund für deutlich steigende Anforderungen an die Hardware.
Sehe ich auch so. Im Heim/Privatbereich brauch man imo keine so rassante Leistungsentwicklung. Allerdings hast du vergessen, dass damit auch die Entwicklung der Energieeffizienz auf der Strecke bleibt und diese ist den Leuten heutzutage dafür umso wichtiger ;)
 
es ist doch egal ob ein Chip oder eine Milliarde Chips pro Prozessor zum Einsatz kommen, das ist Prozessor-Architektur und hat mit dem Moorschen Gesetz absolut nichts zu tun!

Moore formulierte ein Gesetz, das besagt, dass bei gleichbleibenden Fertigungskosten alle zwei Jahre eine Verdoppelung der Transistorenzahl pro definierter Fläche bei integrierten Schaltkreisen stattfindet.

Wenn nun ein Prozessor eine Fläche von 0,5 cm² hat und da 1998 7 Mio Transistoren drauf waren, dann müssten laut Moore im Jahr 2000 bei gleicher Fläche min. 14 Mio Transistoren vorhanden sein um das Gesetz zu bestätigen.

Das hat nichts mit Rechenleistung zu tun!
Das hat nichts mit Effektivität und Verlustleistung zu tun!
Das hat nichts mit der Prozessorarchitektur zu tun!
Das hat nicht mal etwas mit Personal Computern zu tun es geht lediglich um integrierte Schaltkreise, die findet man auch in Kaffeemaschinen mit LCD Anzeige oder Taschenrechnern oder EC-Karten wieder...

Anzahl der Rechenkerne pro CPU erhöhen bestätigt das Gesetz per se nicht. Architektur optimieren um die Rechengeschwindigkeit zu erhöhen hat mit Moores Gesetz gar nichts zu tun. Um Geschwindigkeit ging es dabei nicht - lediglich um Fertigungstechnologien und die sind leider Endlich, Subatomar wird schwer, wenn jeder erst mal einen Teilchenbeschleuniger zum aufspalten der Atomkerne benötigt... Aber das hat wie gesagt nichts mit der Effizienz oder Geschwindigkeit oder Größe der Objekte oder oder oder zu tun, lediglich mit der Anzahl an Transistoren pro Fläche... und Fläche ist dabei grundsätzlich zweidimensional zu verstehen, sonst wäre es keine Fläche sondern ein Volumen...

Aber das muss auch nicht jeder verstehen ;)

Grüße
 
hi
NMB schrieb:
und falls quanten und graphen doch noch auf sich warten lassen, gibts ja noch die 3. Dimension,...
bei 7 layer pcb's wird da wohl auch nicht mehr soo viel kommen.

mfg
 
EdgarT schrieb:
@Iapetos: Ist ja in Anführungszeichen, da Englisch und somit korrekt (engl. Genitiv -> mit Apostroph). Anglizismen müssen ja schon richtig geschrieben werden ^^ Ob das jetzt einer ist, da bin ich mir aber nicht so sicher.
Mag sein, aber es ist immer noch das moorsche Law, und nicht das "moor'sche" Law/gesetz/Was auch immer.
Nur in Anfuehrungszeichen ist es richtig. Sprich, das erste Mal stimmt es, danach ist es immer falsch.

Zum Thema: Ich denke auch, dass es langsam echt schierig wird. Denn spaetestens bei 1 Nm wird es kriminell. Kleiner als Atom geht (noch) nicht.
 
Zuletzt bearbeitet:
Sebbl2k schrieb:
Ich benoetige nichts neues mehr sondern ggfs ersatz.. ich denke das wird vielen konsumenten in europa, japan, usa langsam so gehen...

von mir aus braeuchten wir keine einzige innovation mehr ausser vlt in richtung medizin..

wenn du mit konsumenten meinst dass sich die leute bewusst einen "Computer" kaufen, dann villeicht ja (wobei mir da auch noch tausend neu dinge einfielen). aber jetzt denken wir mal 2 schritte weiter, wo rechenleistung heute überall benutzt wird und immer noch den flaschenhals darstellt.
 
Ich finde das ist alles halb so wild, bezieht sich ja wie angesprochen nur auf die Transistoranzahl. Ich denke bevor wir Quantencomputer sehen gehen unsere Prozessoren erst einmal in die 3. Dimension und möglicherweise werden noch vorher optische Prozessoren bzw fast komplett optische Computer gebaut werden. Laserfestplatten waren ja auch schon im Gespräch, Memristoren als Ram.
Die Ingenieure, Informatiker und Physiker werden sich noch so einiges ausdenken. :D
 
Das Standard-CMOS-Fertigungsverfahren wird noch ca. 10 Jahre leben... So schnell geht das mit den Super-Technologien die hin und wieder mal in ner News erwähnt werden nicht. Die Zeitspanne zwischen Laboraufbau und Marktreife ist mit 10 Jahren sogar noch etwas kurz...

3. Dimension... ja bei Speicher mag das gehen. Bei CPUs entsteht viel Wärme und die lässt sich mit mehreren Siliziumebenen nur sehr schwer abführen. Verdrahtungsebenen sind kein Problem aber da ist man ja schon bei 9 oder so.
 
Ichthys schrieb:
Mag sein, aber es ist immer noch das moorsche Law, und nicht das "moor'sche" Law/gesetz/Was auch immer.
Nur in Anfuehrungszeichen ist es richtig. Sprich, das erste Mal stimmt es, danach ist es immer falsch.

Zum Thema: Ich denke auch, dass es langsam echt schierig wird. Denn spaetestens bei 1 Nm wird es kriminell. Kleiner als Atom geht (noch) nicht.
Allerdings sind Atome kleiner als 1nm.
 
Fuer den Otto-Normalo reicht die vorhandene Leistung dicke. Interessant ist eher Ergonomie, Lautstaerke und Verbrauch.
Und, ob sie die 6 Nm beherrscht bekommen. Denn es wird auch immer komplizierter, auf kleiner Strukturen umzusteigen. Siehe 40 Nm bei Grafikkarten.
 
Man sollte aber auch erwähnen, dass Moore in seinem Gesetz auch sagte, dass die Kosten für Halbleiterfabriken, die das Gesetz einhalten, auch exponentiell schnell steigen. Ich glaube mit jedem seiner Zyklen eine Quadrierung.

Er meinte, irgendwann werden die Kosten für die Infrastruktur so abnorm, dass nur noch ein oder zwei Monopolisten überhaupt forschen können und auch das dann nicht mehr sehr lange.

Für verwendete Zahlen kein Gewähr.
 
freacore schrieb:
Allerdings sind Atome kleiner als 1nm.
Das ist richtig. Aber ich meine, irgendwann mal gelesen zu haben, dass 1 Nm unmoeglich sei. (CT oder so). Ist aber schon laenger her und ich kann mich auch taeuschen.
 
wer sagt das wir immer Binär bleiben müssen?

Ist dir eine andere Möglichkeit bekannt, die Logik, Arithmetik mit mechanischen Komponenten zu realisieren?

Irgendwann ist jedenfalls eine Grenze erreicht.
 
Zuletzt bearbeitet:
wenn ich höre, dass für den "Privatverbraucher" die Leistung dicke reichen würde, denk ich immer daran, dass Leute den Commodore C64 für das non plus ultra gehalten haben und heute belegt ein leeres Word Dokument schon 1/6 des damals vorhandenen Speichers.

Ob mans glaubt oder nicht selbst bei Office oder Internet steigern sich mit der Zeit die Anforderungen. Ich schätze sogar, dass ein Office-Programm, welches in 10-20 Jahren gebräuchlich ist, aus gründen der Leistung, nicht auf einem häutigen High-End PC Laufen würde.
 
Zuletzt bearbeitet:
echt cool sowas zu lesen :) da fühlt man sich gleich irgendwie näher der richtigen scifi zukunft als sonst :D mal schaun wie die entwicklung vorangeht, aber ggf. könnten wir 2025-2030 keine nm mehr haben xD bzw drunter liegen oder was noch wahrscheinlicher ist gänzlich andere technologien produzieren
 
chendal schrieb:
wenn irgendwelche institute bei manchen ihrer vorhersagen so gut liegen würden wie moore mit ihren vermutungen dann hätte man einen großen erfolg. die koennen ja noch nichtmal vorhersagen was die nächsten 6 monate geschieht.... von daher respekt an Hr. Moore

Es ist wohl eher so, dass sich die Fertigungsfirmen an das Gesetz gehalten haben. Sobald eine Verdopplung fällig wurde, wurde wieder enorm Geld in die Entwicklung gepumpt - So kann man die Geschäftszahlen teilweise schon interpretieren.

Damit ist das mooresche Gesetz wohl eher etwas wie eine "selbstbewahrheitende Prophezeihung".
 
7bf schrieb:
Die Fabriken wollen aber ausgelastet werden und ich glaube nicht das der Bedarf mit der gleichen Geschwindigkeit ansteigen wird. Einen 40 Kerner dürfte man an Privatleute wohl kaum verkaufen können, 90% sind ja schon mit einem Dualcore bestens versorgt.

Ich wäre vorsichtig mit solchen Aussagen die sich auf Hardware in 8 Jahren beziehen.
Anno 2003 waren P4 und Athlon XP das Maß der Dinge, da hat auch keiner dran gedacht dass mal Octacores im privaten Bereich zum Einsatz kommen.

In weiteren 8 Jahren glaube ich nicht dass wir noch so beschränkt die CPUs stur nach Kernzahl einteilen wie heute.

Eine 400-Core... äh Shadereinheiten GPU lässt sich den Leuten auch verkaufen.

hwaChris schrieb:
Es ist wohl eher so, dass sich die Fertigungsfirmen an das Gesetz gehalten haben. Sobald eine Verdopplung fällig wurde, wurde wieder enorm Geld in die Entwicklung gepumpt - So kann man die Geschäftszahlen teilweise schon interpretieren.

Genau die sitzen immer 2 Jahre däumchendrehend rum und klopfen dann auf die Schnelle ne neue Architektur und nen neuen Fertigungsprozess raus. Und AMD ist bei der Sache Intel auch nur deswegen hinterher weil die sich mal verzählt haben und dachten sie hätten noch nen Jahr zeit.
 
Zuletzt bearbeitet:
Zurück
Oben