Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Der in der Regel gut informierte Branchendienst DigiTimes berichtet heute, dass Nvidia angeblich seine Order für 40-nm-Grafikchips erhöht hat. In erster Linie betrifft dies wohl die von Nvidia-CEO Jen-Hsun Huang angedeuteten drei anstehenden Grafikchips, die in Kürze verfügbar sein sollen.
Weiß jemand von euch wann das Ende der Verkleinerung erreicht ist? Irgendwann kann es doch einfach nicht mehr kleiner werden, und da stellt sich mir halt die Frage, wann es soweit sein wird.
@Jane Dee ...wie wäre es mal damit, das Nvidia Stress mit seiner Versicherung hat? Die wollen jetzt Klagen.
Diese Meldung hier oben ist doch nur Marketing und nutzlos.
Ich denke bei 15nm wird schön langsam das Ende der Fahnenstange erreicht sein.
Bei 22nm beträgt die Länge des Gates nur mehr 13nm. Je nach kubischem/hexagonalen Kristallgefüge des verwendeten Materials sind dies rund 20 Atomlagen SiO2, die als Isolator dienen. Bei so dünnen Isolatorschichten setzen bereits quantentechnisch bedingt Tunneleffekte ein. Elektronen tunneln durch den Isolator hindurch - die Information ist weg.
Und zur Idee mit dem gespaltenem Atom: das würde nicht funktionieren
Und wieder ein Werbeblock für Nvidia. Ist schon erstaunlich wie oft es Nvidia schafft seine Marketing News hier unter zu bringen. Schade, es verkommt hier immer mehr zur Werbeplattform.
Wenn man bedenkt was alles erschaffen wurde und noch entwickelt wird, könnte man meinen (und ist auch so) das dies alles noch in den kinderschuhen steckt und es noch lange keine Grenzen gibt.
Und gibt es welche dann wird daran getüffelt einen neuen Weg zu entwickeln der die Grenzen umgeht oder sprengt.
Was war vor 100 Jahren ! Was ist in 100 Jahren !?
Da brauchen wir uns mit Sicherheit keine Sorgen machen das mal wer sagt, "Jetzt ist schluss es kann nicht mehr besser werden".
Typisch wieder das ausgerechnet jemand Reklammiert (BestPower²TDP) der ein ATi in sein System hat. man man man...
Und was die News angeht, nVidia muss halt aufholen was Sie bisher verbockt haben. Wärend ATI's GPU alle auf denn 55nm undlangsam auf denn 40nm Zug aufgesprungen sind hat nVidia gewartet, man siehe der GTX280 bzw. GTX260 192SP.
Aber trotz die grosse Fertigungsprozess haben Sie eine beachtlichen Leistung/Watt hingebracht. Freue mich schon auf die 40nm GPU's
Ein Herstellungsprozess wird nicht ständig geändert. Wenn etwas gut läuft, wirds auch an den Mann gebracht. Siehe die 8800er Serie, wie lange die lief, obwohl ich mir sicher bin, dass laaaange schon neue Sachen auf dem Reißbrett existierten.
>>Jetzt gibt auch schon USB 3.0, dazu brauch man wieder neue Hardware! so scheiße ist das!
Und? Wenn es keinen Fortschritt gäbe, würden wir jetzt noch mit Dampfmaschinen durch die Gassen eiern.
Weiß jemand von euch wann das Ende der Verkleinerung erreicht ist? Irgendwann kann es doch einfach nicht mehr kleiner werden, und da stellt sich mir halt die Frage, wann es soweit sein wird.
Also Silizium und Kupfer Atome haben eine Größe von ca. 110 bzw. 150 pm. Ein pm (Picometer) sind 1000nm. Im moment sind wir bei 45nm, also 45000pm. Rein theoretisch kann man Leiterbahnen in Quantenbreite herstellen, indem man einfach Atome nebeneinander legt.
Also, im Moment werden die CPUs in 45000pm (45nm) hergestellt. Alle 2 Jahre wird der Herstellungsprozess verbessert und die Transistoren im Prozesser und werden um ca. 30% verkleinert. Verkleinert können die leiterbahnen auf ca. 150pm (theoretisch). Es ergibt sich folgende Formel:
ln(150)-ln(45000pm)/ln(0,7) = t ~ 16
t ist gleich eine Verkleinerung, die ungefähr alle 2 Jahre stattfindet. Also, wenn alles bleibt so wie es ist wird in ca. 32 Jahren wird keine Verkleinerung mehr möglich sein.
Das ist natürlich alles nur theoretisch, aber als anhaltspunkt geeignet.
Postive, bzw nicht negative News zu bestimmten Firmen scheinen unerwünscht.
Bei AMD wärs natürlich super.
30% ist natürlich viel zu hoch gegriffen, es wird doch lediglich die Performanceklasse und alles drunter auf 40nm umgestellt.
TSMC wird auch bis zum Jahresende eine beschissene 40nm Yield abliefern, bzw sich bei den Wafern, die Nvidia bestellt wenig Mühe geben.
RV740 kommt morgen fehlerfrei vom Band, Mitte des Jahres taucht überraschenderweise ein 300mm² RV870 aus dem nichts auf, da gibt es keinerlei Zweifel, GT300 kommt wenn überhaupt Ende 2010 (die Geschichte mit dem Tape-out ist eine Lüge), seine Mittelklasse irgendwann 2011.
Könntet ihr bitte in eure News reinschreiben woher diese abenteuerlichen 30% kommen? Ich weiß zwar, dass es bei digitimes steht, aber wenn ihr schon die Headline dazu bringt sollte das vllt. auch auf deutsch direkt in der News stehen und nich nur verlinkt im Text der Quelle. Danke.
manniefresh schrieb:
Weiß jemand von euch wann das Ende der Verkleinerung erreicht ist?
Nun wenn der herkömmliche Verkleinerungsprozess ausgereizt ist wird man wohl auf Kohlenstoffnanoröhren ausweichen. Inwieweit dann noch verkleinert werden kann weiß ich nicht. Auf jeden Fall ist das Ende der Fahnenstange noch nicht erreicht.
CJay
Du musst nicht jedes Wort so interpretieren, wie es geschrieben steht.
Im Grunde habe ich nur mal zusammengefasst, was BestPower²TDP, GreatEvil und XYZ uns mitteilen wollen, wenn du dies auch abwegig findest, ist alles bestens.
Ich spreche auch von der jetzigen Siliziumtechnologie basierend auf Immersionslithographie.
Fuzi0n schrieb:
Also Silizium und Kupfer Atome haben eine Größe von ca. 110 bzw. 150 pm. Ein pm (Picometer) sind 1000nm. Im moment sind wir bei 45nm, also 45000pm. Rein theoretisch kann man Leiterbahnen in Quantenbreite herstellen, indem man einfach Atome nebeneinander legt.
Die Leiterbahnen sind auch nicht das wesentliche Problem. Die Isolation ist das Problem. Die hast du vergessen, wenn ich deine Überlegung richtig interpretiere. Wie willst du das Tunnelling verhindern, wenn deine Isolation nur mehr eine Atomlage beträgt? Die Elektronen werdens dir danken und in alle Richtungen entschwinden Leiterbahnen in Quantenbreite durch "nebeneinander legen" von Atomen funktioniert vermutlich auch etwas schwieriger als du dir das vorstellst du vergisst beispielsweise die atomaren Interferenzen und Kräfte, die zwischen Atomen wirken.
Ein weiteres Problem: die Immersionslithographie hat eine zusätzliche Grenze: die Wellenlänge des Lichts, das verwendet wird, um die Wafer zu belichten. Man forscht zwar schon seit einiger Zeit an alternativen Methoden zur Belichtung (beispielsweise durch Röntgenstrahlung), diese Methoden sind allerdings kompliziert und kostenintensiv.
Und Unyu übertreibt mal wieder maßlos, kann also ignoriert werden