News IBM demonstriert 155-GHz-Transistor

ATIst schrieb:
Weil die Schaltzeit niedriger wird, je höher die Frequenz is.

T=1/f

Ja, ist ja logisch.

Aber im Bericht steht ja, dass die für Digitalverarbeitung nötigen Schaltzeiten nicht erreicht werden. Für mich bedeutet der Satz, dass die Transistoren zu langsam schalten. Was ich mir bei 155 Ghz aber logischerweise nicht vorstellen kann...

Ich kapiers nicht :freak: Die Schaltzeit ist doch enorm kurz.
 
Ameisenmann schrieb:
früher waren es 4-6GHz, heute sind es vielleicht 8GHz die das physikalisch Machbare darstellen die mit modernster Halbleitertechnik möglich wären... von mehr als 10GHz sind wir auch nach vielen Jahren Lichtjahre entfernt!

@WillardBL wer will denn diese Scheisse spielen?

Popey900 schrieb:
Wir wären heute locker bei 6-8Ghz, doch dann kam (glücklicherweise) Multicore.

Ich Vermute das die Hersteller lieber in richtung 12,16,32 Kerne gehen, als in richtung 10Ghz.

Das interessanteste an den News ist, das wir hoffentlich mal, das endliche Silicium ersetzen könnten.
Naja die 8GHz sind bereits mehrfach gefallen beim Extrem-Übertakten, aber das nicht gerade dank modernster Technik ;) Ich sage nur Pentium 4 und Celeron C3xx.
Ist klar, dass sich das eher in Richtung Multicore entwickelt hat, da die physikalische Grenze natürlich irgendwann erreicht ist und logischerweise auch der Stromverbrauch ins exorbitante steigt, da
1. die benötigte Spannung irgendwann in keinem vernünftigen Verhältnis zur erreichten Leistung steht (die oben aufgeführten CPUs dürften alleine gute 1000W geschluckt haben unter Belastung und ~8GHz - kein Tippfehler)
2. der Stromverbrauch bei mehr Takt linear und bei mehr Spannung exponentiell ansteigt.

Somit gab es auf Siliciumbasis gar keine andere Möglichkeit, als auf Multicore-Technologie zu gehen. Statt 1x5GHz sind 2x2,5GHz eben doch ökologisch und ökonomisch wesentlich sinnvoller.

Ich bin auch mal sehr gespannt, was aus dem "Wundermaterial" Graphen noch so alles werden wird. :) Auch wenn man noch keine Schaltungen in bestehende PCs integrieren kann, wird sich vllt mal eine neue, andersartige PC-Technik auf Basis des Graphens entwickeln und die Siliciumtechnik nach und nach ersetzen.
Ich würde das Zeug auch nicht daraufhin entwickeln, dass irgendwann mal Windows drauf läuft, sondern es eben für eine neue Art des Personal Computers zugrundelegen.
 
Masterchief79 schrieb:
Somit gab es auf Siliciumbasis gar keine andere Möglichkeit, als auf Multicore-Technologie zu gehen. Statt 1x5GHz sind 2x2,5GHz eben doch ökologisch und ökonomisch wesentlich sinnvoller.

Das meinst du jetzt aber nicht ernst, oder?
 
Masterchief79 schrieb:
Naja die 8GHz sind bereits mehrfach gefallen beim Extrem-Übertakten, aber das nicht gerade dank modernster Technik ;) Ich sage nur Pentium 4 und Celeron C3xx.

es geht nicht um den Peak, sondern um einen stabilen Betrieb auch bei hoher Auslastung und da stößt man an Grenzen weil die Signale nicht mehr sauber geschaltet werden können. Die CPU kann die logischen Zustände nicht mehr Unterscheiden und ab einer bestimmten Fehlerquote ist die CPU instabil und somit unbrauchbar bzw. deine 8GHz nichts wert.
 
aber ich denke mal, das wir wenn wir mit Silicium nicht weiterkommen, etwas entwickeln, das uns Graphé nutzbar macht, in unserem Sinne ;D

Ein iPad 99G wäre damit vorstellbar xD

*/ironie off
 
Geile Sache!

Bisher hieß es doch, bei 5-6 Ghz wäre die physikalisch- machbare Grenze erreicht... und jetzt 155 Ghz...
Da merkt man mal, wir haben gerade mal die Spitze angekratzt... bis wir bei 100% sind, müssen noch 99,995 % erforscht werden!
 
Masterchief79 schrieb:
Somit gab es auf Siliciumbasis gar keine andere Möglichkeit, als auf Multicore-Technologie zu gehen. Statt 1x5GHz sind 2x2,5GHz eben doch ökologisch und ökonomisch wesentlich sinnvoller.

söLLa schrieb:
Das meinst du jetzt aber nicht ernst, oder?

Was soll nicht sein Ernst sein? 2x 2.5Ghz brauchen nunmal einfach weniger strom als 5Ghz...
 
2x 2,5GHz sind aber leistungstechnisch absolut nicht mit 1x 5GHz zu vergleichen..
 
wenn der algorithmuss zu 100% darauf getrimmt ist, sind 2 x 2,5 ghz doch genauso leistungsstark wie 1 x 5 ghz oder nicht? aber ok, das ist in der praxis eher seltener
 
2x 2,5GHz sind aber leistungstechnisch absolut nicht mit 1x 5GHz zu vergleichen..
Sie sind definitiv nicht direkt zu vergleichen, aber "absolut unvergleichbar" ist das auch nicht. Sicher, kann eine Aufgabe nicht parallelisiert ablaufen, ist man mit einem schnellen Kern besser dran als mit zwei Kernen, die nur halb so schnell sind, bei dem dann einer brach liegt. Aber können die Berechnungen auf mehrere Kerne verteilt werden, hat man fast die gleiche Rechenleistung.
 
2x 2,5GHz sind aber leistungstechnisch absolut nicht mit 1x 5GHz zu vergleichen..
Warum nicht? Im Beispiel hast du nen 5GHz Singlecore und einen auf exakt der selben Fertigungstechnologie und Architektur beruhenden Dualcore mit jeweils der Haelfte Takt. Was wird wohl mehr Sinn machen? Um die Signale des 5GHz Prozessors noch stabil zu kriegen, wird eine wesentlich hoehere Spannung noetig sein, und damit auch ein hoeherer Stromverbrauch. Sobald die Anwendung 2 Kerne nutzt, ist der Dualcore bei (annaehernd) gleicher Leistung oekologisch gesehen klar im Vorteil.
Aber das war halt auch nur ein Beispiel.

es geht nicht um den Peak, sondern um einen stabilen Betrieb auch bei hoher Auslastung und da stößt man an Grenzen weil die Signale nicht mehr sauber geschaltet werden können. Die CPU kann die logischen Zustände nicht mehr Unterscheiden und ab einer bestimmten Fehlerquote ist die CPU instabil und somit unbrauchbar bzw. deine 8GHz nichts wert.
Ich weiss?! ^^ Das waere dann die physikalische Grenze, die auch nicht mit mehr Spannung zu ueberwinden ist. Belegt doch nur das, was ich schon geschrieben habe, nur noch staerker, da ein stabiler Betrieb natuerlich noch mehr Spannung bei gleichem Takt bzw. um ueberhaupt erstmal was stabiles hinzubekommen, einen niedrigeren Takt und gleiche Spannung voraussetzt.

Der Vergleich mit dem ExtremOCen sollte nur zeigen, dass ein Takt von 8GHz auch ohne die Optimierung zu schnellsten Singlecores moeglich ist, um nochmal auf Ameisenmanns Beitrag zu antworten und zu bestaetigen, dass 8GHz tatsaechlich schon gefallen sind, gleichzeitig aber auch so ziemlich die absolute Grenze des Machbaren darstellen.
 
wiso denn nicht? Ich mein, es gibt abseits des x86 ja noch mehr ...
x86 hat nun relativ wenig damit zu tun, ob man durch mehr Kerne bei gleichzeitig reduzierter Taktfrequenz (so, dass Kerne * Takt letztendlich auf die gleiche Zahl hinauslaufen) Leistung verliert oder nicht.
 
Abseits des x86 Tellerrands gibt es aber schon CPUs die mit 5,2GHz laufen.
Auch von IBM. :D
 
Ich habe mit meinem Kommentar eher weniger darauf angespielt, dass es sinnvoller ist einen DualCore Prozessor mit geringer Teaktfrequenz zu betreiben als darauf, dass in dem zitierten Beitrag mal wieder von der Ideologie 2x2.5GHz entsprächen 1x5GHz die Rede war.
 
Und in China fällt ein Sack Reis um.

Mal ein paar Anmerkungen:

Der Silizium-Graphén-Transistor (SiC) von IBM vom letzten Jahr hatte eine Grenzfrequenz (β=1) von 100GHz bei einer Gate-Länge von 240nm. Ein herkömmlicher Silizium-FET mit dieser Gate-Länge hätte eine Grenzfrequenz von 40GHz.

Vereinfacht gesagt könnten somit dank Graphén Prozessoren mit der doppelten Taktfrequenz hergestellt werden. Ein erster Schritt in diese Richtung haben IBM 2010 geschafft, indem sie mit herkömmlicher Lithographie Graphen-Transistoren auf einem 2“-Wafer herstellen konnten. Allerdings gibt es seit Jahren experimentelle Chips auf Silizium-Germanium-Basis, die auf einigen 100 GHz laufen. Die grossen Probleme bei komplexen (hunderte Mio Transistoren) Chips auf hohen Frequenzen, z. B. Rauschen, Verlustleistung und Laufzeitunterschiede, werden damit nicht gelöst.

Einige Links dazu:

Intel, 1996: 10GHz bis 2011 http://www.intel.com/pressroom/archive/speeches/ag111896.htm
Intel, 2001: 20GHz bis 2007 http://www.tecchannel.de/server/pro...t_chip_packaging_fuer_20_ghz_cpus/index2.html
AMD, 2001: 3.3THz bis 2009 http://www.planet3dnow.de/vbulletin/showthread.php?t=25597
IBM, 2002: 350GHz (experimentell) http://www.heise.de/newsticker/meldung/Silizium-Germanium-Transistor-fuer-350-Gigahertz-69859.html
IBM, 2006: 500GHz (experimentell) http://www-05.ibm.com/ch/pov/chips/index1.html
IBM, 2008: 26GHz SiC (experimentell) http://pubs.acs.org/doi/abs/10.1021/nl803316h
IBM, 2010: 100GHz SiC (experimentell) http://www-03.ibm.com/press/us/en/pressrelease/29343.wss
 
Raumtemperatur ist hierbei das interessanteste wort in dem ganzen Artikel!
Soweit ich weiss hat es paar jahre gedauert bis man die ersten Transistoren mit Graphen gebaut hat, und die entwicklung ist noch lange nicht abgeschlossen. Die graphen-transistoren von denen ich gehoert habe waren jedenfalls nicht geeignet um schaltungen draus zu bauen.
Gate-Längen von 40 Nanometer ist schön und gut, aber das wirft so viele fragrn auf, z.B. wie gross ist der transistor im ganzen. Vllt. kann man kleine Gate-Längen erreichen aber noch keine ausreichend kleinen transistoren bauen weil man das Graphen noch nicht so verarbeiten kann wie es noetig wäre.

Ich glaube die grösse und dicke der herstellbaren durchgehenden graphen-schichten, gehören zu den best gehüteten geheimnise dieser tage.
Samsung ist ja vorgeprescht und hat ein paar informationen zu einer chemischen herstellung von biszu din a4 grossen graphenflächen publiziert. leider warf auch das viel mehr fragen auf als es beandwortete. z.b. wie dick sind diese lagen, welche chemikalien werden verwendet, wie funktioniert das, wie/wodruch ist die grösse limitiert, wie viel energie bedarf das.
 
Zuletzt bearbeitet:
Zurück
Oben