News IBM bringt Chips zum Leuchten

Also mich interessiert, wann solche Techniken den Markt erreichen. Ich bin der Meinung das es eigentlich recht "schnell" gehen würde, wenn Intel und andere Innovationsführer nicht immer ihre aktuellen Techniken bis zum erbrechen ausreißen um auch noch den letzten Dollar der Kunden abzuschöpfen, aber wahrscheinlich geht es nicht viel anders, weil sonst keiner mehr die teure Forschungsarbeit leisten will.
Obwohl man auch sagen könnte, das solche und ähnliche Techniken von Universitäten und unbekannteren Firmen erforscht und entwickelt werden, und dann "nur" noch von Intel und anderen Firmen dieser Art aufgekauft werden und die Technik erst mal 5-10 Jahre in der Schublade verschwindet. Schade, schade, wo könnten wir heute schon stehen, wenn die großen (Intel, Samsung, TI etc.) ihre neuen Techniken versuchen würden sofort auf den Markt zu bringen.
 
hm... und ein weiterer schritt zum -perfekten- computer ;) sehr schick, hoffentlich kommt da noch mehr^^
 
weis zufällig jemand in was für ner größenordnung die Pulse liegen? Und wie groß sind die Abstände, die Optisch überbrückt werden sollen?
 
Sie sprechen von 40Gb NRZ Signal. Also ist ein Puls 25ps lang. Die Distanzen sind wenige cm eher mm, sofern man auf dem Chip bleiben will.
 
Ich denke am Chipmarkt werden in den nächsten Jahren auch dringend "neue" Wege gebraucht, die Grenzen sind ja hinlenglich bekannt.
IBM geht da mMn einen guten Weg, was am Ende dabei raus kommen wird (oder ob überhaupt was raus kommt) steht natürlich in den Sternen, auch wenn die etwas näher gerückt sind.
Abseits der Supercomputer, Server und anderen Profisystemen (z.B. auch Rechner für Grafiker etc.) wird sich der Markt denke ich stark verändern in den nächsten Jahren. Die zunehmende Aufdröslung in Rechner für spezielle Anwendungen und die für 95% der Anwendungenen von 95% aller PC User Privat oder auf der Arbeit asureichende Leistung von sehr kostengünstigen System führt zwangsläufig zu erheblich längeren Lebenszeiten von PCs. Ein Office oder Multimedia Rechner der heute gekauft wird, wird mit aller höchster Wahrscheinlichkeit auch in 5 Jahren (solange nichts kaputt geht) problemlos für diese Anwendungen reichen auch wenn mal ein neues OS oder Office kommt.
Insofern sind die Anforderungen mMn heute deutlich höher als früher als meist z.B. Privat ein Rechner für alles gekauft wurde und auch in Betrieben relativ Leistungsstarke Systeme gebraucht wurdne. Zukünftige Chips werden zunehmend mit anderen Pluspunkten als der reinen Mehrleistung überzeugen müssen. Es hat durchaus viele Gründe warum man zukünftig vieles in die CPU packen möchte, schlicht weil der Druck auf den Kunden für neue CPUs größer wird und nicht so leicht einfach ein besseres Board gekauft werden kann (die neuen CPUs brauchen aber meist eben dann zusätzlich auch noch ein neues Board).
Mfg
 
hmm hab noch etwas interessantes in dieser Richtung entdeckt, die diese News in sachen Geschwindigkeit sogar topt^^

Nano@3sat hat einen Kurzfilm über die Forschungen von magnetische Induktion, welche mehrere Terabits/s an Daten übertragen kann, gedreht. Die Fortschungen werden von Sun Microsystems gefördert unter der Leitung von Dr. Hans Eberle.

Das ca. 3 Minuten lange Video kann man unter folgendem Link anschauen:

http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/nano/technik/142634/index.html

Wie schon gesagt, wer die news von IBM Interessant findet, der kann sich das Video ruhig mal antun =)
 
Längst ist bei Prozessoren nicht mehr die Strukturgrösse oder die Taktfrequenz entscheident. Andere Faktoren wie Stromverbrauch, Wärmeentwickelung und Datenaustausch haben diese Rolle übernommen.
In einem moderen Mehrkernprozessor steht man vor dem Problem, das die Bandbreite für die Datenübertragung zwischen den Funktionseinheiten nicht gross genug sein kann, und das verschärft sich mit jedem weiteren Kern. QPI, HT - sind nur ein Anfang - die Grenzen stehen bereits fest und werden erreicht werden.

IBM entwickelt diese Technologie wohl vorwiegend, um die Verbindung von Rechenkernen, Caches sowie die Synchronisations und Abgleichfunktionen zu perfektionieren - die Bandbreite für den Prozessorinternen Datenaustausch mittes mikrooptischer Interfaces "Onchip" in neue Bereiche zu treiben. Und eben nicht Wärmeerzeugende, Strom- und Platzverbrauchende elektrische (metallische) Verbindungen einsetzen zu müssen.

Denkbar wäre auch, die Lichtsignale in Vakuum Nanoröhrchen laufen zu lassen - absolut störungsfrei, und man könnte die Leistung zur Signalerzeugung minimieren. Dann könnte man die einzelnen Funktionseinheiten eines Multi-Multicore Prozessors einzeln auf seperaten Wafer produzieren und die Verbindungen nach Tests und Auslese erst auf dem Substrat realisieren. Ohne Probleme mit Leiterbahnen und Signallaufzeiten zu bekommen.
Man könnte eine CPU wie mit LEGO aus Bausteinen zusammenfügen ...
 
Zuletzt bearbeitet:
Zurück
Oben