News Klebstoffe für Prozessoren aus bis zu 100 Chips

Kasmopaya schrieb:

Nein eigentlich nicht.

Mag sein dass das aus Technischer bzw. Hardware-Sicht hinkommt das da ein paar Tausend CPUs sind, aber das ist nur möglich weil diese "CPUs" für nur sehr wenige Aufgaben ausgelegt sind.

Eine x68 CPU, als das was die meisten heutzutage unter einer CPU verstehen, ist deutlich vielseitiger verwendbar.
 
@Kriegsgeier
Warum fragst du hier?!? Frag die Netwickler oder CB warum sie nur halbe Infos reingepackt haben. Hier hat doch eh keiner wirklich Ahnung davon.

Und an all die anderen die hier so kompetente Fragen bzw. Zweifel Äußern :
Meint ihr nicht das die ganzen Doktoren und Inc.'s wissen was sie da tun? Hallooo?!? Das sind keine Anfänger. Sowas nennt man zu erst einmal Grundlagenforschung in der Prozesstechnik. Dies wirft wiederum fragen auf die gelöst werden müssen.

Ich finds immer wieder erstaunlich wie hier einige meinen das da nur Vollhonks sitzen. Frei nach dem Motto "Warum haben die nicht gleich MICH gefragt..."

P.S.: Adhesiv ein Fachbegriff??? Hallooo?!? Das ist schon fast als Allgemeinwissen zu bezeichnen. Wer sowas nicht kennt sollte vielleicht allgemein Abstand von solchen News bzw. Kommentaren dazu Abstand nehmen! Wir sind hier nicht bei der Bildzeitung. Wie weit soll denn bitte das Niveau und der informationsgehalt einer solchen News runtergeschraubt werden?!?

@Topic

Ich finde das Prinzip, auch wenn es (wie im Text angedeutet) nicht neu ist, sehr interessant.
Es eröffnen sich viele neue Möglichkeiten vor allem im Prozess. Dies wiederum schlägt sich direkt in den Kosten nieder. Aber es ist anzunehmen das die Entwickler vor einer wirklich gewaltigen Aufgabe stehen. Speziell für große Server dürfte dies aber ein Schritt in die richtige Richtung sein. Denn hier ist Platz=Geld!
 
Zuletzt bearbeitet:
Manche Fragen hier sind mir unklar... wenn hier von experimentellen Quantencomputern berichtet wird, fragt doch auch niemand, wie z.B. das Problem mit der Dekohärenz gelöst wird und bei größeren Systemen zu lösen wäre. :freak:

Solche Informationen lassen sich den News nicht entnehmen, sind von Laien nicht zu beantworten und die Unternehmen behalten die Details weitestgehend für sich.
 
Kriegsgeier schrieb:
Was ist mit den Kontakten???
Nanotechnologie, oder einfach ein Bus an der geeigneten Stelle der alle Ebenen miteinander verbindet

3M will hier vermutlich nur Werbung für einen Wärmeleitenden Siliziumkleber machen, wie du den dann verwendest ist nicht deren Problem :lol:

ob sich das gerade in Bezug auf die Wärmeentwicklung so einfach realisieren lässt bin ich ja mal gespannt
 
Bezüglich der Kontakte kann ich mr gut vorstellen das die Pins bis oben hin und leicht versetzt jeweils um auf einzelne schichten zugreifen zu können, durchgehend verbaut sind um eben so eine Anbindung an alle Schichten zu haben.

Ich sehs schon kommen wie wir iwann (vllt schon 2015) nur ein kleinen Kasten, ca. 20x20x20 cm, haben wo sich ein Chip (CPU+GPU/APU + 16GB Speicher + 8GB RAM) mit einem Kühler und eine 1 TB HDD befindet.

Sehr Interessant das Vorhaben !
 
Zuletzt bearbeitet:
@Findus

Ein einzelner Bus um 100 CPUs zu verbinden?
Das geht nicht, weil jeweils nur einer auf den Bus zugreifen kann.
Ausserdem wäre ein Bus-System ein extremer Flaschenhals.
Nanotechnologie ist da auch kein Stichwort, weil das sich auf andere Bereiche bezieht.
Prozessoren sind schon seit Jahren praktisch Nanotechnologie.
Ich könnte mir vorstellen, dass die Schichten mit optischen Kontakten gekoppelt werden und die Schichten nur mit Spannung versorgt werden müssen.
Vorallem da das hier noch sehr nach Grundlagen-Forschung klingt.
Wir werden dann vielleicht in 10 Jahren das nächste Mal was davon hören.
 
Xidus schrieb:
@Weltenspinner ich glaube wenn die die TPD bei deinen angaben hin bekommen würden wäre das ein meilenstein 800Mhz x4000 = 3,2 Phz und dann nur 250w nice will ich haben

Du machst den Fehler und rechnest das einfach zusammen. Ein solcher Prozessor hat keine 3.2 Phz. Er hat 4000 x 800 Mhz.
Erklären wir das anhand eines Dualcores:
Laut deiner Rechnung müsste ein 3GHZ DualCore die Leistung eines 6GHZ Singlecore haben. Das ist schlichtweg falsch, selbst wenn man sich in derselben Architekturfamilie bewegt.
Im OPTIMALFALL ergibt sich eine Leistung von +100%, allerdings wird diese so gut wie garnicht erreicht. Im Durchschnitt erhöht sich die Leistung um den faktor 1.5 beim Dual und auch hier kommt es wiedereinmal auf die Software an. Wenn du softwae hast, die gnadenlos nur auf einem Kern läuft ist der Leistungszuwachs = 0 und umgekehrt!

Kasmopaya schrieb:

Falsch! Du kannst eine GPU nicht mit einer CPU vergleichen. Shadercores sind hochspezialisiert und auf ein Zusammenspiel aller Kerne hin optimiert, das heisst ein Einzelner könnte nichts ohne die Hilfe der anderen. Bei Grafikberechnung (insbesondere bei Games) muss sehr viel sehr schnell und GLEICHZEITIG passieren. Das Problem ist auch nunmal, dass der Rechner nicht im Voraus weiss, was der User tun wird (wie auch^^), weshalb die GPU möglichst schnell die Eingaben in ein Bild umwandeln muss. Im Vergleich zu einer CPU sind Shader ziemlich klein und bieten im einzelnen weit weniger Rechenpower als ein heutiger CPU-Kern, aber wie gesagt, die ganze Architektur ist anders aufgebaut, denn bei einer GPU weiss man was zu tun ist und was die Shader können müssen.

Bei der CPU ist das anders. Eine CPU ist ein Allrounder und muss so ziemlich alles zumindest ein wenig können. Sei es Physikberechnung (z.B. die Havok-Engine), verarbeitung von Eingaben, Storageüberwachung ect. . Die CPU muss das gesammte System steuern und überwachen können platt gesagt, während sich eine GPU mehr oder weniger nur einer Aufgabe zuwenden kann.
THEORETISCH aber würde Software auf einer GPU schneller laufen, denn was die reine Rechenpower angeht ist die GPU der CPU gnadenlos überlegen und deshalb gibt es auch Rechencluster, die sich diese Power zu Nutze machen. Problem bei dieser Sache ist aber die Software. Bei Clustern läuft hoch spezialisierte und auf den Cluster angepasste Software. beim Desktop ist das nicht möglich, da man hier mit unzähligen Kombinationsmöglichkeiten in der Hardware konfrontiert wird. Multithreaded zu programmieren ist schwer und eine Kunst. Es ist, alswenn du eine Firma besitz mit 1000 Mitarbeitern und du darfst dafür sorgen, dass jeder Mitarbeiter zu jeder Zeiteinheit 100% zu tun hat. Das geht aber nur DANN wenn du weisst dass du 1000 mitarbeiter hast und auch zu jeder Zeiteinheit darüber informiert bist, ob der Mitarbeiter zu 100% ausgelastet ist. Dann kommt noch hinzu, dass du möglichst natlos eine Anweisung an die andere hängen musst um eine optimale Auslastung zu erfahren, d.H. sobald der Arbeiter fertig ist bekommt er die nächste Aufgabe.
Alleine dieses Handling erfordert schon Profis in der Programmierung. Besonders halt bei Clustern wird drauf geachtet, dass immer was zu tun ist und die einzelnen Recheneinheiten optimal mit Aufgaben versorgt werden. Es gibt in solchen Clustern (natürlich nicht in allen ;) ) extra Recheneinheiten, die nur damit beschäftigt sind dafür zu sorgen, dass alles optimal ausgenutzt wird, denn Zeit ist Geld und zeit bedeutet Stromverbrauch, was Geld kostet!^^

MFG
 
Ich sag aucch dass es an der Software liegt! 1.5 is der Durchschnitt! Cinema 4D ist multithreaded programmiert und das merkt man auch ;). Ein Großteil der Software nutzt mehr Kerne halt immernoch nicht optimal aus. So langsam kommen wir bei 4 Kernen an und ich würde auch JEDEM raten sich n 4 Kerner zu kaufen, weil so teuer sind die nemehr^^.
Aber auch games ich mein Arma2...ich weiss noch den test zum Gulftown...sobald das Spiel mehr als 8 threads zur Verfügung hatte ists abgestürtzt oder es lief schlecht. Es gibt für beide Seiten optimale Beispiele.
 
Zuletzt bearbeitet:
noskill schrieb:
@Findus

Ein einzelner Bus um 100 CPUs zu verbinden?
Das geht nicht, weil jeweils nur einer auf den Bus zugreifen kann.
Ausserdem wäre ein Bus-System ein extremer Flaschenhals.

kann sein das ich es übersehen habe, aber geht es hier nicht im speziellen darum 100 Sandybridge-E zu verbinden sondern lediglich um Prozessoren
evtl. meinte man lediglich sowas wie die Shadereinheiten einer GPU, die werden ja wohl kaum mit 2011 Kontakten aufwarten
außerdem dürfte sich da schon einiges verbinden lassen, das sind nicht nur 5 Kontaktpunkte die man verlötet
andere Konstruktionsmöglichkeiten werden dann halt auch andere Layouts der Architektur bedeuten
 
Lord Horu$ schrieb:
Großteil der Software nutzt mehr Kerne halt immernoch nicht optimal aus. So langsam kommen wir bei 4 Kernen an und ich würde auch JEDEM raten sich n 4 Kerner zu kaufen, weil so teuer sind die nemehr^^.


Wie stark eine einzelne Anwendung skalliert ist imho auch nicht so wichtig (auf dem Desktop). Es laufen ja genug Anwendungen auf dem System.

800 MHz sind vllt. nicht viel nach heutigem Maß, aber wenn man genug Kerne hätte damit jedes Programm, jeder Messenger, jeder Hintergrunddienst, etc. ihren eigenen Kern zur verfügung hätten, dann wird die "Gefühlte" Performance so eines Systems deutlich raufgehen denk ich - wenn immer alles sofort reagiert nach der Benutzereingabe, auch wenn dafür de Ladebalken in Winzip und ähnlichem Länger braucht bis er durchläuft.
 
Zuletzt bearbeitet:
Klingt nicht schlecht die Technik, aber wie soll das mit der Abwärme funktionieren denn die Kerne in der Oberen Schicht werden doch sehr warm durch die Unteren schichten oder!?
 
In 10 Jahren wählt man im Konfigurator nicht nur die CPU aus, sondern auch wie viele Lagen CPUs und GPUs man haben möchte ;-)
*Ok ok etwas übertrieben, aber die Vorstellung ist doch interessant*
 
ja genau, der PC Dealer hat dann ne Meterstange CPU da und du sagst wieviel cm er abschneiden soll - etwas abschleifen, am Sockel ankleben und fertig :D
 
Ist ja mal eine tolle News. IBM und 3M forschen an was, das mal was werden könnte, und wenn es das dann ist, ists was tolles und wird die Art wie Chips funktionieren verändern, falls es denn was wird.

Die Grundidee hinter dem ganzen ist doch ganz einfach, weniger Leiterbahnen = weniger Leiterplatte, und weniger Leiterplatte = kleiner, günstiger, schneller, unanfälliger etc.
Und vermutlich haben die sich das Verfahren gerade Patentieren lassen, und rühren jetzt die Werbetrommel, damit alle anderen neidisch sein müssen.

mfg
 
Ich dnke mir, das jeder Chip viele kleine Leiter hat, wie Legosteine und dadruch nach unten Hin ein Kontakt zum Sockel herstellt.
 
Zurück
Oben