News DARPA: „Moore's Law“ möglicherweise nur noch bis 2020

CB schrieb:
Als einen möglichen ökonomischen Grund führt er an, dass wenn zum Beispiel Intel es nicht mehr als ökonomisch vertretbar ansieht, weiter in die Verkleinerung der Strukturbreiten zu investieren.
Ahja, interessante Grammatik?
 
P4ge schrieb:

naja sobald ich meinen rechner nicht mehr bei mir habe, sondern für rechenleistung zahlen soll,
steig ich aus der moderne Aus.
---------------------------------
wollen wir mal hoffen das diese Sonnenwinde uns nicht doch mal zum Verhängnis werden, und die netzte lahm legt


BTT:

um so kleiner die stukturen umso kurz lebiger wird der ganze ....
 
Zuletzt bearbeitet von einem Moderator:
promashup schrieb:
Was mich plagt ist die Frage "Was kommt danach?". Die Quantencomputer mit sicherlich nicht, also was dann? Mehr Kerne, höhere Verlustleistung? Es muss in Richtung Multithreading und Softwareanpassung gehen...
Mehr Kerne, und eventuell wird es dann der Siegeszug für ARM. Denn im Kern/Leistung-Verhältnis können die auch in Zukunft nicht mit Intel mithalten, aber dafür sind deren Kerne viel viel kleiner. Wenn man also einfach mal 20 Kerne von denen zusammenpappt...
Oder es macht wie die aktuellen Entwicklungen an ARM-Servern indem man einfach Quadcores baut und davon mehrere auf ne Platine packt und diese intelligent untereinenader verdrahtet kommt man in die Multi-Sockel-Richtung.

aivazi schrieb:
Das Problem ist dass man dass was die CPU bearbeitet nicht unendlich parallelisieren kann, sonst könnte früher oder später die GPU die arbeit der CPU übernehmen , momentan tun sich Programme mit 4 oder 8 Kernern schwer und erstere sind bereits über 6 Jahre auf dem Markt ^^
Nein, das Problem ist nicht die fehlende Parallelisierbarkeit. Es ist das Problem, dass man technisch 1970 stecken geblieben ist als C erfunden wurde. "Schöner" prozeduraler Code und fertig. Dann kam das Problem mit den Wartezeiten auf Grund Festplattenzugriffen und man erfand die Threads, also eine technisch leistungsfähige und günstige Möglichkeiten x Teile eines Programms parallel laufen zu lassen. Genauso sah der Plan für Dualcore, Quadcore und darüber hinaus aus. Nur was man immer zu verdrängen versucht hat: Programme mit Threading zu schreiben ist sehr viel Arbeit, denn es kann sehr viel falsch laufen (beide Teile wollen gleichzeitig in den selben Speicherbereich schreiben usw.). Und solange man von diesem C-Threading-Gedanken nicht wegkommt, wird es auch nur begrenzt Multithreading-Unterstützung geben.

Schaut man sich da aber Sprachen wie Erlang, Akka für Java oder Go von Google (beide haben den Erlang-Ansatz kopiert sind aber nicht ganz so gut) sieht man einfach dass diese Sprache von Natur aus auf viele Kerne ausgelegt ist. 20 Kerne? 40 Kerne? 100 Kerne? Alles kein Problem. Der Erfinder von Erlang hat 1987 schon gesagt, dass in Zukunft man viele Kerne haben wird und nicht mehr die Geschwindigkeit so stark steigen wird. Er hat sich geirrt, er hat unterschätzt, dass man alles daran setzen würde den aktuellen Weg beizubehalten, damit sich die Softwareentwicklung ja nicht ändern muss. Die Sprache (Erlang) ist darauf ausgelegt mit ihren Aktoren viele kleine unabhängig laufende Programmmodule zu haben, die miteinander über Nachrichten kommunizieren. Einfach zu entwickeln und zugleich so mächtig. Selbst Spiele die ja gerne als kaum parallelisierbar bezeichnet werden, sind damit wunderbar parallelisierbar. Ein 08/15 Shooter? Jeder Gegenspieler bekommt seinen eigenen Aktor der läuft und seine KI ausführt und nichtmehr wie heute ein Prozess der quasi alle x Millisekunden die Aktionen für jeden Spieler berechnet.

Es ist ein hausgemachtes Problem. Früher oder später wird sich die Softwareindustrie der "Multicore-Revolution" stellen müssen und die aktuellen 40 Jahre alten Ansätze wegwerfen müssen, aber davor sträuben sich alle. Bloß nichts neues lernen...
 
ich hab auch nix dagegen wenn die Prozessoren irgendwann so groß wie ein DINA4 Blatt sind.
Transistoren pro Fläche ist nur wichtig wenn man die Fläche klein halten will... "

Das wären nicht 1KW sondern mehrere dutzend KW Leistungsverbrauch
 
ice-breaker schrieb:

Nur blöd, dass die C/C++ Lösungen, wenn richtig gemacht nur immer noch deutlich performanter sind....

Das Problem sind eigentlich nur gute Programmierer, die auch Ahnung von Hardware haben, aber viele Programmierer meinen ja, Sie müssten von Hardware keine Ahnung haben, und wundern sich dann, warum Sie keinen performanten Code schreiben können oder eben Semaphronen usw vergessen....
 
Zuletzt bearbeitet von einem Moderator:
Vivster schrieb:
Solang die Menschen Geld haben werden sie auch immer neue Technologien kaufen. Sieht man ja heute schon ganz gut mit den Smartphones, die alle 2 Jahre neugekauft werden.

Das Ende der Transistorenquetscherei ist ja nicht das Ende der Innovationen. Endanwender brauchen nicht immer mehr Leistung und Supercomputer füllen jetzt schon ganze Hallen. Ich bin schonmal drauf gespannt und freue mich, dass ich diesen Moment noch in meiner Lebenszeit miterleben darf. Sie werden schon irgendeinen Weg finden die Natur mal wieder auszutricksen :)

Die Natur ist nicht auszutricksen.
Sie gibt uns die dinge nur vor wonach wir uns unausweichlich richten müssen oder uns andere Lösungen einfallen lassen müssen um an unsere ziele zu kommen.
Das wird auch noch bis ans Ende der Menschheit so gehen ^^
 
Skysnake schrieb:
Nur blöd, dass die C/C++ Lösungen, wenn richtig gemacht nur immer noch deutlich performanter sind....
Du kannst das Aktoren-Konzept genauso in C/C++ bauen, das ist kein Hindernis. Die Leute fürchten sich eben nur davor etwas neues zu lernen. Dabei machen Aktoren Threading viel einfacher. Aber man bekommt ja Threading aktuell noch "irgendwie hin", von nem Octacore können vllt. 5 Kerne genutzt werden, hey, besser als nichts.
Und mehr als 10 Kerne? Ach das hat ja fast keiner, ist ne Workstation dafür gibts dann spezielle Software. Die eventuell selbst die gleichen Probleme hat.
 
Das Moores law nicht unendlich funktioniert ist doch schons eit ewigkeiten bekannt. Man sieht es doch schon die letzten 5 jahre wie die Kurve immer flacher wird. Die grossen Sprünge wird es nicht mehr geben wo mit einer Generation plötzlich die doppelte oder gar vierfache leistung zur Verfügung steht. Vor 10 jahren als DX9 grade aufkam war die Radeon 9700Pro eine Revolution, danach kam die X800 wieder fast doppelt so schnell, der Sprung vom P4 auf den P-M oder später den C2D war ebenso gewaltig. Plötzlich gab es Power ohne ende für jedermann. Oder man denke an die Festplatten: 2,4,8,16,32,64,128.... Das ging rasend schnell bis 500GB, danach wurde es quasi schlagartig gestoppt und ging im Zeitlupentempo weiter. Anderes Beispiel die Strukturgrößen, auch hier macht man nur noch minischritte mit microergebnissen. War es vor 10 jahren noch normal das bei einem shrink massiv strom gespart wurde bleibt der verbrauch heute nahezu gleich oder unterscheidet sich nur um wenige %. Wir sind eben kurz vorm Limit, in ein paar Jahren sind wir auf Atomgröße und dann ist es vorbei mit dem shrinken. Dann wird man zwangsweise größere Prozessoren bauen müssen für mehr Leistung.

Alles ein alter Hut.
 
Da sehe ich Intels nächsten große Vorteil, die haben ja jetzt schon Jahre Vorsprung bei der Fertigung, aber das könnte sich noch verschärfen. Da AMD diese summen unmöglich auftreiben kann, Intel schon, wenn sie wollen. Und wenn sie das machen haben sie zwar weniger Gewinn, aber mit Sicherheit eine haus hoch überlegene Fertigung, zumindest gegenüber AMD. IBM kann da bestimmt mitgehen.
 
ich versteh es einfach nicht wiso es immer ein Vorteil für die leute ist,
wenn Intel um jahre voraus ist.
das ist doch eher ein Nachteil, man sieht es ja ein dualcore ala i3 kostet 100euro
 
Eine sehr interessante Diskussion

hallo7 schrieb:
Tja, sobald sie entsprechende Supraleiter in Verbindung mit Halbleiter Eigenschaften gefunden haben wird die Show weitergehen. Ich hoffe bis 2020 sind sie da ein gutes Stück weiter als jetzt.

Zu viel Terminator geguckt?

etking schrieb:
Es wird auch an völlig neuartigen Technologien jenseits klassischer elektrischer Transistoren (Quantencomputer, Optische Computer, Schwingungsbasierte Computer) geforscht und die Entwicklung könnte zukünftig vielleicht sogar noch schneller voran gehen als bisher.

Der möglichkeit eines Optischen Computers schließe ich mich an, die Experimente und die Forschung sehen in diese Richtung rosig aus. Man kann auch mit den heute üblichen Silizium basierten Methoden 3 Dimensionale Strukturen herstellen in denen sich das Licht ausbreiten kann. Dieses Prinzip basiert sogar auf Quantenmechanik (Superposition, ...) also ist es in gewisser weise auch ein Quantencomputer.

Spintronik währeauch noch eine alternative, ist auch wieder die Nutzung von Quantenmechanik für berechnungen.

Zum Thema Quantencomputer: Klassische Quantencomputer können nur Optimierungsprobleme "schnell" lösen, für logische Berechnungen (stichwort Turing maschine) sind Sie nach meinem Wissen volkommen ungeeignet. Ich habe schnell so geschrieben da es umstritten ist ob D-Wave wirklich schneller die Lösung berechnet als ein Cluster mit klasischen Computern.

Weiterhin denke ich das Graphen basierte computer nur mit Planrem Graphen (nicht die Nanotubes) realisierbar sein könnten. Das Problem mit den Nanotubes ist das ich mir keinen Mechanismus vorstellen kann wie man Sie kosteneffektiv präzise verbinden soll. Selbstorganisation währe ein weg dies zu bewerkstelligen doch die Wissenschaftler hinter die Prinzipien kommen und es auch noch marktreif anwenden können steht in den Sternen.

Natürlich kann ich mich auch komplett irren, hinterher ist man immer schlauer ;).


Zum Thema Parallelisierung von Software:
Ich denke das man mit dem Paralelisierungsgedanken von Funktionalen Sprachen auch weit kommt, siehe Clojure oder ggf. Haskell, man kann teoretisch Compiler/Interpreter für die Sprachen bauen die die Arbeit auf X Kerne aufteilen.

Skysnake schrieb:
Nur blöd, dass die C/C++ Lösungen, wenn richtig gemacht nur immer noch deutlich performanter sind....

Das Problem sind eigentlich nur gute Programmierer, die auch Ahnung von Hardware haben, aber viele Programmierer meinen ja, Sie müssten von Hardware keine Ahnung haben, und wundern sich dann, warum Sie keinen performanten Code schreiben können oder eben Semaphronen usw vergessen....

Der Meinung schließe ich mich nicht an, klar, wenn man etwas per Hand optimiert kann es schneller sein, doch es benötigt enorm viel Zeit und Wissen und die gefundene Lösung ist fest für eine Architektur verdrahtet, wenn man es in 5...10 Jahren irgendwo einsetzen möchte stößt es wieder an grenzen an die man früher nicht gedacht hatte. Das selbe kann man übrigens über Assembler vs C++/Java/Whatever sagen, klar ist eine Handeschriebene Lösung schneller doch es ist nicht mehr portabel, benötigt mehr Zeit, ist fest verdrahtet usw.

Wenn der Compiler automatisch die Parallelisierung vornimmt bleibt der Code portabel/lässt sich für andere Architekturen neu kompilieren.
 
Ich mache mir keine großen Sorgen. Wenn die Strukturgröße nicht mehr weiter schrumpft kommen andere Technologien zum Zug, wie Spintronik z.B., optische Verbindungen in Chips, Memristoren, Graphen/Kohlenstoffnanoröhren usw. So fix geht da nichts aus, es kann schlimmstenfalls passieren, dass es eine Durststrecke geben könnte, aber die Forschung holt das schon auf. :)
 
Als einen möglichen ökonomischen Grund führt er an, dass wenn zum Beispiel Intel es nicht mehr als ökonomisch vertretbar ansieht, weiter in die Verkleinerung der Strukturbreiten zu investieren.

Ist das ein Versuch etwas aus dem Englischen zu übersetzen? Der Satz ist ja total verkorkst. :rolleyes:
 
Der Artikel ist gut geschrieben, und erklärt alles deutlich.
Moore selbst prognostiziert ja ein Ende bis 2020.
Das wäre dann schon in 7 Jahren.

Wir stehen also vor erheblichen Umbrüchen in nächster Zeit in der IT.
Und ich kann mir nicht vorstellen, dass die großen Produzenten dass nicht schon längst wissen,
und an neuen Konzepten arbeiten.

Ich würde mir da selbst auch nicht zu große Sorgen machen.
Zukünftig wird viel mehr in die Cloud ausgelagert als heute.
Das alles am eigenen PC berechnet wird, ist ein Modell von gestern.
Das Shrink-"Problem" ist also eher für Server-Hersteller/Farmen relevant.
 
@vcTommy:

Genau das wird ja bei SoCs gemacht: Da wir den Platz auf dem DIE gar nicht komplett nutzen, stecken wir halt noch die ganzen Controller mit rein, die früher eigene Chips waren. Auch weil das günstiger ist, als einzelne Bauteile miteinander zu verlöten

Endvorstellung: 1 Chip, sowas wie eine USB Schnittstelle für die Kommunikation, größer ist der Rechner der Zukunft nicht mehr.
 
ice-breaker schrieb:
Du kannst das Aktoren-Konzept genauso in C/C++ bauen, das ist kein Hindernis. Die Leute fürchten sich eben nur davor etwas neues zu lernen. Dabei machen Aktoren Threading viel einfacher. Aber man bekommt ja Threading aktuell noch "irgendwie hin", von nem Octacore können vllt. 5 Kerne genutzt werden, hey, besser als nichts.
Und mehr als 10 Kerne? Ach das hat ja fast keiner, ist ne Workstation dafür gibts dann spezielle Software. Die eventuell selbst die gleichen Probleme hat.

Ich kenne niemanden der heute noch klassisch Threading betreibt.
Heutzutage ist vor allem Daten-Parallelismus via OpenCL, OpenMP, Cilk Plus oder TBB gefragt. Und das skaliert auch von einem auf mehrere Tausend Kerne.

Außerdem vergisst du, dass es mehrere Ebenen von Parallelismus gibt. Eine die man sich mit Erlang & Co. versperrt ist SIMD.
Der x264-Codec hat einen Vergleich zwischen C-Code und AVX2-optimierten Code gemacht. Jener Code der optimiert wurde ist im Durschnitt 15x schneller als der C-Code ohne Optimierungen. Und im Jahre 2015 mit AVX512 wird sich eine weitere Verdoppelung ergeben.
 
Dulo schrieb:
wo ist das Problem.
Die Quantencomputer pfeifen auf das morsche Gesetz, und früher oder später werden die unsere jetzigen Computer weit in den Schatten stellen.

Genau da ist das Problem, die Quantencomputer (ebenso wie die anderen möglichen Nachfolger von CMOS, QC sind nach aktuellem Erkenntnisstand eben nicht für JoeJedermanns Computeranwendungen geeignet) sind noch nicht einmal so weit das man sie in eine langfristige Planung einbeziehen könnte.
Ergänzung ()

F_GXdx schrieb:
Ahja, interessante Grammatik?

Quantengrammatik!
Ergänzung ()

xyz- schrieb:
naja sobald ich meinen rechner nicht mehr bei mir habe, sondern für rechenleistung zahlen soll, steig ich aus der moderne Aus.

Du zahlst bereits jetzt für die Rechenleistung - in Form und als Teil Deines Rechners. Im Best Case kaufst Du "Rechenleistung für Cyrsis17@UHD" für 8 Euro pro Jahr. Im Worst Case kaufst Du "Rechenleistung für 30 min. Crysis 17 jedoch maximal 8 Stunden im Jahr, danach zurückfallend auf 640*480" für 8 Euro (von T-Com).

Ich würde die Entscheidung von den Konditionen abhängig machen :-)
Ergänzung ()

Kasmopaya schrieb:
Da sehe ich Intels nächsten große Vorteil, die haben ja jetzt schon Jahre Vorsprung bei der Fertigung, aber das könnte sich noch verschärfen. Da AMD diese summen unmöglich auftreiben kann, Intel schon, wenn sie wollen.

Oder andersrum: Da AMD seine APUs in Fabs herstellen läßt die auch andere Kunden haben sind deren Gestehungskosten einfach durch die Größe geringer. Intel wird also seinen Vorsprung verlieren, spätestens wenn das Rennen am 5- oder 3nm-Berg zum erliegen kommt.
 
Tapion3388 schrieb:
Die Information wird nicht auf "physikalischem Wege" (also kontinuierlich von A nach B) übertragen, aber eine Übertragung (Morse-Code) wäre prinzipiell möglich (auch mit Überlichtgeschwindigkeit).
Aber keine Ahnung, wie diese Verschränkung funktionieren soll, kann sie mir beim besten Willen nicht vorstellen... :D
Vereinfachte Analogie, die etwas hinkt (wie immer bei solchen Themen):
Denk mal an das Spiel Portal. Du machst an zwei Punkten A und B ein Portal auf. Dann nimmst du den Compagnion Cube und steckst ihn zur Hälfte in ein Portal.
Was hat man dann? Hat man zwei Würfel, die durch die Distanz zwischen den Portalen getrennt ist? Oder hat man einen Würfel, der eigentlich gar nicht an zwei Orten gleichzeitig ist? So ganz von außen betrachtet, stimmt beides: Es ist ein und gleichzeitig zwei Würfel. Der Würfel befindet sich an einer Position und gleichzeitig an zwei Positionen.

So in etwa kann man es sich bei der Quantenverschränkung auch vorstellen: Man hat ein Teilchen, das aber als zwei Teilchen angesehen wird. Das sagt der Prof. in dem Video aber auch ungefähr so. (Frei zitiert: "Es gibt ein Teilchen mit einem nach oben orientierten Spin und eines mit einem nach unten orientierten Spin. Beide zusammen bilden ein Teilchen mit neutralem Spin." & "Auch wenn beide Teilchen 100 Mio. Lichtjahre auseinander sind, so ist der Abstand zwischen ihn 0." [Es ist schließlich ein Teilchen, das kann nur einen Abstand von 0 zu sich selbst haben.])

Ja, es klingt blöd, aber man sagt ja nicht umsonst, dass Quantenphysik einen total Banane macht... und dass es auf der Welt nur eine Hand (also maximal 5) voll Leute gibt, die sie verstehen. Und diese Leute sagen: "Quantenphysik ist macht einen total Banane!"



Wie wird die Zukunft aussehen?
Ich persönlich glaube, dass man mehr auf Parallelisierung und neue spezialisierte Subeinheiten setzen wird. Ich meine damit, dass man weg vom general purpose design (einer kann alles, aber nichts richtig gut) hin zu einer Sammlung von special purpose designs geht (einer kann nur wenig, das aber richtig gut).
So ein bisschen gibts das in Form von GPGPU. Wenn man will, ist eine CPU eigentlich schon nach dem Prinzip aufgebaut (sie kann viel und Teile davon richtig gut). Man nutzt spezialisierte Funktionseinheiten, um bestimmte Ausführungen zu beschleunigen. Ich glaube, dass es davon in der Zukunft noch mehr geben wird - für jede Art von Berechnung. Als extremes Beispiel so was wie das: Eine Funktionseinheit (FE) für in den Speicher schreiben, eine FE um den Speicher zu lesen, eine FE um einen Wert im Speicher um 1 zu erhöhren usw. Und alle diese FEs sind parallel ansprechbar.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben