News AMD und Intel: Zukünftig bis zu 16 CPU-Kerne?

Na, aber warum malst du das denn alles so schwarz? Du tust ja gerade so als ob morgen schon die 16 Cores kommen. Das wird noch ein paar Jahre dauern und da sollte man schon früh angangen zu forschen. Das ist doch einfach nur eine Meldung, dass AMD und Intel das beide so sehen und in Zukunft (genau datiert ist das ja nicht, also in 2 Jahre oder gar erst in 8 Jahren?) dann diese CPUs anbieten. Bis dahin dürfte sich auch 64Bit durchgesetzt haben und generell eine bessere Multicore Unterstützung herschen und damit eingeltich keine größeren Probleme für solche Multicore CPUs bestehen.
 
seltsam ich finde bei geizhals gar keine prozessoeren mit 16 kernen ..
liegt wohl daran, das die auch für die zukunft geplant sind? .. wer weiß
 
Endlich mal ein schritt in die richtige richtung!

AMD/Intel sollten die Taktfrequenz irgend wo zwischen 2-3ghz fixen, und immer weiter ihre Architektur ausbauen, so dass Sie bei gleicher Taktfrequenz schneller sind als die alte Generation, bei gleicher oder weniger stromaufnahme. :-)

Mal sehen wie sich das ganze endwickelt!
 
wer sich ein wenig für aktuelle Forschung interessiert, der weiß, dass es auch heute schon kein Problem ist enorm leistungsfähige "Superrechner" tagelang mit einer einzigen Aufgabe zu beschäftigen.
Wenn man dann bald die Aufgaben, die dieser in 5 minuten löst am eigenen Rechner bearbeiten kann ist das doch wesentlich angenehmer.

Edit: und bevor du jetzt antwortest: "es arbeitet aber nicht jeder in der Forschung"; Wer Filme konvertiert, Rendergrafiken erstellt oder z.B. Festigkeitsberechnungen anstrengt kan garnicht genug Rechenleistung haben.
 
Zuletzt bearbeitet:
Hannes Schwaderer sagt es doch ziemlich deutlich. Erstmal muss die Struktur der Software verändert werden, um deutlich mehr Kerne sinnvoll nutzen zu können. Auch kann ich mir vorstellen, dass man sich mit der geringen oder gar 0% Taktsteigerung eigentlich auf die aktuell vorhandenen oder bereits in der Entwicklung befindlichen Strukturen bezieht und nicht auf vielleicht bald kommende Strukturen.
Außerdem kann man auch erstmal vorhandene Strukturen optimieren. Mit dem C2D hat Intel die CPU auch nicht neu erfunden. Ein großer Quantensprung war die CPU nicht, hat aber dem Rechner ein ordentliches Plus an Leistung verschafft.

Von daher mach ich mir gar keine Sorgen, dass man in Zukunft immernoch genug Leistung für zu wenig Software (in meinem Fall eher Spiele) haben wird.
Wer allerdings von Haus aus viel CPU-Leistung braucht, kann es sicher gar nicht abwarten, bis es deutlich mehr Kerne gibt. Hoffentlich könnt ihr bald Weihnachten und Geburtstag zusammen feiern und euch auf viele neue kleine Kerne freuen :D
 
Es reicht schon aus, wenn man nur genügend Programme gleichzeitig geöffnet hat... Also nicht nur für die klassichen Beispiele wie rendern sind viele Cores äußerst hilfreich.

Ein weiterer wichtiger Schritt wäre jetzt, dass die Betriebsysteme "intelligenter" die ganzen Programm über die vielen Cores zu verteilen. In welcher Form dass dann auch passieren wird sei erstmal dahingestellt... Hier gibt es versch. Szenarien die jeweils eine andere Behandlung benötigen.
 
die Frage ist doch vielmehr, ob die Core-Erhöhung langfristig nicht ebenso aussichtslos ist wie die Takterhöhung. Nun eine enorme takterhöhung mag den Stromverbrauch in die Höhe treiben, aber CPU-Kerne tun das auch, man schaue sich nur die Phenoms an. Klar man wirkt dem mit dem Fertigungsprozess entgegen, aber auch dort wird in absehbarer zeit das Ende der fahnenstange erreicht sien. Die von AMD und Intel propagierten 16-Kern-Lösungen sind nur eine mittelfristige Lösung. Die Hersteller werden wohl nicht umhinkommen, neue Architekturen zu entwerfen, alte Zöpfe abzuschneiden (alleine wegen des Platzes auf dem Die), neue Fertigungstechniken zu entwickeln. Die 16 Kerne sind nur ein zeitgewinn, um etwas völlig neues entwickeln zu können.
 
Wenn neue Ferigungstechniken kommen oder wieder einmal ein besserer Isolator gefunden wird wird auch wieder mehr an der Taktschraube gedreht. Da ist nämlich noch haufenweise Potenzial drin.

Die beiden Herren haben schon recht. Auf kurze Sicht ist nicht viel mehr über den Takt herauszuholen, aber irgendeine Forschungsabteilung wird sich dazu schon was einfallen lassen.
 
Hmm, ich fürchte die Entwicklung geht in die falsche Richtung. Das Silizium als Material begrenzt ungemein. Immerhin hat man gesehen, dass die Taktsteigerung zu nichts führt und nur die Verlustleistung erhöht. Jetzt hat man als Alternative die Steigerung der Core-Anzahl entdeckt. Das ist ein guter Kompromiss, denn die Leistung lässt sich gut steigern, ohne dass die Verlustleistung zu sehr steigt. Aber hier entsteht das Problem, dass nicht mehr genug Platz vorhanden ist, wenn man immer mehr Cores aneinanderhängt. Noch kann man das dadurch lösen, dass man immer feiner fertigt. Aber irgendwann kommt man an die Atomgröße von Silizium und muss anfangen, die CPUs selbst zu vergrößern. Auf lange Sicht führt das zu nichts, auch wenn man das Kommunikationsproblem durch Spezialisierung der Kerne löst.
Irgendwann müssen wir uns vom Silizium trennen, vermutlich sogar überhaupt von der Halbleitertechnologie. Alternativen gibt es jetzt schon. Glasfaser zum Beispiel. Oder die Quantenprozessoren, von denen man in letzter Zeit irgendwie nichts mehr hört.
Klar, dass Intel und AMD erstmal die Halbleitertechnologie ausschöpfen wollen, um möglichst viel Profit zu machen. Aber irgendwann müssen sie umsteigen, weil nichts mehr geht. Und ich hoffe doch sehr, dass schon an neuen Technologien geforscht wird, sonst wird der Umstieg ziemlich kritisch. :)
 
Ich verstehe auch das Problem vieler hier nicht. Das Interview mit den Beiden befasst sich ja mit der zukünftigen Entwicklung und nicht mit dem was in 3 Monaten auf den Markt kommt. Wenn dann in wenigen
Jahren Prozessoren auf den Markt kommen, die 16 Kerne haben ist das doch nur zu begrüßen. Ob man diese dann wirklich braucht oder was alles passiert kann man noch nicht 100%ig erahnen.
Wenn man sich jedoch die Entwicklung anschaut, ist es doch sehr wahrscheinlich, dass alle möglichen Anwendungen auch auf 16 Kerne optimiert werden. Auch wenn es bestimmt wieder ein bisschen dauern wird, so wie es jetzt noch dauert bis 4 kerne unterstützt werden. Auch das Argument, dass bei vielen Leuten noch ein Singlecore in der Bude steht, halte ich für Quatsch. Die meisten Privatanwender kaufen sich halt nicht ständig einen neuen Rechner, sondern nur alle 4-5 Jahre. Sobald die sich einen neuen kaufen, wird es mindestens ein Dual- oder sogar eher ein Quadcore sein.
 
Es gibt einige Dinge, die vorab geschehen, bevor das Produkt im Laden erhältlich ist.
- Produktidee
- Produktentwicklung
- Prototypenfertigung
- Nachbesserungen
- Freigabe für Massenprooduktion
...

Hierbei ist gerade die Entwicklung, unter anderem auf Grund der Miniaturisierung, sehr zeitintensiv. Wenn das Produkt zwar heute schon als Ziel ins Auge gefasst wurde, aber bisher noch nichts entwickelt wurde, dauert es noch einige Zeit, bis die Marktreife erreicht ist. Bis dahin wird ein kontinuierliches Wachstum an Kernen und ein ebenso hohes Wachstum Anforderungen der Software zu verzeichnen sein.
 
Wann willst du denn sonst anfangen zu forschen und zu entwickeln wenn nicht jetzt ? Weisst du überhaupt wie lange das dauert von der Forschung bis zum Produkt im Laden ?
 
Dass mehr Cores kommen ist eigtl. logisch, allerdings müssen sich nicht unbedingt alle Softwareentwickler anpssen, es würde reichen wenn Windows besser damit klar kommt, bzw. mit der Aufteilung der logischen Leistung an mehr oder weniger fordernde Prozesse.

Bei 16 Kernen wären es dann logisch wenn sich 4 Kerne auf z.B. Photoshop, 2 Kerne auf Firefox, 4 Kerne auf Standby und der rest sich auf Hintergrundprozesse konzentriert. Und das Ganze noch so dynamisch und logisch wie möglich.

mfg,
Markus
 
Bei Spielen kann man ab einem gewissen Punkt nichts mehr auf unterschiedliche Kerne verteilen.
Encoding, Rendern dagegen ist sehr gut Multithreading fähig. Deshalb profitieren sie auch am meisten von dieser Entwicklung.

16 Kerne wird mit Sicherheit kein SPiel in den nächsten 10 Jahren sinnvoll ausnutzen können.
Dafür kann man mit einem CPU 8 virtualisierte Dualcore-Server betreiben, genügend Ram und schnelles Festplattenarray vorrausgesetzt.
Virtuellen Server gehört die Zukunft und wird mit dieser Entwicklung hoffentlich noch leistungsfähiger
 
Damit wälzen die CPU-Hersteller das Thema "Leistungssteigerung" immer mehr auf die Software-Programmierer ab - und in so manchem Anwendungsbereich können auch diese nunmal keine Wunder bewirken, da wird weiterhin die Leistung eines einzelnen Kerns wichtiger sein. Multi-Core ist - auch wenn es ohne Zweifel einen gewissen Nutzen hat - kein Fortschritt (das gibt es schon lange, nur halt erst seit kurzem für die Massen), sondern das Eingeständnis, dass die Hersteller momentan an ihren Know-How-Grenzen angekommen sind, was Prozessortechnologie betrifft. Ich sehe die ganze Entwicklung jedenfalls eher skeptisch.
 
Je mehr einzelne Komponenten in einem Spiel auftreten, desto eher, könnte ich mir vorstellen, profitiert das Spiel auch von mehreren Kernen.
 
Richtig, und prinzipiell lässt sich jede komplexe Software in Teilthreads spalten, die dann auf mehreren Kernen laufen. Die Frage ist nur wie gut und wieviel Aufwand ist das. Und wieviel dieser Arbeit kann das OS automatisch übernehmen.

Eigentlich sind heutige PCs dort angekommen wo sie hin sollten, weitere Geschwindigkeitserhöhungen bringen eigentlich nicht mehr wirklich viel. Ein Auto mit 100 PS hat sich auch als der Standard etabliert. Es gibt eben DOCH irgendwann eine Grenze wo es keinen Sinn mehr macht. Die war zwar nicht wie prognostiziert vor 20 Jahren bei 32 Kilobyte RAM oder 256 kB Speicher, aber jetzt eben doch. Und zwar definitiv.

Ab jetzt ist alles nur noch für Spiele, Server oder Multimedia profitabel. Allerdings, Multithreading ist nicht erst seit JAVA ein wichtiges Gebiet für Programmierer geworden, natürlich wird sich das Softwaredesign die nächsten Jahre stark ändern.

Eines ist jedenfalls sicher, MultiCore ist stark im kommen, das sehe ich schon bei uns an der Uni. Rendering ist eigentlich der Klassiker, theoretisch ist jeder einzelne Transistor einer Graka ein Core, also hat die neue ATI RV770 Karte später 1 Milliarde Cores wenn man es so sehen will, da funktioniert es auch, weil man die Engines eben so ausgelegt hat.

Oder was glaubt ihr was nVidia CUDA ist, im Prinzip nichts anderes als ein extremer Multicore CPU. Natürlich muss man Software dafür maßschneidern, aber das ist nicht unmöglich, aber natürlich problemabhängig.
 
Zuletzt bearbeitet:
bartio schrieb:
16 Kerne wird mit Sicherheit kein SPiel in den nächsten 10 Jahren sinnvoll ausnutzen können.
Vorsicht mit solchen Aussagen, oder hast du eine zuverlässige Glaskugel?
Denke zb. nur an das Raytracing-Programm von Intel.
Speielkonsolen sind jetzt schon Multi-Core.

Erzwodezwookie schrieb:
Damit wälzen die CPU-Hersteller das Thema "Leistungssteigerung" immer mehr auf die Software-Programmierer ab
Ist ja auch richtig so. Der Beitrag im Consumer-Bereich war eher gering, insbesondere ind er Spieleindustrie, wo sich die Entwickler einfach auf die Grafikkartenhersteller verlassen haben. Sieh dir die Spielekonsolen an, die sind inzwischen Multi-Core und es funktioniert und die Entwickler strengen sich auch an, dass ein Spiel auch auf einer jahrealten Konsole noch gut aussieht.
 
die MultiCore Prozessoren haben innerhalb der nächsten 3 Jahre sowieso ausgedient, das Spiel kann und sollte man nicht ewig treiben.
Zukunft haben Quantenprozessoren und Datenübermittlung per Verschränkung der Eigenschaften. Die Entwicklung wird hier rasant voranschreiten, den ersten Prozessor dieser Art gibt es bereits.
 
Das blöde an den ganze Multicores, ist bloß das OOP Sprachen an bedeutung verlieren und funktionale Sprachen wie z.B Hasekell an bedeutung gewinnen!
Und jeder der schomal damit gearbeitet hat weiß was das heißt!
 
Zurück
Oben