News AMD und Intel: Zukünftig bis zu 16 CPU-Kerne?

Hallo,

also ich denke das diese Lösung mit der erhöhten Anzahl an Kernen keine schlechte ist. Wie schon geschrieben wurde muss aber eine Lösung die meiner Meinung nach mehr Zukunft haben könnte. Ja die Anzahl der Kerne, die Taktfrequenz so denke ich kann aber nicht auf unterster ebene gehalten werden und auch an der Architektur muss sich etwas tun. Auch wenn es jetzt noch möglich ist Geschwindigkeitsvorteile durch Erhöhung der Kerne einzuholen so wird das aber schnell an die grenzen kommen. Natürlich darf man hier nicht außer acht lassen das sich die Software und auch die andere Hardware daran anpassen muss sonst nütz das alles nur wenig.

Ich denke aber ebenso das dies alles die Zukunft zeigen wird und ich denke da können wir uns getrost überraschen lassen!

MfG Req2000
 
War von Bill Gates aus dem Jahre 1981 (Quelle: Google)^^
 
Das lustige ist mal wieder, dass immer noch viele der Meinung sind, dass 4 Kerne absolut reichen. Bill Gates hatte früher mal gesagt "Niemand wird mehr als 32KB RAM benötigen". Wo sind mer heute? 3GB sind fast schon Standard bei neuen Komplettsystemen.

Sicherleich "reichen" erstmal 4 Kerne. Aber nur, wenn man bis an die eigene Grundstücksgrenze denkt, und meint "ich zock ja eh nur...". Ja, für Games, Multimedia reichts. Was aber ist mit Rendering? Filme encodieren? Da brauch man zwar auch nicht unbedingt möglichst viele Cores, machen das ganze aber wesentlichst angenehmer. Naja.

Meine Prognose würde lauten: Zwischen 2014und 2016 etwa sind wir bei 16 Cores. MS wird bis dahin Windows 8 inkl modularem Aufbau und echtem Support für >16 Kerne haben. *unix, Google-OS (wie wärs mit dem Namen Goose?^^) werden schon etwas vorher ihre Systemcodes für Multicores optimieren. Mac bleibt aussen vor, die entwickeln bestimmt irgend eine propitäre Lösung, wie immer... Der RAM besteht aus >16GB Flash-RAMs, pro Core also mind. 1GB.

Und danach? Danach werden eher 2 und mehr Prozessorsockel auf einem Board zu finden sein, als mehr Cores auf einer CPU.
 
Herrlich... die Strukturgrößen in CPUs sind alles andere als groß.
1nm=10^-9m=0,000000001m, also sind 45nm entsprechend 0,000045mm. Das sind in etwa 300 Atomradien (Atomradius durchschnittlich 150pm = 1,5*10^-10m). Was sagt Dir das über deine Aussage?
 
Zuletzt bearbeitet:
... der Horizont von CB ist aber auch weitest gehend auf Games- & Privatanwender ausgelegt. Oder meinst hier holen sich Unternehmen Ihre Infos für neue Server und Workstations.

Mir fallen jetzt nicht soviele Anwendungen ein die 16 Kerne unterstützen.
 
Es soll die wage Möglichkeit bestehen, das auch hier auf CB Leute unterwegs sind, die sich für Neuerungen im Serverbereich interessieren, auch wenn sie diese nicht selbst nutzen werden.
 
es gibt mehr rechner als deinen... warum denken alle immer, dass cpus nur für den desktop hergestellt werden?

was denkst du was alles auf einem server, in irgend einem rechenzentrum abläuft? viele provider bieten zugänge an, der mit 999 weiteren kunden geteilt wird. und jetzt sag mir bitte wer hier nicht mehr als 1 prozessorkern brauch. nebenbei erwähnt, auf manchen servern laufen auch mehr als 2 recheninstensive programme/dienste gleichzeitig (http, ftp, php, mysql, mail, ...).

wenn du mir allerdings zeigen kannst, wie eine singlecore-cpu die oben genannten dinge gleichzeitig und ohne große latenzen bewältigen kann, gebe ich dir recht.
 
Mit den oben stehenden Thesen würde sich zumindest erklären, warum man ständig zwei GPUs auf ein PCB ballert. Solange aber diese Microruckler vorhanden sind, wird sich das wohl nicht durchsetzen.
Sobald aber Raytracing eingesetzt wird, dreht sich das ganze doch wieder?! War doch so, dass RT eigentlich nicht genug Prozessoren und somit Leistung haben kann, oder? Das würde dann eigentlich wieder in die völlig andere Richtung gehen. Und dann macht dieser Multicore-Kram auch bald wieder Sinn.
 
So siehts aus... :)
 
ja, ich verstehe dich sehr gut! ich hol mir auch bald nen quad und dann läuft blender hoffentlich mal in einer zumutbaren geschwindigkeit.
ich wäre absolut zufrieden mit dieser entwicklung!
 
sogar noch viel unwahrscheinlicher. es gibt nur eine Firma die behauptet, einen Quantencomputer gebaut zu haben, den aber niemand je live gesehen hat.
 
Wobei so ein alter XP aber mehr verbraucht als ein moderner 65 oder 45 nm Dualcore und dafür deutlich weniger leistet, sprich die Leistung / Watt ist deutlich niedriger.

Ich begrüße den Schritt das es CPUs mit 16 Kernen und wohl sicher später noch mehr geben wird, nur muss OS und Software dann vollkommen auf Multitasking ausgelegt sein, sonst schaukeln die meisten Cores "nur ihre Eier".

Ich denke, ich fahre mit meinem neuen X3350 erstmal locker 2 Jahre ganz gut - danach kommt wohl der 32nm Nehalem Refresh rein - mindestens mal als Octacore, wobei Hexacore mit Hyperthreading schon was feines wär. :-)
 
Auch wenn manche es nicht verstehen wollen, AMD und Intel planen bereits für die nächsten zehn bis fünfzehn Jahre. Da wird auch in Grundlagenforschung wie Sointronic investiert, von der bis heute wohl kaum einer hier was gehört hat. Natürlich auch solche Nebenaspekte wie Biocomputing und Quantencomputer, nur dass z.B. Quantencomputer so grundklegend anders arbeiten, dass vieles was man so am Rechner macht darauf vll. garnicht funktionieren wird, sollte es denn mal einen lauffähigen Quantenrchner geben.
Das echte Problem sehe ich aber weniger im Soft- oder Hardwareseitig machbaren, als im Bedarf.
Vor 10 Jahren war ein fünf jahre alter Rechner kaum noch für etwas zu gebrauchen, mit MP3 schon überfordert sozusagen.
Heute gibt es massenhaft Anwender, denen selbst ein P3 1GHz noch ausreicht, weil sie nur surfen, ein bisschen Bildbearbeitung machen und mal ne CD rippen. Dieser Anteil wird in zukunft weiter wachsen, alleine schon, weil wenn HD wirklich mal Standard wird selbst Sparrechner genug Power haben werden, solche Inhalte zu rippen oder recodieren. Und längst nicht jeder nutzt so Hardwarehungrige Anwendungen wie C4D oder Spiele.
Bei letzteren denke ich übrigens, das sich 16 Kerne sehr wohl lohnen werden, Raytracing-Engines skalieren nämlich sehr gut mit wachsender Kernzahl.
 
ich glaube nun wirklich nicht das dies ein soo großes hinderniss darstellt. es werden sehr schnell methoden gefunden sein software schnell und effizient an multicores anzupassen.. es ging von 1 bis 4 kerne. warum dann nich auch bei 16 oder mehr? also jeder der meint hier meint das braucht man nicht oder das ist unnütz und schlecht der hat iwas nicht mitbekommen. aber ich will auch gar nicht weiter ausholen, haben sich schon genug dazu geäussert (ich liebe das zitat von bill gates ^^)
 
Ihr habt ja recht, trotzdem wird es nicht langer dauern und hier wird getestet wieviel FPS Crysis mit der 16 Kern CPU schafft. 4 Kerne müssen schließlich dafür auch schon herhalten.
 
Viele Kerne, das klingt toll, aber was nützt all das, wenn keiner davon Gebrauch macht? Die Softwareprogrammierer sind leider nicht so schnell wie die in der Hardwareentwicklung. Es ist halt sehr schwer Software auf mehrere Kerne zu optimieren.
Ich bin sehr gespannt, wie es demnächst weiter geht.
 
Zurück
Oben