News Intel kündigt Details zum Zehn-Kern-Prozessor an

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.362
Ich persönlich wünsche mir, dass sämtliche Software inkl. Betriebssystem langsam mal auch für solche CPUs konzipiert werden.
Eine einfache Unterstützung oder das nutzen von 2-3 Kernen so nebenbei kanns einfach nicht mehr sein.
 
Ja, irgendwas stimmt da nicht. Das voranschreiten der Kerne/Threads geht wesentlich schneller als die Programmierung, damit die Kerne auch genutzt werden.
 
Ich wünschte mir, Intel und AMD würden mal wieder mehr in der Realität entwickeln...Statt immer nur den einfachen Weg zu gehen und mehr Kerne aufs DIE zu klatschen, sollten die versuchen Leistung pro Takt zu erhöhen. Davon profitieren nämlich alle Anwendungen. Die müssen mal verstehen, dass die Software Entwicklung nicht hinterherkommt. Seit kurzem kann man davon sprechen, dass sich ein Quad wirklich lohnt und schon bringen die 6-Kerner raus...

^ Gilt alles für den Privatbereich, nicht Server o.Ä ;)
 
SamSoNight schrieb:
^ Gilt alles für den Privatbereich, nicht Server o.Ä ;)

Und genau das ist der Springende Punkt dieser News. Diese CPU hat im Privatbereich nix verloren. Und in ihrem eigentlichen Anwendungsbereich ist man froh über jeden weiteren Kern!
 
So wie ich es sehe, kommen die CPUs doch eh nur für den Server Bereich, also wieso jaul hier jeder rum oO
Für den Server Bereich gibs schon seit ewigkeiten Software die sehr gut mit vielen Kernen skaliert, oder wie wollt ihr euch die Multisockel-Systeme erklären, die es schon seit ewigkeiten hab.

Nur weil man den fürs zocken nicht gebrauchen kann, heißt es nicht, dass keine Software für solche Prozessoren existieren. Wäre ja auch traurig wenn der schnellste Supercomputer der welt nur aus einem einzigen Dualcore bestehen würd -.-

btt: Ich finde die entwicklung jedenfalls toll. aber wie die immer auf die Anzahl der Kerne kommen ist fraglich.
Warum verdoppelt man nicht einfach immer? Wäre es nicht anfangs wieder lecihter 2 6-kerner zusammen zu pappen? Oder wäre das zu groß?
 
SamSoNight schrieb:
Ich wünschte mir, Intel und AMD würden mal wieder mehr in der Realität entwickeln...Statt immer nur den einfachen Weg zu gehen und mehr Kerne aufs DIE zu klatschen, sollten die versuchen Leistung pro Takt zu erhöhen. Davon profitieren nämlich alle Anwendungen. Die müssen mal verstehen, dass die Software Entwicklung nicht hinterherkommt. Seit kurzem kann man davon sprechen, dass sich ein Quad wirklich lohnt und schon bringen die 6-Kerner raus...

^ Gilt alles für den Privatbereich, nicht Server o.Ä ;)

ich glaub dafür können wir noch lange warten :(
 
Tja, im Privatbereich hat die CPU sicher nix verloren. Ich denke dafür wird die CPU auch zu teuer. N paar Leute wird's allerdings sicher wieder geben die Fragen ob ihre Spiele mit so einem Prozzi besser laufen... :D

Für Server größerer Firmen etc. ist das evtl. sicher eine gute Investition.
 
Im Prinzip wurde alles gesagt, für Server interessant, für den breiten Massenmarkt isses natürlich nix.
Was Games angeht ist es aber leider auch so, dass die wenigsten nunmal massgeblich von der CPU Leistung abhängig sind (wenn überhaupt Strategiegames ala Supreme Commander, oder ein schlecht programmiertes GTA IV), da zählt fast ausschließlich die Leistung der Grafikkarte. Auch hat sich in den letzten Jahren klar ein Strategie durchgesetzt die besagt auf den "niedrigsten Stand" zu entwickeln, sodass der Käuferkreis möglichst groß ist.
Mfg
 
Das geht jetzt genau wie "damals" vor ein paar Jahren los, als noch der Pentium4 aktuell war. Da hat man nur noch auf Taktraten gesetzt und nachher CPUs mit fast 4Ghz angeboten und dann kam die Einsicht von Intel wo sie gemerkt haben, dass das nix bringt außer Probleme und man ist einen anderen Weg gegangen. Diesmal wird es genauso sein, da es heute leider immer noch wenig Sinn macht mehr als 2 oder 4 Kerne einzusetzen. Die meisten Programme sind gerade mal bei der Dual Core-Unterstützung angelangt und die reden von 10 Kernen....hallo? merkt ihr da noch iwas??? :freak:
 
Dr.Pawel schrieb:
Auch hat sich in den letzten Jahren klar ein Strategie durchgesetzt die besagt auf den "niedrigsten Stand" zu entwickeln, sodass der Käuferkreis möglichst groß ist.
Mfg
Aber gerade beim PC kann man die Einstellungen doch hoch und runter schrauben, bis es zur eigenen PC Hardware dann passt.
Oder sind das dann eh nur Optionen, die die Grafikkarte nachher auslasten? Was für Arbeit übernimmt die CPU überhaupt bei Spielen und muss bei der Spieleprogrammierung je nach Anzahl der Kerne alles neu geschrieben werden?
Vielleicht fallen den Programmierern einfach keine neuen Möglichkeiten ein, die CPU besser zu nutzen, wodurch mehr und mehr auf die GPU fokussiert wird...
 
Quatsch! Bisher hat jeder Prozzi, der angeblich für den Pro-Bereich konzipiert war, einen Weg ins normale Heimsystem gefunden. Es gab anfangs einige, die sich Xeons in die Heimrechner verbaut hatten. So wird das auch mit diesen Prozessoren laufen. Erst wirds eine teure Pro-Version geben und dann tröpfeln langsam Mainstream-Prozzis herein.

Intel wird sich ganz bestimmt nicht die Kundschaft aus dem privatem Sektor entgehen lassen. Wenn der Prozzi in den nächsten zwei Jahren herauskommt wird er vielleicht der Nachfolger meines Q6600. Civ 5, das für mehrkerne konzipiert ist, hat dann 10 echte Kerne zur Verfügung *freu,freu,freu* :-D
 
Mich würde 1000 mal mehr die XPU interessieren was das ist. Es Kann nicht sein das für sowas interesse herrscht für leute die 5000 euro für ne CPU ausgeben können und interessante dinge wie sowas X-haftes haben. Auch wenn ich sowas nicht nutzen werde ist sowas interessanter als eine CPU mit noch mehr kernen.... wow was neues früher GHZ rennen und heute Kerne was kommt morgen?

Kennt sich da jemand aus?

OMG google ist in meiner sprache Ratlos!!!
 
Soweit ich weiß, arbeitet Intel an 2 Methoden, die Pro-MHz Leistung zu verbessern:

Mehr Fehler in den Berechnungen zulassen und sie nachher korrigieren
Spekulative Berechnungen auf mehreren Cores

Denke, da kommt noch was auf uns zu!
 
Wenn du Effiziens suchst dann Brauchst du einen ELBRUS 3m (3S oder bald PF) 300 mhz und schneller als ein Pentium 1,8 ghz natürlich optimierter Code.
Alles in 180 oder 130 nm technologie.
Wenn ich mich da irre korregiert mich bitte.:freaky:
 
bruteforce9860 schrieb:
Was für Arbeit übernimmt die CPU überhaupt bei Spielen und muss bei der Spieleprogrammierung je nach Anzahl der Kerne alles neu geschrieben werden?
Vielleicht fallen den Programmierern einfach keine neuen Möglichkeiten ein, die CPU besser zu nutzen, wodurch mehr und mehr auf die GPU fokussiert wird...

Spiele sind grundsätzlich nicht so leicht zu parallelisieren. Stark vereinfacht gesagt rechnest du ja Frame für Frame jeweils Spiellogik, Physik, Grafik und Audio aus. Diese Ergebnisse hängen voneinander ab, wenn ich nicht weiß wo die Spielfigur ist kann ich auch die Physik der Szene noch nicht berechnen.

Im Gegensatz dazu kannst du, wenn du bei der Bildverarbeitung irgendeinen Effekt auf dein Bild anwendest, das Bild einfach "aufteilen" und jeder Prozessor wird schön ausgelastet. Der untere Teil des Bildes hängt ja logisch nicht mit dem oberen zusammen.
 
Juhu dann kann ich in Supreme Commander 2 endlich 10000 einheiten benutzen ohne das es lagt!
 
Ich denke dieser Schritt ist nur logisch,

Parallelisierung ist einfach der Trend, und ich denke der ist auch durchaus Sinnvoll, in Servern werden heute sehr viele kleinere VMs eingesetzt um Kunden zu bedienen. Die Packungsdichte bei Serverhostern wird immer höher und man ist darauf angewiesen, dass jedes HE einfach ein Maximum an Profit abwirft.

Für den Privatbereich ist das natürlich erstmal etwas hoch gegriffen, aber wer Einblick in aktuelle Programmiersprachen und Compiler hat, wird feststellen, dass es ein starker und wichtiger Forschunszweig ist, Software und ihre Compiler auf Many-Core Architekturen auszurichten und dort effizienter zu machen. Selbst in einem kleinen Java App kann man durch die Thread umgebung das Programm beschleunigen. Man muss es nur nutzen.

Die Grafikkarten machen es vor, durch ihre massive Parallelität. Ich denke da können die CISC CPUs einfach nur nachziehen.

Grüße
 
Das Problem ist bei Spielen nicht, dass die unterschiedlichen Schritte nicht parallel ablaufen könnten, sondern dass sich die einzelnen Schritte (vor allem die Spiellogik selbst) nicht einfach parallelisieren lassen.
Die Ursache dafür ist, dass man beim berechnen der Spiellogik sowohl nahezu willkürlich schreibende als auch willkürlich lesende Zugriffe auf die Datenstrukturen des Spiels hat, was bei Parallelisierung im Allgemeinen schnell zu vielen Problemen führen kann, wenn man als Programmierer nicht geschickt arbeitet.
ZB: Figur schiesst und ruft Methode Schuss mit der Figur auf. Diese wird vom Scheduler unterbrochen und es kommt der nächste Thread dran der die Methode Figur stirbt ausführt und die Figur löscht. Wird nun der erste Thread fortgesetzt stürtzt das Programm ab, weil die Figur nicht mehr existiert.
 
dass der Prozessor für das Jahr 2011 im gleichen Sockel, in dem aktuell der „Nehalem-EX“ seinen Platz findet, in den Handel kommen soll.

Wie? keinen neuen Sockel? was geht denn jetzt ab? :freak:
 
Zurück
Oben