News Neue, offizielle Prozessor-Roadmap von Intel

Also ich wundere mich auch, dass in der Roadmap kein Lynnfield-Nachfolger angeführt wird.

D.h. zwischen den ganz teuren S1366 Bloomfields und deren 6-Kern-Nachfolgern, steht der auf den günstigeren P55-Platinen aufbauende kleine Quad-Core Lynnfield in 45nm ganz alleine und ohne Nachfolger da.

Das ist schon sehr komisch. Ich wäre nämlich zukünftig sehr an einem kleinen Quad-Core in 32nm interessiert gewesen, da mein Core 2 Duo nicht ewig ausreichen wird.

Ich kann mir deshalb nicht vorstellen, dass der Lynnfield ohne Nachfolger in 32nm bleiben wird.



Im Serverbereich machen native Sechs- oder Acht-Kerner durchaus Sinn. Viele Lizenmodell von teurer Software wird z.B. nach Anzahl der Sockel bezahlt Oder man braucht nur noch einen Single-Socket-Server (der entsprechend billiger ist) und keinen Dual-Socket-Server mehr, usw.
 
Zuletzt bearbeitet:
AMD hatte doch auch geplant einen Grafikkern auf einen CPU unterzubringen, aber anders als Intel sollte dieser tatsächlich für GPGPU benutzt werden .
 
@Crystal: Leider sieht man nur nen Desktop aber nichts von Anwendungen oder dergleichen, schade ;)
 
Was ist denn das für ein Mini Speiherslot auf dem Bild?
5-1080.4060371049.jpg
 
Wenn das so rasant (eigentlich für mich zu schnell) weiter geht, erlebe ich vielleicht noch die Generation des Quanten-Prozessors. ;)

Dieser wären millionenfach schneller als heutige CPUs...
 
@bensen
Was bedeutet "riesige Rechenpower benötigen"? Wenn ich einen meiner vielen Ordner mit zB. NASA-Mondfotos (TIFF) mal wieder mit Faststone scanne, dann wäre es schon fein, wenn ich auf die gesamte Thumbvorschau nicht 15s, sondern nur 5s warten müßte. Auch Datenbanken wie Lightroom oder Picasa nutzen merklich nur 2 Kerne.

Wenn ich eine (wie es sich gehört) OpenPGP Mail von 12MB mit mehreren Anhängen bekomme, dann würde ich mich schon freuen, wenn deren Dekodierung 2s und nicht 5s dauern würde. Vor allem, wenn ich in meinem Mailarchiv rumzappe.

Ich könnte das noch weiter fortführen, aber ich muß langsam haja. Soll ich mich nachmittags nochmals melden? Natürlich sind Mehrkerne eine Abhilfe. ODer sie könnten es sein. Die Situation sieht aber eben so aus wie ich sie hier im weiteren Verlauf beschreibe. Das wird sich eines Tages schon ändern, aber bevor man mich mit CPUs mit 12 Threads zuschei..., wäre merkbar mehr Leistung pro Thread noch eine ziemliche Weile sehr angebracht. imho

Intel geht aber in der letzten Zeit recht "billige" Wege. ZB. den Atom halte ich angesichts des Via Nano auch aus der Verbrauch/Leistung-Sicht für... erbärmlich. Ähnlich scheint sich das für den Desktop abzuzeichnen. Endlich mal den Speicherkontroller drangehängt und ab jetzt einfach nur immer mehr Kerne aneinander pappen und fertig. Noch bissl früh für sowas imho.
Wogegen massiv parallel für eine GPU und ihren Treiber schon seit Urzeiten täglich Brot ist...

Eon-Deon schrieb:
@BeeHaa

Dieses geheule das CUAD oder OpenCL die CPU in weiten Bereichen ersetzen könnte ist absoluter humbug.
Vielleicht hab ich mein Südsualesisch diesmal auch zu sehr raushängen lassen, aber geheult hab ich wirklich nicht.

Eine GPU kann nur einfache Berechnungen, welche sich extrem stark parallelisieren lassen, durchführen, mehr nicht.
Danke ;) Ich behaupte mal, daß ich darüber mindestens genausoviel weiß wie du.

Was die 6 Kerner angeht, ich freu mich drauf. Man sollte nicht vergessen das die Entwickler mittlerweile immer mehr parallelisieren und langsam lernen es richtig zu machen.
Auch das ist falsch. Sie parallelisieren sehr langsam und lernen es noch langsamer.
DESWEGEN schreib ich auch - und das war auch der Kern meines Beitrags - daß ich mir erstmal noch merkbar mehr Leistung pro Thread wünschen würde (als mit meinem 3.7 Ghz Wolfdale) als daß ich mich mit 6 Kernen und 12 Threads beglücken lasse.

Die Softwareentwciklung hängt in der Regel knapp 2 Jahre hinter der Hardwareentwicklung zurück.
Ich kenne paar Entwickler bei EA, ich kenne sehr gut Igor Pavlov (7-zip) und noch paar andere Menschen aus dieser "Szene". Ich weiß schon was ich schreibe, wenn ich es schreibe. Meistens ;)

Parallelisierung - die mit ihrem Ergebnis dem (Zeit)Aufwand gerecht wird - ist immernoch ein äußerst knochenharter Job.
Und letztendlich versucht man dabei momentan das was du als einzigen Vorteil von GPUs aufführst. Man versucht die Aufgabe in viele kleine einfachere "Chunks" aufzuteilen. Das zu syncronisieren ist aber nicht ganz ohne und kostet widerum Rechenzeit für die eigentlichen Aufgaben.
In den GPUs dagegen kümmert sich teils automatisch der Treiber drum, teils gibt es spezielle Einheiten dafür. Unter Windows zB. hat man weder das eine noch wird man dabei nenneswert von der CPU unterstützt.

Rohe Leistung pro Thread ist und wird immernoch stark gefragt. So schnell scheint sich das nicht zu ändern, denn auch großartige Entwicklungsumgebungen die genau diese Aufgabe verstärkt unterstützen gibt es immernoch nicht. Die Programmierer stehen größtenteils alleine mit dieser Aufgabe. Weder die Betriebssysteme noch die CPUs noch die Entwicklerwerkzeuge sind hierbei eine nenneswerte Hilfe. Das kann ich dir sagen, weil ich auch hier weiß wovon ich rede...

Bleibt die Frage ob man hier AMD absichtlich eine Lücke lässt.
Hierzu scheinst du dagegen recht ausgeschlafen zu sein ;)
 
Zuletzt bearbeitet:
Hi
also ich halte nichts davon jedesjahr neue und gerößere chips auf den markt zu bringen denn ich frage mich wer hat überhaupt was davon? ich sehe das so: soll doch erstmal die cpu ausgereitz werden die da sind und dann an neues denken bzw. beides paralel laufen und nicht das die software 2jahre wie erwähnt
hinterherhingt das ist ja das selbe wie wenn ich heute arbeite und erst nach 2 jahren mein geld bekomme.

für den ottonormalverbraucher ist doch die core treiberei echt nur geldschneiderei es wird uns vorgemacht
das wir das haben müssen und haben wir es ist es nichts ganzes und halbes.

ich kann jedenfalls drauf verzichten mir jedesjahr neue hardware zu kaufen.
 
Mit wieviel MHz starten die Clarkdale wohl in gut einen Jahr
wo die heutigen Vorgänger (z.b. Pentium E 5400 + C2D 7500) schon fast an die 3000 MHz kommen ?

frankkl
 
GaBBa-Gandalf schrieb:
erlebe ich vielleicht noch die Generation des Quanten-Prozessors. ;)

Dieser wären millionenfach schneller als heutige CPUs...

Das stimmt doch gar nicht. Das ist in etwa wie der Vergleich einer Quad Core mit 3GHz und einer Single Core mit 3Ghz und beide benutzen als OS ein Single Core Programm. Ohne die richtigen Routinen dahinter bringt der QC doch auch nichts. Ausser Entschlüsselungsaufgaben fällt mir kaum was ein. Oder aber man liese den QC alle möglichen Fälle des Spielers vorausberechnen und greift dann nur noch auf die Ergebnisse zu:D
 
Zurück
Oben