News Intel demonstriert Quad-Core „Clovertown“

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
In der Nacht von Freitag auf Samstag hat Justin Rattner, Intels Chief Technology Officer erstmals einen frühen Prototypen des für Anfang 2007 erwarteten Quad-Core-Prozessors „Clovertown“ in Aktion demonstriert. Damit kam man AMD zuvor, die angekündigt hatten, einen Opteron mit vier Kernen Mitte des Jahres zeigen zu wollen.

Zur News: Intel demonstriert Quad-Core „Clovertown“
 
nette entwicklung, abwarten und schaun was das alles leistet kostet und verbraucht.
 
LOL

jetzt wird schon gezeigt was man in einem Jahr warscheinlich noch nicht mal kaufen kann.

Was soll das?

Der 955 Extreme Edition wurde schon Ende 2005 vorgestellt
und kaufen kann man ihn niergends.

http://www.geizhals.at/eu/a176661.html

Tolle Politik
 
Zuletzt bearbeitet:
Das freut mich zu hören. es scheint gearbeitet worden zu sein.

Den Schritt zu einem verbreiterten Speicherinterface, bzw für jede Core einen, oder eventuell sogar eine integration eines Speichercontroller kann sicherlich einen erheblichen Performanceschub bedeutet. Ich hoffe es einfach, der Markthomogenität wegen.

Gruß, GuaRdiaN
 
Hi,

täuscht das, oder kommen weder von Intel, noch von AMD wirkliche Innovationen? Mehr Leistung durch Erhöhung der Core-Anzahl kann doch nicht Sinn der Sache sein. Ist man tatsächlich am Ende was die Single-Core Leistung betrifft? (also wird man einen einzelnen Kern nicht wirklich schneller kriegen, als er zur Zeit ist?)
Was ist hierbei der begrenzende Faktor? Das Material, die Ideenlosigkeit der Ingenieure? (Ich mein die Frage durchaus ernst)

mfg, Domi
 
XXXLBurger schrieb:
LOL

jetzt wird schon gezeigt was man in einem Jahr warscheinlich noch nicht mal kaufen kann.

Was soll das?


auf automessen werden auch studien gezeigt die es in 5-10 jahren gibt - wo ist das problem ?
 
@3: Diese Ankündigungen sind die Steilvorlage für Soft- und Hardwarefirmen, die sich schleunigst mit 4 Kernen befassen sollten... Wann irgendwer diese Teile kaufen kann, ist uninteressant.
 
@ bei den strompreisen, wer will den EE? :-)
 
dann wird Dual Core nicht mal 3 jahre überleben, ist nur die frage wie lange dann Quad Core durch hält 0_o

denke auch das es gut ist, sich auf immer mehr kerne einzulassen, allerdings fehlt bis jetzt ja schon gute Dual Core anwendungen, wäre es nicht sinnvoll anwendungen auf eine unbestimmte anzahl von kernen zu entwickeln? schwer ist das, aber es wäre eine gute überlegung
 
@5
Ich denke es scheitert zur Zeit an der nicht vorhandenen Technologie. Ausserdem ist deine Ausgage sowieso nicht nach vollziehbar, es ist doch völlig egal wie mehr Leistung erbracht wird, Haupsache ist doch, dass die CPUs schneller werden.
Bei Grakas geht man den Weg doch auch schon sehr lange und erfolgreich und ich mein nicht den schwachsinn von SLI und CF!
 
Vesh schrieb:
dann wird Dual Core nicht mal 3 jahre überleben, ist nur die frage wie lange dann Quad Core durch hält 0_o

Wäre ein Wunder, wenn dieser genauso lange wie der Dual Core bestand hat.
Das Moor’sche Gesetz bestimmt die Zyklen. Es ist der Benchmark.

Es ist von Anfang an albern gewesen, als die Forderung aufkam, dass Anwendungen für den DualCore Prozessor optimiert werden sollen. Dieses am besten noch von Hand.
Quadcore stehen vor der Tür und dann geht es Zack auf Zack.



, wäre es nicht sinnvoll anwendungen auf eine unbestimmte anzahl von kernen zu entwickeln?

Was anderes macht überhaupt keinen Sinn. Wir werden bald ein Paradigmenwechsel in der Programmierung erleben.
 
@5
Wie #10 schon geschrieben hat, liegt es an der nicht vorhandenen Technik, dass man nicht weiterkommt.
Andererseits liegt es auch am Material. Die CPU-Strukturen sind heutzutage schon so klein, dass auf immer mehr atomare Effekte Einfluss auf sie haben. Da wäre zB die Sache, dass die Isolierungen nicht mehr so gut wirken und schon mal das ein oder andere Elektron lieber auf der Nachbarleitung entlangwandert als da, wo es es soll.
Oder da wäre auch die Sache, dass die Elektronen teilweise die Leiterbahnen auflösen, weil sie deren Atome sozusagen "mitreißen".
usw.
Die Liste ist lang.
 
Gibt es denn für die Quadprozessoren dann auch noch die HT-Technologie? Wenn ja wäre das ja super wenn man dann 2 Quadprozis auf ein Mainboard packt und die dann HT haben dann hätte man ja 16Prozessoren in Windows!!!!! :cool_alt: das wäre doch mal was, braucht zwar heute noch kein Mensch, aber egal....
 
in 10 Jahren gibt es dann die Super HT-Technologie. Das wird dann super, wenn man 2 Quadprozis auf ein Mainboard packt und die dann Super-HT haben hätte man ja 156156165166516516541651648123
Prozessoren in Windows!!!! :cool_alt: das wäre was ...
wer Ironie findet darf sie behalten ...
 
Zuletzt bearbeitet:
Also ich bin Ja der Meinung das die Entwicklung von Prozessoren mi mehrer Kerne nvöllig falsch ist da durch den verbau von 4 kernen auch fast die vierfache leistung benötigt wird der Stromverbauch der heutigen Prozessoren ist schon jetz viel zu hoch irgentwann ist nic hdie frage ob man sich die CPU sondern auch die dazugehörige Stromrechnung leisten kann viel wichtiger!!!
 
is doch seit einem jahr eh schluss mit neuen cpu's. da wird auch in nächster zeit nix kommen außer dumme dualcore cpu's deren kerne blabla heißen aber auch nur 2,6ghz haben wie ein jetztiger 4000+ oder was weis ich was für einer. solange es keine anwendungen dafür gibt sind mehrere kerne oder cpu's für normalos uninteressant. schön das ich nach viren scannen kann und dabei ein film decodieren kann oder sonst was. das wars dann aber auch schon.

2003 war der übelste 64bit hype und nu is 2006 und die paar programme die auf 64bit laufen (ob sie es unterstützen/nutzen kann keiner sagen) kann man an 2 händen abzählen.
is doch alles schwachsinn genau wie sli oder cf brauch keiner da zu wenig leistung dabei rauskommt.
 
Mehrere CPUS sind die Zukunft und die Programmierung der Programme wird von alleine kommen. 16bit auf 32bit ist auch gegangen und imo 32 auf 64 is auch am Laufen und unaufhaltsam. Single Core hat einfach bald ausgedient.
@jackasss ich hab nen dual core und ich denk ich kann ihn gut ausnutzen. Ich hab immer einige Programme am laufen und da is Dual-Core sogar besser als Single. Irgendwelche Videobearbeitungprogramm laufen sogar schon mit Dual-Core. Das System ist außerdem viel schwieriger zum Stillstand zu bringen. Hängt sich z.b. ein Programm auf hast du immer noch den zweiten Core und kannst normal arbeiten. Ich bin einfach begeistert... Für die Zocker sind halt Dual-Cores nichts so der hit imo, aber denk auch das wird kommen und es gibt auch Menschen die anderes Zeugs machen...
Bye
 
@15
Der Core Duo widerlegt deine Theorie.

@Topic
Wirklich eine schöne Entwicklung. Hätte mir nicht gedacht dass es so schnell von Dual Core zu Quad Core geht.
 
@Halo20
aber für die breite masse is es halt noch nix. vorallem die leistungsaufnahme bzw. der stromverbrauch steigt da ja enorm. vom xp zum a64 ist ja die leistung gestiegen aber der stromverbrauch gesunken. und ich glaube kaum das in paar jahren jeder dualcore cpu's hat die 150w verballern aber nicht die 200% theoretische leistung bingen die in ihnen drinn steckt.
 
Gute Arbeit von Intel !

Gerüchten zufolge hat AMD bereits hinter verschlossen Türen in 2005 erstes Quad-Core Silicium vorgestellt und im Sommer kommen bei der Präsentation dann eben die Samples für die OEMs.
Auch beim Dual-Core dauerte es nur wenige Wochen, bis AMD die Samples an die OEMs schicken konnte.

Intel und AMD verfolgen unterschiedliche Ansätze bei der Informationspolitik, wobei AMD sich eher näher am Serienstart orientiert. Rechnet man diese Effekte ein, sind Intel und AMD etwa gleichauf beim Quad-Core.

Wichtig beim Quad ist aber die tatsächliche Performance, denn alternativ kann jeder ja auch zwei Dual-Core einsetzen. Zwei Quad wiederum benötigen kräftig Speicherbandbreite, sonst verhungern sie.
Auch ist die Socket <-> Socket Kommunikation anspruchvoll bzwl. Geschwindigkeit.

Richtig Sinn macht daher Quad wohl bei AMD erst mit Hypertransport 3.0 und DDR-III oder ähnlich performantem FB-DIMM, bei Intel dürfte man ähnlich hohe Kriterien anwenden müssen.

Aber in Summe ist der Weg von Intel natürlich richtig, wobei der shared L3 technologisch ja keine wirkliche Herausforderung war, oder ?
 
Zurück
Oben