News Gulftown: 6 Kerne, 32 nm aber weiterhin DDR3-1066

Warum wusste ich beim lesen der News dass wieder sinnlose Fragen ala "Wer braucht sowas" kommen. Würde man nach diesen Leute gehen würden wir jetzt noch Singlecore-CPUs haben, die reichen ja für die meisten Spiele (natürlich darf hier das obligatorische "außer GTA4" nicht fehlen)

Früher war das große MHz-Rennen, jetzt eben Prozessorkerne. Was ist daran falsch, solange es technisch machbar ist, die Leistungsaufnahme im Verhältnis zur gebotenen Leistung moderat ist und ein Markt dafür vorhanden ist? Und selbst wenn das Teil der absolute Ladenhüter wird ist ja wohl unbestritten dass ein Produkt mit brachialer Leistung stets ein gutes Licht auf die restliche Produktpalette wirf. Die Marketingleute von Intel sind bestimmt keine Anfänger

Nur weil die Sippschaft der "ich brauch mein PC nur zum Zocken und fürs Internet"-User dafür keinen Verwendungszweck hat muss nicht gleich das ganze Produkt in Frage gestellt werden...
 
Zum Glück gibts auch noch etwas anderes als nur Gamer , die im Prinzip nur eingeschnappt sind weil ihre Software nur mehr schlecht als Recht mit dem techn. Fortschritt mithalten können.
 
The_Virus schrieb:
Es gibt doch schon seit einiger Zeit von Intel einen 6-Core, zwar als Xeon für den Servermarkt, aber wer sowas will, der kann es auch heute schon haben.

Billig ist er nicht mit seinen 2000€ bis knapp 2400€, pro Stück wohlbemerkt.
http://geizhals.at/deutschland/?cat=cpuppro&xf=25_6


Der "Dunnington" ist eigentlich obsolet, obwohl noch ziemlich neu, 6 Kerne aber noch auf Core2 Plattform, wird von den 4 Kern Nehalems ziemlich unter Druck gesetzt.

Zum Gulftown: ich überlege schon lange einen Core i7 zu kaufen, schiebe es aber immer weiter raus weil der i5 ihm wohl kaum nachstehen wird, und mein C2D eigentlich noch ausreicht. Der Gulftown ist nun natürlich nochmal was anderes...aber unter 1000€ wird da wohl anfangs nichts gehen, wahrscheinlich wird er sogar noch teurer, da Intel im High End Segment nach wie vor konkurenzlos da steht...schade. Aber echt ein feiner Workstation Prozessor :cool_alt: Mal abwarten, glaube ich überspringe die 4Kerner, dann hält der kleine E4300 bei mir wohl genauso lange wie es der XP-M vorher tat.
 
Also normalerweise bin ich ja auch nicht einer, der immer schreit: "Braucht man nicht."

Hier finde ich es allerdings (fast) angebracht, selbiges zu behaupten.
Diese CPUs werden nämlich höchstwahrscheinlich nur als "Schwanzvergleich" Verwendung finden.

Sorry, aber für z.B. industrielle und medizinische Zwecke gibt es die Dual-Xeons oder andere Lösungen als X86-Prozzis.

Die Hardwareentwicklung geht meiner Meinung nach in letzter Zeit einen falschen Weg.
Es kommt immer neue Hardware, die meist nur für Gaming-Zwecke ausgelegt ist und immer mehr Strom verbraucht.
Hier sollte angesetzt werden und nicht immer nur "bessere" Hardware rausbringen, die, wie ich finde, im Privatgebrauch eh' nur schätzungweise 5-10% der User tatsächlich nötig haben. (Wäre mal was für eine Umfrage: "Werden eure Core i7 voll ausgereizt?")

Warum bringt Intel keine neuen, stromsparenden DC? Wahrscheinlich, weil dort einfach die Gewinnmarge zu niedrig wäre. Also eine Aufgabe für die Politik.

Die EU z.B. setzt jetzt ja einen Grenzwert für den CO²-Ausstoß von Autos fest, Glühbirnen werden verboten usw... . Wie wäre es, die Leistungsaufnahme einer CPU auf max. 65W zu beschränken? Das einzige Problem hierin sehe ich die industrielle und medizinische Anwendungen, aber man muss ja nicht für immer am x86 festhalten, 8-Kern CPU von FTS. Der sog. "High-End-Benutzer" (vgl. Schwanzvergleich und Gaming) kann damit leider wenig anfangen. ;)

Will hier ja niemanden beleidigen, aber denkt mal bitte ernsthaft darüber nach...
 
Zuletzt bearbeitet:
Aouch schrieb:
Sorry, aber jemand der sich für z.B. 2000€ eine PS-Lizenz kauft, wird auch noch Geld für ein Dual-Xeon System übrig haben.

genau meine meinung, wer 12 cores in einer produktiv-umgebung braucht hat sie schon, die cpu-entwicklung geht momentan einfach einen weg, der nur den wenigsten usern noch messbare vorteile bringt :(

ja und ich weis, dass ich ein pc-user zweiter klasse bin, wenn ich kein 12core-system brauche um mit meinem gezogenen photoshop 3-4 mal im jahr die urlaubsbilder nachzubearbeiten, trotzdem nett dass man darauf hingewiesen wird :king:
 
Naja, auch wenn der scheinbar allwissende IDeuce88 behauptet das 2 Kerne das maß der Dinge sind, ist dies schlichtweg Falsch.

4 Kerne werden sehr häufig schon unterstützt, nur is ein bsp. auf 4GHz laufender Cor2Duo meist geringfügig schneller bzw. gleich schnell.

Der Grund dafür ist meist das aufteilen auf die 4 Kerne, so wird im Kern 1 Grafik berechnet im Kern 2 KI im Kern 3 Physik und im Kern 4 Sound, nun da werden in der Regel 2 kerne meist nur zu 10-15% belastet, seh ich selbst täglich an meiner CPU über 60% Auslastung kommt die selten. Aber die Zeiten werden sich ändern, auch Dual Core brauchte Jahre bis es sich durchsetzte, ich erinner nur daran, dass nicht der Core2Duo der erste Dualcore war, sondern der Pentium D und Athlon 64 x2 (939), wenn man es so will sogar der Pentium 4 HT (sockel 479).

Und bei vielen anderen Anwendungen profitiert man schon enorm von einem Quadcore, wenn ich Videos umwandle ist das schon Atemberaubend wie das abgeht...
 
Wie wäre es, die Leistungsaufnahme einer CPU auf max. 65W zu beschränken?

Das würde aber nicht nur Intel schwer aufschlagen sondern gerade auch AMD weil dort läuft der meiste Absatz oberhalb 65W.
Angesichts der Klimaproblematik würde ich sinnvolle Sachen prima finden aber ob das durchsetzbar ist bin ich sehr skeptisch , auf der andere Seite muss man hier auch sehen inwieweit das dem techn. Fortschritt hin zum Multi/Manycore schadet , die Obergrenze engt hier stark ein und die Hersteller können hier nicht in ein Zwei Jahren was komplett neues aus dem Hut zaubern was sich dann schon verkaufen lässt.
 
Bully|Ossi schrieb:
Und bei vielen anderen Anwendungen profitiert man schon enorm von einem Quadcore, wenn ich Videos umwandle ist das schon Atemberaubend wie das abgeht...

Auf diesem Gebiet möchte ich auch nicht mehr mit einem Dualcorebremsklotz unterwegs sein. Der Vorteil am Quad ist aber auch das man Videos noch in einer annehmbaren Zeit umrechnen kann WÄHREND man spielt ;)
 
Also für Cinema 4D und Premiere Pro ist jeder neuer Kern ein Segen.
USB 3, SATA 3, PCIE 3, 4GB DDR3 Module und 6 Kern CPU. Dann werde ich umsteigen.
 
Zuletzt bearbeitet von einem Moderator:
12 Kerne auf einem Kiddi-Desktoprechner? Kann ich Dir genau sagen wofür man das braucht:

Man spielt CS, nebenbei wirbelt einem der Virenscanner das System durch, nicht zu vergessen 2x SmartRipper die parralel von 2 Laufwerken 2 Filme auf die Platte ziehen, ups, nicht zu vergessen Moviemaker der gerade den 2 Stunden Urlaubsvideo kodiert und natürlich Acronis das im Hingergrund noch das Backup zieht und Outlook was ja öfters im Hintergrund die Emails checkt!

Wer will hier eigentlich behaupten, dass man keine 12 Kerne braucht? :lol:
 
ich frag mich immer warum sich alle aufregen über die neuen Cpus, ich glaub langsam das die die sich am meisten aufregen, am ehesten einen haben wollen und sich nicht leisten können. Die die Einen brauchen ja es gibt spiele dies brauchen GTA z.b. aber am meisten noch für Musik und/oder film Produktion und ja für mich würde es sich lohnen ich bekomme meinen q6600@3,6 auf 100% Auslastung mit Cubase. Ich freu mich schon auf den umstieg auf die neue Plattform. Und diese Co2 Marketing schund den sie bei Autos machen ist auch der letze käse. WOW der was weiß ich hybrid brauch so wenig Co2 - aber an das was das auto viel mehr als alle anderen Autos in der Produktion, wegen den ganzen Spezialwerkstoffen, oder zum Beispiel in der irgendwann anstehenden verwertung erzeugt, ist einfach ausgeblendet und egal. Und wenn jemand will das die computer stromsparender werden, soll sich ein Nvidia Ion System kaufen und Crysis auf Low und spielen ;) aber das tritt auch nicht ein weil der Jenige dann persönlich zurück stecken muss.

und natürlich gibt es auch Kiddies die nur den 3dmark wert wollen und dann cs zocken oder so ;)

und immer die rede von 12 Kerne, es sind halt nur 6

die Welt wie sie leibt und lebt ^^ - just my 2 cents
 
Zuletzt bearbeitet:
ceo2008 schrieb:
genau meine meinung, wer 12 cores in einer produktiv-umgebung braucht hat sie schon, die cpu-entwicklung geht momentan einfach einen weg, der nur den wenigsten usern noch messbare vorteile bringt :(
Endlich mal einer, der versteht, was ich meine. :daumen:
Voyager10 schrieb:
Das würde aber nicht nur Intel schwer aufschlagen sondern gerade auch AMD weil dort läuft der meiste Absatz oberhalb 65W.
Angesichts der Klimaproblematik würde ich sinnvolle Sachen prima finden aber ob das durchsetzbar ist bin ich sehr skeptisch , auf der andere Seite muss man hier auch sehen inwieweit das dem techn. Fortschritt hin zum Multi/Manycore schadet , die Obergrenze engt hier stark ein und die Hersteller können hier nicht in ein Zwei Jahren was komplett neues aus dem Hut zaubern was sich dann schon verkaufen lässt.

Wie schon gesagt, wer wirklich sinnvolle (und nebenbei legale) Sachen betreibt, sollte mal seinen Blick über den x86-Tellerrand bewegen. FTS 8-Kern-CPU mit 35W Leistungsaufnahme


Achja, nochwas, ich bin in dem Gebiet nicht so bewandert, könntet ihr mich mal aufklären:
Was hat das mit dem Videobearbeiten auf sich?
Handelt es sich dabei um die Kinostreifen von morgen? Jeder mit Quadcore müsste ja, soweit man dass hier im Forum liest, täglich einen neuen Film zusammenschneiden...

(Die Frage ist durchaus ernst gemeint, nur ein Schelm vermutet hier Ironie!)
 
Zuletzt bearbeitet:
und was soll der blöde Satz ,, aber weiterhin DDR 3 1066???? DDR3 ist doch erst neu und DDR2 ist doch erst noch Standard! Wollen die schon DDR4 machen oder was??
 
thommy96 schrieb:
und was soll der blöde Satz ,, aber weiterhin DDR 3 1066???? DDR3 ist doch erst neu und DDR2 ist doch erst noch Standard! Wollen die schon DDR4 machen oder was??
Das nur DDR3 1066 soll darauf anspielen, dass Intel offiziell nur bis 1066er RAM unterstützen lässt, freilich werden auch 1333er laufen, aber es gibt ja auch 1600er.
Inwiefern nun höhere Taktraten des RAMs wirklich mehr Leistung bringen, ist jetzt mal dahingestellt.
Und mittlerweile wird DDR3 zunehmend Standart, sieht man besonders gut an den Preisen. Ich denke in spätestens einem Jahr wird DDR2 so viel kosten, wie DDR3 noch vor einem halben Jahr.

mitsch-x schrieb:
Und wenn jemand will das die computer stromsparender werden, soll sich ein Nvidia Ion System kaufen und Crysis auf Low und spielen ;)
Mit der Einstellung dürften wir alle Atombomben in unserem Keller lagern, manchmal muss der Mensch halt mal in vernünftige Schranken gewiesen werden. ;)
 
thommy96 schrieb:
und was soll der blöde Satz ,, aber weiterhin DDR 3 1066???? DDR3 ist doch erst neu und DDR2 ist doch erst noch Standard! Wollen die schon DDR4 machen oder was??

Es geht um höhere Taktraten bei DDR3, weil sich höhere Taktraten besser verkaufen. Und es viele verstehen nicht warum Intel bei 1066MHz DDR3 bleibt bei der i7 Plattform offizell während in Praxis bis DDR3-1600MHz für einen i7 kein Problem darstellen.

Steht übrigens auch in der News so...da war kein Wort von DDR4 oder ähnlichem.

Topic:
Mehr Kerne, erhöht die Packdichte von Prozessoren das doch Klasse. Mit 6 Kerne wird auch der Triple-Memorycontroller mehr gefordert. Dabei dachte ich schon als Spielzeug einen i5 zulegen,..aber so wirds wohl der 6 Kern Extreme möglicherweise genug X58 Platinen liegen eh rum. :)
 
@ Aouch

Nein, der Prozessor ist nicht vergleichbar mit unseren PC-CPU´s ... ansonsten könntest du ja gleich die Rechenleistung einer 50W Grafikkarte mit einer 50W CPU vergleichen, hier gewinnt auch die Grafikkarte weil Sie eine spzielle Architektur hat .
 
Das Ding wird genau 2 Zielgruppen haben: Als "normale" Version Rendering-Workstations, in denen tatsächlich "unendliche" Leistung gebraucht werden kann und als "EE"-Version Prolls, die verkünden wollen, dass sie den längsten - eh - schnellsten haben. Beide Gruppen zusammen dürften allerdings ähnlich wenig Stückzahlen hergeben, wie derzeit der Core i7 (also 1%).

Mal sehen, ob mit dem Core i5 dann wenigstens Quadcores einen zweistelligen Marktanteil bekommen oder ob der theoretische Abstand zwischen dem Massenmarkt und den Top-CPUs weiter wächst.
 
Voyager10 schrieb:
@ Aouch

Nein, der Prozessor ist nicht vergleichbar mit unseren PC-CPU´s ... ansonsten könntest du ja gleich die Rechenleistung einer 50W Grafikkarte mit einer 50W CPU vergleichen, hier gewinnt auch die Grafikkarte weil Sie eine spzielle Architektur hat .
Habe ich ja auch nie behauptet, oder? :D

Ich meinte nur, dass es eben auch andere Architekturen wie x86 gibt. Das man damit natürlich kaum GTA IV und Crysis zum laufen bringt, ist klar. (Verdammt, jetzt habe ich's ausgesprochen... ;) )
Dachte, das wäre klar, als ich von "sinnvollen (und legalen) Sachen" redete.

Ich bleibe weiterhin bei meiner Forderung einer "65W-max.-Leistungsaufnahme" für CPUs.
 
Zuletzt bearbeitet:
Zurück
Oben