News „Ivy Bridge“-Desktop-Topmodelle mit maximal 77 Watt TDP?

Ich sehe es so das bereits die Leistung aktueller Vier-Kerner von 99% aller Besitzer nicht ausgenutzt wird und daher vorerst weiter auf diesem Stand verblieben werden kann.
Die jenigen welche Produktiv diese Rechenpower benötigen werden auch bei den Xenon´s fündig.

Ganz im Gegenteil ist es so das eher der Anreiz der Softwarehersteller verloren geht auf 2-4 Kerne zu optimieren wenn auf einmal 6-8 Kerner den Markt fluten.

Das ist auch der Grund weshalb ich froh bin das bisher nur der Hersteller mit den 20% Marktanteil den Schritt zu mehr als 4 Kernen im Desktopsegment gegangen ist (denn das sollte die Softwareindustrie mal eben gar nicht interessieren).
 
Zuletzt bearbeitet:
Graf-von-Rotz schrieb:
Ich sehe es so das bereits die Leistung aktueller Vier-Kerner von 99% aller Besitzer nicht ausgenutzt wird und daher vorerst weiter auf diesem Stand verblieben werden kann.
vor 10 Jahren wurden CPUs auch nicht die ganze Zeit zu 100% Last betrieben, also sie wurden auch nie komplett ausgenutzt quasi. Dann hätten wir also auch auf dem Stand von damals bleiben können. Wer braucht schon Fortschritt?

Graf-von-Rotz schrieb:
Ganz im Gegenteil ist es so das eher der Anreiz der Softwarehersteller verloren geht auf 2-4 Kerne zu optimieren wenn auf einmal 6-8 Kerner den Markt fluten.
Nur weil etwas für 8 Kerne oder mehr optimiert ist, heißt es doch nicht, dass es mit 4 Kernen überhaupt nicht mehr skaliert. Im Gegenteil es wäre sogar wünschenswert wenn Software auf quasi möglichst Viel Threads ausgelegt ist, weniger Threads kann man dann immer noch bearbeiten.

Dass es funktioiert, zeigt die Frostbite Engine. Die holt so ziemlich das Maximum aus jedem Thread raus, ob das jetzt 1,2,4,6 oder 8 sind.

Graf-von-Rotz schrieb:
Das ist auch der Grund weshalb ich froh bin das bisher nur der Hersteller mit den 20% Marktanteil den Schritt zu mehr als 4 Kernen im Desktopsegment gegangen ist (denn das sollte die Softwareindustrie mal eben gar nicht interessieren).
Das Ding ist, wie sollte AMD jetzt plötzlich ne CPU aus dem Hut zaubern, die 50% Rückstand gegenüber Intel in der Single-Thread Leistung (PII vs SB) aufholt. AMD kann nur den Weg über mehr Kerne gehen. Und das ist auch richtig so.

Auf Dauer wird auch Intel mal an Grenzen stoßen, und die IPC oder den Takt nicht in dem Maße weiter erhöhen können wie sie es derzeit schaffen. D.h. die Leistungssprünge werden immer kleiner.

Aber mehr Kerne, das geht immer. Und wenn sie ordentlich ausgenutzt werden, bringen sie auch linear mehr Leistung. Es wird auch Intel irgendwann nichts anderes übrig bleiben, als mehr Kerne raus zu bringen. Und auch die Software muss darauf angepasst werden, alles andere wäre verschenkte Leistung.
 
Zuletzt bearbeitet:
cuthbert schrieb:
Auf Dauer wird auch Intel mal an Grenzen stoßen, und die IPC oder den Takt nicht in dem Maße weiter erhöhen können wie sie es derzeit schaffen. D.h. die Leistungssprünge werden immer kleiner.

Richtig... Irgendwann...aber noch nicht jetzt (ganz wie ich schrieb ;)).

Wegen BF3 (Frostbite) und dem Bulli bin ich auch mal gespannt. Ich erwarte jedoch mittlerweile fast das er selbst dort kläglich versagt....der feine Bulli.
 
Zuletzt bearbeitet:
Trotzdem muss auch jetzt schon die Software auf mehr Threads ausgelegt werden. Intel bietet ja auch schon 8-12 Threads auf dem Desktop.

Von daher muss auch, um die Intel CPUs voll auszuschöpfen auf Multi-Threading gesetzt werden. Und wie gesagt einige Beispiele wie BF zeigen ja, dass es auch in der Spielewelt so langsam in diese Richtung geht.

EDIT: die BF3 Engine wird genauso mit den Kernen skalieren wie die von BC2. Und da siehst du ja, dass Bully noch akzeptable Ergebnisse schafft.

EDIT2: hier ein passender Link zu BC2 und Bully: http://www.pcgameshardware.de/aid,8.../CPU/Test/bildergalerie/?iid=1573597&vollbild
Die PCGH-Redaktion hat schon gesagt, dass sie die BF3 Beta mit Bully angezockt haben. Und dass das Bild da ziemlich genauso aussieht.
 
Zuletzt bearbeitet:
Na ja - berauschend sind die Werte nicht.
Es wischt der 2600k immer noch deutlichst mit der Schand-CPU den Boden..
 
Nö hab ja auch nicht gesagt, dass die Leistung berauschend ist, sondern eben nur akzeptabel. Und wesentlich besser im Vergleich zu Spielen, wo eben nicht alle 8 Kerne ausgenutzt werden. Da schafft Bully es nie auf Höhe eines 2500K oder wie in diesem Fall noch deutlich drüber.

Und das sollte doch jetzt auch nur als Beispiel dienen, dass Multi-Threading auch heute schon sehr wichtig ist, um die maximale Performance einer CPU auszunutzen. Du Kannst ja meinetwegen auch den 2500K mit dem 2600K vergleichen, da siehst du ja auch was Multi-Threading für Vorteil bringt, obwohl der 2600K nativ nur vier Kerne hat.
 
MRM schrieb:
Sorry, aber das ist definitiv falsch. Theoretisch "bräuchte" man für einige wissenschatliche Berechnungen sogar CPUs die tausend mal schneller sind, wenns die denn nur gäbe ...
Jepp, man kommt schnell in den Bereich wo man Dinge beliebig genau berechnen kann und genauso kommt man in den Bereich wo man fragt, ab wenn die Vereinfachung eines Modell im Zugeständnis der Berechenbarkeit hin zu falsch geht.
 
SheldonCooper schrieb:
Ok, also alte und nicht-cpu-intensive Spiele laufen 'butterweich flüssig', das hab ich nie bestritten.
GTA IV ist nicht CPU-lastig? Mach dich bitte nicht lächerlich.

Mit Patch 1.0.7.0 ist es eher GPU-lastig.
Das musste ich gestern leider auch feststellen. Zufällig habe ich es gestern mal wieder ausgekramt. 25-40 Frames auf einem i7 mit HD6670 waren das Resultat.

Hach ja. Leider sehe ich noch immer keinen WoW Effekt der mich vom "alten" i7 weg zwingt... Ich glaube ich hatte JAHRE(!) nicht mehr so lang eine CPU ...
Ähnlich ists beim ebenfalls relativ hitzköpfigen Q6600. Was aktuelle Prozessoren da halt deutlich besser machen ist die überlegene Energieeffizienz. Wenn man nicht gerade eine Wakü oder einen 50€ Kühler hat, weiß man das zu schätzen.
 
Zuletzt bearbeitet:
naja meinen Beobachtungen zufolge verhält sich GTA IV eh etwas strange... Zum einen ist es sehr VRam lastig, zum anderen sehr CPU.

Meine CPU dürfte trotzdem im seltensten Fall bei GTA IV limitieren, genau wie die 2Gb VRam... dennoch, ganz ohne Mods, bekommt man das Game mit entsprechenden Weitsicht Setting trotz niedriger CPU und GPU Last zum Ruckeln... kann aber auch am Game oder schlechten Treibern liegen.

Jedenfalls kann man das Game oft schlecht als Vergleich heranziehen.

genug des OT ;)
 
Graf-von-Rotz schrieb:
Ich sehe es so das bereits die Leistung aktueller Vier-Kerner von 99% aller Besitzer nicht ausgenutzt wird und daher vorerst weiter auf diesem Stand verblieben werden kann.
Die jenigen welche Produktiv diese Rechenpower benötigen werden auch bei den Xenon´s fündig.

Jo genau, deshalb soll ich mal eben 4000€ auf die Theke legen oder wie? Film, Visualisierung, technische Simulation, Wetter, Astronomie, Profis, Semiprofis, Studenten, Künstler und Bastler, sogar sehr zahlreich und zum Teil sind die Leute dazu noch ziemlich arm. Machst du mal die Äuglein auf!
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
GTA IV ist nicht CPU-lastig?

Aber alt, Portal 2 ist nicht CPU-lastig.

Ehrlich gesagt hab ich von GTA nur die ersten beiden gut gefunden und weitere nicht gespielt. Läuft GTA IV denn auch mit 3,4 GHz so, dass 60 fps nicht unterschritten werden? Ich dachte immer GTA IV wäre so ein 'Problemfall'.
 
MRM schrieb:
Theoretisch "bräuchte" man für einige wissenschatliche Berechnungen sogar CPUs die tausend mal schneller sind, wenns die denn nur gäbe ...
Weswegen für solche Anwendungen seit einigen Jahren vorrangig GPUs eingesetzt werden.
 
Ivy Bridge wird schon seit Q3 2011 massenproduziert laut dem Conference Call von gestern. Man könnte sogar schon in Q4 launchen, wenn man wollte:

"During the third quarter, we began volume production up Ivy Bridge on our 22 nanometer process technology."

"The fourth quarter gross margin forecast assumes a late quarter qualification for sale of Ivy Bridge, our first product on 22 nanometer."

http://seekingalpha.com/article/300...results-earnings-call-transcript?source=yahoo

Also von wegen Probleme mit dem Prozess, wie manche gemeint haben. Der Prozess läuft wunderbar, die Verschiebung ist (im Gegensatz zu der von BD *SCNR*) wirklich marketingtechnischer Natur. Vermutlich Abverkäufe von SB wegen der Probleme mit SATA-Gate dieses Jahr. Anscheinend haben da die Kunden Druck gemacht.
 
Nicht die Kunden sondern eher die PC-Hersteller und OEMs. Wie sollten die Kunden Intel in dieser Situation unter Druck setzen?

Die PC-Hersteller wollen einfach noch nicht so schnell umstellen. Die Mengen an Mainboard die Produziert wurden und sie nach einem Jahr quasi keiner mehr haben will.


Hoffentlicht wird es im März was. Gleichzeitig mit einer leckeren HD 7670 im Single Slot Desgin und das vielleicht noch passiv.
 
Ja die meinte ich ja. Hab mich ungeschickt ausgedrückt :)
Ich frage mich nur, wie wirtschaftlich das ist, 9 Monate lang Kapazitäten zu binden und auf Vorrat zu produzieren...
 
Denk dran das der 22nm für weitere Produkte gebraucht wird. Der Atom sollte doch auch noch nächstes Jahr geshrinkt werden. Ivy Bridge kommt gegen Ende nächsten Jahres auch noch. Da hat man weniger Kapazitäten für den normalen Ivy.

Und das beste, aus Intels Sicht, man braucht nicht so viele Werke teuer umrüsten. Das Werk in Irland würde ja vom 22 nm Fahrplan genommen und wird dann gleich auf 15 nm umgestellt. Was die dort noch herstellen außer Chipsätze? Die haben da ja noch die 65 nm und 90 nm Fertigungsstraßen.
 
Wenn Intel tatsächlich,wie sie selbst sagen,ab der zweiten Hälfte Q4 liefert,kann das auch deutlich schneller gehen.
 
Zurück
Oben