News „Ivy Bridge“-Desktop-Topmodelle mit maximal 77 Watt TDP?

LoopNBj schrieb:
In den Zeiten wo die stärksten Mobilchips gerade einmal 55W TDP haben und sogar in der Leistung in keinster Weise/kaum den Desktopmodellen nachstehen (Ausgenommen der Core i7 6 Kerner :D) ist dies ein logischer Schritt aus der Mobilbranche heraus. Durch intelligente Software und Fertigung kann man die TDP gering halten und Dank der neuen Technologie sinkt sie nochmal zusätzlich. Ich bin schon mal sehr gespannt, was dann der Mobilmarkt bringen wird. Vllt einen 4 Kerner mit einer TDP von 35W?

Endlich mal einer der die Gedanken von mir ausdrückt.
In dem ganzen Thread ging es um "aah blöd nicht wirklich mehr Performance..:" etc.
Aber wenn man mal eins und eins zusammenzählt, dann wird ersichtlich, dass Intel wegen der Konkurrenz ARM versucht stromsparender zu werden.
Die nächste Architektur Haswell ist extra auf extremes sparen der Energie ausgelegt und mit Ivy will man Brückentechnologie bereitstellen.
Scheinbar geht der Trend mehr zu Mobilität und dort versucht auch Intel Fuß zu fassen. Bald ist die Atomarchitektur nur noch Müll, da selbst leistungsstarke Architektur kaum Strom verbraucht, aber auf Anfrage mit entsprechender Kühlung sehr viel Leistung bietet.

Ich hoffe hier für einige mal ein paar Denkanstöße geschaffen zu haben. Und mal auf einem höheren Niveau zu diskutieren.

Ich will hier nochmal, weil das bisher Keiner getan hat, die Laborergebnisse zu den neuen 3D Transistoren aufführen. Wenn man an einen Betriebspunkt von 0,8-0,95V ausgeht sieht man, dass die Transistoren 20-30% schneller schalten können als der vorhergehende 32nm Prozess mit planaren Transistoren.
Wenn ich mich recht erinner, dann wird nur Leistung verbraucht, wenn die Transtoren ihren Zustand ändern. Geht dieses schneller zu stande, wird folglich weniger Energie verbraucht. Daher resultieren dann die 20% weniger Verbrauch. Wenn man jetzt mal die 95W/77W teilt kommt man auf 23% weniger Stromaufnahme.

Natürlich gehe ich auch von einer Reduzierung der TDP im Desktopbereich aus, dass man sich selber keine Konkurrenz schaffen will, bzw ein neues Mainstreamimage schaffen.
Im mobilen Segment glaube ich eher, man behält die TDP Stufen bei (17W, 35W, 45W, 55W), um hier jetzt deutlich performanter zu sein und man hier sich selber auch keine eigene Konkurrenz schaffen kann. Da die Prozessoren im Idle eh schon mit Solarmodul funktionieren würden (nicht ganz ernst gemeint ;)), brauch man hier nicht weiter sparen.
Wird man der Grafik glauben schenken dürfen, dann wird man nun bei einem reinen CPU-Idle-Verbrauch von 3-3,5W liegen.
Wenn das so weiter geht, kann man sich wirklich mal überlegen eine Solarzelle als Displaydeckel einzusetzen.
 
Zwirbelkatz schrieb:
GTA IV mit einem i5 750 auf 2,6GHz gelockt mit 1920x1200 und höchsten Settings butterweich flüssig.
Portal 2 mit einem i7 2600k auf 2,6GHz gelockt mit 1920x1200 und höchsten Settings butterweich flüssig.

Ok, also alte und nicht-cpu-intensive Spiele laufen 'butterweich flüssig', das hab ich nie bestritten.

cuthbert schrieb:
Er meinte damit, dass ein SB heute schon ausreicht, jedes Single-GPU auszulasten, im Standard-Takt. Und damit hat er Recht. Wer aktuelle Spiele zockt und die Grafik aufdreht, bei dem wird bei nem Sandy Quad immer zu erst die Graka limitieren. Oder stellst du etwa lieber die Details runter, um 120 statt 60 fps zu haben (bei nem 120 Hz Monitor).

Und wenn die Graka schon 3 GHz limitiert, wird sie das auch bei 5 GHz noch an der gleichen Stelle tun.

Natürlich stelle ich meine Spiele so ein, dass die min fps >= der Frequenz des Monitors ist. Wenn es mich dann stört, dass es schlecht aussieht, dann warte ich mit dem Spiel bis zum nächsten Frühjahrshardwareupgrade (aktuell liegen deswegen Crysis 2 und Metro 2033 im Schrank). Und mit dem 2600K @3,4 unterschreite ich bei z.B. BF:BC2 online durchaus die 60 fps, @4,5 nicht.

bulldozer1 schrieb:
Wenn du nicht grade eine GTX 580 @ extrem OC hast wirst du nicht wirklich Unterschied zwischen nem 3,4 GHz Sandy oder 4,4 GHz Sandy merken da die GPU eher limitieren wird...
Kannst ja gerne ingame Tests von deinem 2600k und der GTX 570 machen, du wirst sehen, dass die 4,8 Ghz kaum etwas bewirken.
Meine Erkenntnis habe ich ja durch Tests mit verschiedenen Spielen gewonnen. Dass ich keine 580 mit extrem OC hab siehst du ja an meiner Sig. Die 570 ist mit diesem Takt so schnell wie ne 580 mit leichtem OC.
 
@BMWM3N400

Duhast wohl gar nicht so unrecht, nur bei der interpretation der TDP glaube ich etwas deutlich anderes.

TDP ist nur Marketing, sonst nichts, gar nichts.
Einfach mal die TDP Stufen, Leistungsaufnahme und vor allem Preis/Leistung der CPUs von Intel ab den Wolfdales ansehen.
Die TDP ist ein Verkaufsargument das wirklich gut zieht obwohl gar nicht genau definiert bzw. wenn überhaupt nur eine Grenze.
Man stelle sich vor, Polo 1.4 Maximalverbrauch 16l/100km, was sagt das dann- genau nichts.
 
Hm,Hm,Hm. Interessant.

Werd ich mich wohl mal damit ausseinander setzen müssen ob mir der q9450 noch reicht, wo ich ja eh kaum Zeit habe ihn zu benutzen, oder wenigstens ein i3 modell was mehr Leistung bringt und trotzdem 150W sparsamer wäre Lohnenswert wäre.
Mal abwarten, schön Sachlich überdenken, mangels durck von AMD wird der Fortschritt wohl ohnehin nachlassen.

Wenn ich für mein Geld nicht soviel arbeiten würde, würd ich es mir ja einfach gönnen, aber ich hab noch soviele andere Sachen wo ich viel zu viel Geld ausgeben kann :D
Sinnvoller ist vermutlich eh eine GPU aufrüstung, aber manchmal gehts halt nicht um Sinn oder Unsinn, zumindest bei mir, sonst hätt ich mir kein 6 zylinder gekauft :freak:
 
Hovac schrieb:
@BMWM3N400

Duhast wohl gar nicht so unrecht, nur bei der interpretation der TDP glaube ich etwas deutlich anderes.

TDP ist nur Marketing, sonst nichts, gar nichts.
Einfach mal die TDP Stufen, Leistungsaufnahme und vor allem Preis/Leistung der CPUs von Intel ab den Wolfdales ansehen.
Die TDP ist ein Verkaufsargument das wirklich gut zieht obwohl gar nicht genau definiert bzw. wenn überhaupt nur eine Grenze.
Man stelle sich vor, Polo 1.4 Maximalverbrauch 16l/100km, was sagt das dann- genau nichts.

Dass die TDP nix sagt ist mir klar. Vorallem weil die mobilen CPUs nun mit einer variablen TDP versehen werden, sodass es wohl fließende Grenzen geben wird.
Naja, Gut dass ich eh vor hatte nen AW zu holen, damit man gleich weiß Kühlung ausreichend da ;)

und 16l/100km bedeutet bei Bleifuß eben 16l/100 km... der Tatsächliche Verbrauch ob Auto oder CPU liegt eh immer in der Hand des Anwernders und der Fertigungsgüte.
 
Das hoert sich ja alles ganz nett an aber wo zum Teufel bleiben die 6 Kern Prozessoren fuer den Desktopbereich? Warum muss man dort immernoch zu den Xeons greifen? Langsam waere es mal an der Zeit...
 
Shaav schrieb:
Die werden ein Vermögen kosten.
Nein, werden sie nicht. Die kleinere Strukturgrösse hat nicht nur eine geringere Leistungsaufnahme, sondern auch eine günstigere Produktion zur Folge. Dennoch wird Intel das Preisniveau der Sandy Bridge Prozessoren in den entsprechenden Performance-Segmenten beibehalten (so jedenfalls meine Vermutung). Und das ist der springende Punkt: Die Gewinnmarge der Chipherstellern bleibt trotz Leistungssteigerung stets erhalten.
 
Sehe ich genauso.
Die DIE-Size soll um 25% zurückgegangen sein. Wenn der Prozess einigermaßen läuft sollte man eigentlich keinen teuren Start erwarten.
 
Ich freu mich. Nächstes Jahr muss ich auch mal updaten und da kommt Ivy genua richtig! Die Dinger werden rennen wie der teufel, und wenn man jetzt bedenkt, dass die aktuellen i5 & i7 schon so schnell sind, dass sie für die nächsten 2-3 jahre absolut reichen werden ohne jemals an ihre Grenzen zu gelangen (auf Spiele bezogen, OC mit bedacht), dann werde ich meinen Spaß dran haben.
 
SirSilent schrieb:
Das hoert sich ja alles ganz nett an aber wo zum Teufel bleiben die 6 Kern Prozessoren fuer den Desktopbereich? Warum muss man dort immernoch zu den Xeons greifen? Langsam waere es mal an der Zeit...

Wozu brauchst du bitte diese Leistung im Desktopbereich? - Facebook & Co. laufen auch bei weniger!
 
AMD sollte topmodelle komplett canceln und sich rein auf grafikkarten und APUs für notebooks und den mainstream/low-budget bereich konzentrieren. bei den desktop und server CPUs sind sie gegen intel einfach hoffnungslos. schade dass es soweit kommen konnte, aber so is nun mal die welt
 
TrixXor schrieb:
Wozu brauchst du bitte diese Leistung im Desktopbereich?
Für Anwendungen, die sich Deiner Vorstellung entziehen?
Warum gehen alle immer nur von dem aus, was sie selbst interessiert, was sie selbst brauchen. Tellerränder sind zum drüberschauen da.
 
BMWM3N400 schrieb:
Ich will hier nochmal, weil das bisher Keiner getan hat, die Laborergebnisse zu den neuen 3D Transistoren aufführen. Wenn man an einen Betriebspunkt von 0,8-0,95V ausgeht sieht man, dass die Transistoren 20-30% schneller schalten können als der vorhergehende 32nm Prozess mit planaren Transistoren.
Wenn ich mich recht erinner, dann wird nur Leistung verbraucht, wenn die Transtoren ihren Zustand ändern. Geht dieses schneller zu stande, wird folglich weniger Energie verbraucht. Daher resultieren dann die 20% weniger Verbrauch. Wenn man jetzt mal die 95W/77W teilt kommt man auf 23% weniger Stromaufnahme.

Richtet sich aber auch an alle die nach großen Frequenzsprüngen bei Ivy warten.

Leider ist es nicht ganz so einfach, es stimmt zwar das der Transistor nur Energie verbraucht wenn er schaltet (kann man zumindest so annehmen).

Allerdings muß er dennoch immer das Gate umladen, hier ist vor allem die Kapazität des Gates entscheident. Mit einer höheren Spannung schiebt man nun die Elektrönchen etwas fester auf den Transistor -> Gate ist schneller ausreichend gefüllt um zu schalten oder halt gelehrt.
Dieser Geschwindigkeitsrausch mit der Spannung wird leider durch parasitäre Induktivitäten schnell in einen Bereich geführt, welcher die Sperrspannung der Bauteile übersteigt oder einen zu hohen Verlust an Energie in kurzer Zeit bedeutet.

Was wir also in der Grafik zum Transistor sehen, ist das er eine sehr geringe Gate Kapazität zu haben scheint, aber sobald man die Schaltfrequenz bzw. die Spannung anhebt spielen die Zuleitungen mit ihrem parasitär vorhandenem Induktiven verhalten den Spielverderber, da diese ihr Magnetisches Feld aufbauen wollen und hierfür auch Energie haben wollen.

-> daraus folgt: Die neue Fertigungstechnik bietet vor allem bei niedrigen Freqeunzen einen riesen vorteil. Desto höher der Takt oder der Ladestrom wird desto geringer werden die Unterschiede. Allerdings ist eine kleine Kapazität natürlich immer schneller voll als eine große aber wenn die Kapazität im Vergleich zu den Induktiven (aufgrund hoher Frequenz) Zeitverlusten keine Rolle mehr spielt ... allerdings sollten die Zuleitungen natürlich auch durch die geringere Fertigungsgröße kleiner werden und dadurch die Induktivitäten kleiner.

So, hoffe mir ist ein grober Fehler in meiner Dartellung unterlaufen.:D
 
Naja finde die Entwicklung gut. Eigentlich reichen momentan die 90 euro CPUs völlig aus für die meisten. Wenn die Effizienz immer besser wird bei gleicher Leistung kann ich das nur gut heißen. Ein i3 der dann eventuell nur mehr eine tdp von 45 watt hat, wäre für die meisten ein Optimum.
Kann was Verbrauch nur hoffen dass AMD auch mal ähnliche schritte beschreiten wird. ein 955BE mit einer 45 watt tdp, wäre für einige auch eine gute Alternative...
Was Leistung angeht, bin ich ehrlich gesagt bei beiden Firmen optimistisch, nur dass sich Intel mit seiner core-i reiche schon bewert hat. Es scheint so, als wäre AMD was Verbrauch angeht, genau ein Jahr hinterher.
 
Zuletzt bearbeitet:
Es scheint so, als wäre AMD was Verbrauch angeht, genau ein Jahr hinterher.
Machst Du Witze? Wann hat Intel zuletzt soviel geschluckt wie der BD? AMD ist in dieser Kategorie mind. 3 Jahre hinten dran... Wenn nicht noch mehr.
 
Zuletzt bearbeitet:
naja drei Jahre nicht würde eher sagen 1 1/2 Jahre hängt AMD Intel hinterher ,
also das was jetzt auf dem Markt kommt währe ende 2009 zu erwarteten gewesen ,
da währe dann AMD mit die Neuem etwa dem I 7 920 gleich oder gut überlegen,
Intel hat klar immer noch einen deutlichen Vorsprung wenn man die Leistung mit Strom
Verbrauch gegen AMD rechnet , bei den iments geistigen Strom Kosten wenn der PC jeden Tag mehere Stunden laufen soll, sollte man sich schon genau vor dem Kauf genau überlegen
was man für eine CPU nimmt .
 
Zuletzt bearbeitet:
Hach ja. Leider sehe ich noch immer keinen WoW Effekt der mich vom "alten" i7 weg zwingt... Ich glaube ich hatte JAHRE(!) nicht mehr so lang eine CPU ... :D Hoffe doch, dass Intel sich nicht selbst künstlich ausbremst. Irgendwie habe ich da so nen Gefühl :(
 
frankpr schrieb:
Für Anwendungen, die sich Deiner Vorstellung entziehen?
Warum gehen alle immer nur von dem aus, was sie selbst interessiert, was sie selbst brauchen. Tellerränder sind zum drüberschauen da.

Wenn ihr mehr Kerne wollt kauft euch doch nen Bulli ;) .
 
Zuletzt bearbeitet:
nein auch keine Videobearbeitung, kein CAD und keine wissenschaftlichen Berechnungen

Sorry, aber das ist definitiv falsch. Theoretisch "bräuchte" man für einige wissenschatliche Berechnungen sogar CPUs die tausend mal schneller sind, wenns die denn nur gäbe ...

Endlich mal ein Multiple Sequence Alignment ( aus der Bioinformatik, NPC schweres Problem ) das ohne fehlerbehaftete Heuristik auskommt. Hach wäre das schön ... :D ( oder wenigstens eine Heuristik, bei der man nicht mehr von Hand nachkorrigieren muß )

Simulationen sind auch so ein Gebiet wo man häufig stark vereinfachen muß, damit der Rechner noch in diesem Leben fertig wird. ...

Hovak schrieb:
Man sollte auch bedenken das die TDP mehr dem Marketing unterliegt als irgend einen realen Bezug hat.

Ist wohl mittlerweile so, AKAIK war der TDP ursprünglich wirklich nur so gedacht, daß man als ( beruflicher oder privater ) Schrauber weiß, welchen Kühler man draufpappen kann. Dafür macht dann natürlich so eine "feine" Einteilung keinen Sinn mehr, da würde theoretisch auch eine Einteilung Kühlklasse I bis IV reichen und entsprechend die Kühler zertifizieren. Aber das wäre vermutlich marketingtechnisch nicht mehr so zugkräftig ...
 
Zuletzt bearbeitet:
Graf-von-Rotz
Siehe es vllt so, wenn die 4 modul wegen dem "hohen Verbrauch" verglichen zum IB mal an die 100-150 euro Bereich kommen und mehr Leute sich einen 8 kerner kaufen, würde die Softwarefirmen mehr auf 8 kerne optimieren und Intel würde einen Anreiz bekommen eventuell sogar 6-8 kerne auf den Desktop-Markt zu schmeißen, falls die 8 Kerner gegenüber den Intel 4 kerne zu viel Performance dazu gewinnen.
 
Zurück
Oben