News „Ivy Bridge“-Desktop-Topmodelle mit maximal 77 Watt TDP?

Hah, haben sie es endlich geschnallt, dass man erst die teuren rausgeben muss, weil sich sonst alle die billigen holen und übertakten bis sie besser sind als die teuren?
 
Die entscheidende Frage wird wirklich die Preisgestaltung sein - in Punkto Performance und Performance/Watt führt 2012 wohl kein Weg an Intel vorbei...
 
Naja das war ja abzusehen. Die Quads bleiben ja jetzt schon teils deutlich unter den 95W. Un die Dualcores erst recht unter 65W. Mit der neuen Fertigung sind die 77W wohl kein großes Problem. Vor allem da sie ja nicht gerade gezwungen sind enorme Taktraten rauszuhauen.

Ist schon irgendwie eine lahme Entwicklung. Die ersten Quadcores gab es schon in 65nm. Der IvyBridge wird ja nen richtig kleines Teil, selbst wenn die IGP größer wird, wird der Die wohl locker unter 200 mm² messen. Aber ein Sechskerner ist bei der Konkurrenz ja auch nicht nötig. Da lässt man sich lieber ein paar mehr Argummente für die s2011-Plattform. Sonst wäre SandyBridge E ja schon sofort eingeholt.
 
Shaav schrieb:
Die werden ein Vermögen kosten.

Denk ich auch. Glaube, aber langsam dass die nicht wirklich schneller sein werden als die SB. Mehr dass Intel momentan die Leistungssteigerung bremst und eher über die Effizienz punkten möchte. Außerdem kann man dann immer wieder eine 95 watt version einführen die eben um einiges schneller ist, falls eine starke Konkurrenz kommen würde (bitte jz nicht, was für ne starke Konkurrenz bla bla... man weiß es nicht was die Zukunft bringt)
Denke eher man wird nicht haben wollen, SB-E zuviel Konkurrenz zu machen, wo die Plattform alleine schon mehr einbringt.

Btw wird eigentlich die igp jz einen eigenen cache/speicher besitzen ???
 
Bei den CPUs zieht Intel immer mehr davon, hoffentlich kommen sie auch mal bei den Chipsätzen in die Hufe. Nur 2 SATA III Ports und immer noch kein natives USB3, das ist eine Schade. Das nur 16 PCIe Lanes für Grakas zur Verfügung stehen, könnte man noch verschmerzen wenn der Sockel 2011 denn wenigsten mit ausreichend SATA 6Gb/s Ports uns USB3 kommen würden. Wie es aber aussieht, wird dessen Chipsatz auch nur ein Z68 mit mehr PCIe Lanes werden. Die CPU alleine macht es aber nicht, der Chipsatz sollte auch erneuert werden, wenn Ivy Bridge für mich eine Überlegung wert sein soll.
 
b0ne schrieb:
Das war nicht anders zu erwarten. Die spannendste frage bleibt aber noch offen, undzwar ob endlich zwischen externer Grafikkarte und der in der cpu integrierten Grafikeinheit aufgrund des Stromverbrauchs gewechselt wird/werden kann.
Ich wage es zu bezweifeln
TheK schrieb:
Umschaltung auf die interne GPU wäre in der Tat genial, das sind nämlich immer noch 10-20W und würde den Gamer-PCs ihren letzten Schrecken beim Verbrauch nehmen.
Stahlseele schrieb:
Viel interessanter wird eher, ob wir mit der Generation dann auch Optimus Technologie für Desktop bekommen können . .
Und eventuell auch für ATI-Karten.
Müsste mit den Lucid Hydra-Chips eigentlich machbar sein, oder?
pipip schrieb:
Ob das machbar ist, kA xD
Gab es doch bereits von NVIDIA mit Hybrid-SLI. Damals war das Interesse doch sehr zurückhaltend und das obwohl die damaligen Grafikkarten wesentlich mehr Strom im Idle gezogen haben. Heute würde ich ein Remake viel weniger verstehen, da der Idle-Verbrauch, dank Stromspartechniken, bereits sehr niedrig ist. Der "Schrecken" eines Gamer-Pc ist doch eh nicht der Idle-Verbrauch, sondern wenn der Vollast-Verbrauch.

Bei Notebooks ist es natürlich was anderes.
 
Zuletzt bearbeitet: (Ergänzung)
Viel interessanter wird eher, ob wir mit der Generation dann auch Optimus Technologie für Desktop bekommen können . .
Und eventuell auch für ATI-Karten.
Müsste mit den Lucid Hydra-Chips eigentlich machbar sein, oder?
 
Stahlseele
Billigste Methode die ich mir vorstelle, Desktop Anschluss mit 2 Eingängen einen Ausgang. Einer wird am Board angeschlossen einer an der Grafikkarte. wird die Grafikkarte nicht verwendet, wird umgeschaltet auf das andere Signal.
Ob das machbar ist, kA xD
 
Genau so stelle ich mir das vor!
Wenig Strom und genug Leistung. Ich freue mich auf Ivy.
Bin mal gespannt wie Sandy-E im Stromverbrauch abschneidet. Wenn der zu viel schluckt, dann ist der nichts für mich.
 
Bin mal auf die echte "Verlustleistung" gespannt. 77 Watt TDP ist ja nur das was maximal thermisch abgeführt wird, oder ? Ich denke mal wenn man die Ivy Bridge mit z.B. einem alten Qxxxx vergleichen würde, verhältnis max. TDP mit maximalem Stromverbrauch, das da auch noch einiges bei eingespaart wird, 22 nm, respekt...:lol:

Apropo Mainboards/Chipsatz, das ist noch die einzigste Sache wo Intel gegen AMD punkten müßte, die AMDs sind fürs selbe Geld immer noch besser ausgestattet. Ich glaub aber das bleibt erstmal so, sonst würde ja keiner mehr AMD-Cpu´s kaufen:D

Übrigens, aktueller Preis der FX-8150: ~215 Euro und damit immer noch zu teuer, bei ca. 150 kauf ich mir vieleicht doch noch einen, günstiges Mainboard vorausgesetzt^^
 
Hm ganz so begrüßen kann ich das jetz nicht, schließlich bedeutet es ja, das man hier um 18W TDP weniger Leistung @stock hat, aber hey, wozu hat man OC :D
Aber ich schätze mal Intel muss sich selbst die TDP künstlich auf solch ein Maß begrenzen da man sich vllt sonst doch zu weit SB-E nähert.

Mir wäre zwar immernoch ein 6 Kern Ivy ohne iGPU lieber, aber naja. Dafür das ich damit nur Spiele ist mir SB-E samt Platform wohl zu teuer.

Dennoch werde ich bei Ivy meinen Yorkfield in Rente schicken.
 
Sehr geil! Jetzt müssen nur noch die großen Hersteller bis Mitte 2012 80+ Gold oder Platin Netzteile <= 300W rausbringen... :)
 
Zuletzt bearbeitet:
sanders schrieb:
Ich bin nun wirklich jahrelange treuer AMD Fan, aber inzwischen hab ich das gefühl das Intel mit AMD nichtmal mehr den Boden wischt sondern AMD selbst dazu nicht mehr taugt.
Hoffentlich reißt Piledriver es wieder raus...

Naja gerade wenn es um die Grafikeinheit geht, hat AMD mit Llano ein heißes Eisen ;)
 
Dabei habe ich mich seit einem halben Jahr so sehr auf AMDs Bulldozer gefreut.
Naja ich freu mich mal vorläufig auf ivy-bridge, wobei auch da nicht zu sehr. Nur weil Intel jetzt 2-3 Jahre Vorsprung hat bedeutet dass noch lange nicht dass alles stimmt was auf den tollen Folien steht.
 
jetzt wills intel amd aber zeigen ;D
 
Danke an die Kartellämter (USA/EU) die ca. 10 Jahre gebraucht haben um Intel einen illegalen Missbrauch gegenüber AMD "Beweisen" konnten. ...Jetzt kann Intel Ihr wirtschaftliches "Potenzial" hoch fahren. Sind ja mit mehr als einen blauen Auge davon gekommen, Märkte zu schmieren, damit keine AMD´s gekauft werden.
-Normalerweise bekommt man eine Strafe für ein Vergehen, d.h. man muss mehr bluten als man dadurch verdient hat, Intel hat durch Ihr Vergehen noch profitiert u. tut es umso mehr - ist es nicht geil? -Für einen 10 Jahren offizielen Betrug nicht "erwischt" worden zu sein, (der in die Milliarden geht) ist schon eine Kunst. -Wenn man bedenkt dass wir für ca. 1€ Differenz in der eigenen Einzelhandelskasse entlassen werden können, und dass nach ca. 10 Jahren Arbeit.
-Lobby ist das Stichwort, und dass die Politik da oft sehr Tief drin sitzt sollte bekannt sein (Gerhard Schröder lässt grüssen mit gasprom) auch wenn mir soooo ein langer Fall gar nicht erst bekannt ist.

-Auf der anderen Seite hat Intel trotz all diesen Neuigkeiten eine Menge an Nachholbedarf was die Grafikkartenentwicklung angeht, ohne Nvidia/AMD geht es in höheren Regionen immer noch nicht.
 
Zuletzt bearbeitet:
wenn die OC-Ergebnisse zu dem passen was Intel bis jetzt verleuten lassen hat -> gekauft! :)

den Sandy noch gut veräussert und den endlosen OC-Nights steht nix mehr im Weg :D

jap, die einen nennen mich jetz ***** oder *****, ich nenn´s Hobby und freu mich drauf :)

Jetzt noch Keppler und ne schicke WaKü und ich bin glücklich :D
 
Stahlseele schrieb:
Hah, haben sie es endlich geschnallt, dass man erst die teuren rausgeben muss, weil sich sonst alle die billigen holen und übertakten bis sie besser sind als die teuren?
Im Text steht doch, dass Intel immer erst die teureren Modelle bringt :D

Und ich würde gern mal sehen, wie du bspw. ne CPU wie den i3, Pentium oder Celeron übertaktest auf nem
1155 Board. Das geht nämlich überhaupt nicht, dank festen Multi und BCLK. Mit Turbo geht's auch nur so halbwegs, bleiben also eh nur die Topmodelle für richtiges OC.

Aber ich finde es interessant, dass sie das bessere Performance/Watt-Verhältnis fast nur für eine bessere Leistungsaufnahme einsetzen und nicht auch für mehr Takt. Ich glaube Intel macht das, damit die kommenden SB-E nicht zu schlecht dastehen. Ich bin jedenfalls sehr auf erste OC-Ergebnisse gespannt. Wird sicher ne sehr gute CPU, wenn man bedenkt, wie hervorragend sich schon SB schlägt.
 
Das Rumgedoktore bei AMD mit dem Bulli über den Sommer, bei genauerem Hinsehen hat das ja eigentlich mit ihrer Führungskrise begonnen. AMD war damals eh schon hinten dran, und jetzt?

Neben der geplanten Überarbeitung des Bulldozers, steht es der Firma wegen des Technologietranferabkommens zwischen Intel und AMD(kopieren erlaubt mit einem Jahr Verzögerung, so war das doch?) aber zumindest noch offen, Intels Entwicklungen zu übernehmen, allem voran diese neuartigen Transistoren von Intel, die afaik, hauptverantwortlich sind für den niedrigen Stromverbrauch. 2 Jahre bis zur marktreife so schätze ich, wenn AMD jetzt damit beginnt. Schon traurig! Ohne diese Transistoren sehe ich selbst bei dem anstehendem Shrink kein Land bei der Sparsamkeit.

Wenn sich AMD doch nur nicht ständig selber ins Bein schießen würde sobald es ihnen mal gut geht! Intel wie immer: technikhungrig, unbeirrt und nunmehr seit Jahrzehnten eine Revolution nach der anderen in den Markt werfend. Schon beeindruckend. So wie ich das sehe, könnte man die IB CPU prinzipiell auch gerne mit 4,5 Ghz Standardtackt ausstatten oder mehr. Intelllabor mal wieder, Gratulation, keep on going!
 
riDDi schrieb:
Intel muss sich auch ranhalten. Die CPUs sind allemal schnell genug. Wenn man mehr Power braucht nimmt man halt mehr davon. Wenn der Verbrauch und der Formfaktor der Desktop-PCs nicht sinkt kaufen wir aber bald alle nur noch ARM-Laptops.

Für kleinere Desktop-PCs sehe ich derzeit die Netzteile als die größte Baustelle. So ein ATX-Netzteil braucht so viel Platz, wie es eigentlich für den ganzen Rechner sinnvoll wäre. Hier müsste zumindest abseits der Highend-Gamer-PCs ein einheitlicher (!) Standard her, der mit externen Netzteilen und einem Spannungswandler auf dem Board arbeitet.
 
Zurück
Oben