News Skylake: Intel schafft FIVR beim Haswell-Nachfolger wieder ab

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.359
Ich verstehe den technischen Hintergrund zwar nicht ganz, aber stellt das nicht einen Rückschritt im Vergleich zu Haswell und Broadwell dar? Immerhin trägt der FIVR zu einer Effizienzsteigerung bei.

Ich weiß ja nicht. Mir kommt es so vor, als ob sich Intel nicht so recht entscheiden könnte was sie nun machen wollen.

Auf der anderen Seite ist die Entwicklungsabteilung in Haifa für die geniale „Sandy Bridge“-Architektur verantwortlich. Man darf annehmen, sie wissen schon was sie tun. Im besten Fall kommt am Ende wieder ein erstklassiges Produkt raus. Daumen drücken ist angesagt.
 
FIVR ist aber nicht überall effizient. Gerade bei Low Power kackt es teilweise ab, bei neuen CPUs, also Broadwell in Form des Core M, gibt es einen Bypass, der FIVR teilweise umgehen kann. Damit wird das Modell in diesen Lebenslagen effizienter. In Haifa haben sie sich für Skylake halt was anderes ausgedacht, was funktioniert. Wie genau das aussieht werden sie uns halt nächstes Jahr sagen.
 
Conroe 40%Mehrperformance bei 40%Energieeinsparung kam auch aus Israel , nicht zu vergessen. Die Stromschleuder Nehalem kam dann erst wieder aus den USA...

Den FIVR scheint man eher aus einer Meinungsverschiedenheit wegzulassen so wie sich das liesst...
Also vom Gesichtpunkt der Effizienz her war der Schritt zur Vollintegration der CPU Spannungsversorgung und Regulation nur logisch , aus welchen Grund der FIVR jetzt wieder verschwinden soll wurde bisher noch nicht wirklich technisch erklärt.
Das dieser "abkackt" ist für mich keine überzeugende Erklärung, ich könnte mir eher denken das die Stromstärken pro Leiterbahn bei CPU´s mit geringeren Spannungen zunehmen und dadurch der FIVR in einem 14nm DIE ein zu großer Hotspot bedeutet. Dem Problem könnte man ausn Weg gehen wenn man die Bahnen einfach verdoppelt.
Für LowEnd CPU´s , zb. der Core i3 und kleiner ist der FIVR trotzdem noch logisch, die höhere Effizienz bleibt ja trotzdem.

Der FIVR ansich ist ja nicht verkehrt gewesen , hier liesst sich das noch ganz anders..
http://www.ee.bgu.ac.il/~digismps/files/papers_2014/fivr_140M_intel.pdf
 
Zuletzt bearbeitet:
Das es an den Fertigungstechniken liegt, könnte ich mir auch vorstellen, denn auch wenn es generell von Vorteil ist möglichst viel zu integrieren, so wird das doch spätestens dann zum Problem, wenn die integrierten Teile eigentlich nach einer ganz anderen Fertigung verlangen würde um effizient zu sein. Das war bei AMD ja auch eine große Herausforderung für die APUs, da sich die Anforderungen von CPUs und GPUs in der Hinsicht auch schon nicht geringfügig unterscheiden.
 
Bei geringer Spannung hast du aber bei derselben CPU einen kleineren Strom!
Das ist auch der Grund, warum beim Undervolting die Leistung teilweise ordentlich sinkt.
 
Die Spannungen der CPUs werden über Technologie und Shrink kleiner aber der Verbrauch im Highend Segment bleibt in der Regel immer gleich , von daher steigen die Ströme und man siehts ja auch schon am Haswell das das Teil im OC-Modus heisser wird als die Vorgänger . Gerade im neuen Shrink sehe ich dann nochmehr Probleme bei vielleicht kleineren Bahnen.
Für sehr kraftvolle CPU´s scheint der FIVR eher ungeeignet zu sein .
 
klar die Ströme steigen dadurch, das mehr Transistoren integriert sind.

Ich frage mich aber warum dünnere Leiterbahnen dem FIVR im Wege stehen sollen.
Die gleichen Ströme fließen doch auch, wenn der FIVR nicht integriert ist.
Die Verluste sind doch sogar mit einem FIVR geringer, da die Leiterbahnen vom Spannungswandlerausgang zu den Transistoranschlüssen wesentlich kürzer sind.

Ihr liegt da mit eurer Annahme falsch.
 
eXtra schrieb:
Ich verstehe den technischen Hintergrund zwar nicht ganz, aber stellt das nicht einen Rückschritt im Vergleich zu Haswell und Broadwell dar? Immerhin trägt der FIVR zu einer Effizienzsteigerung bei.

Da bisherige Erfahrungen mit den Leistungen des Teams in Israel sehr positiv waren, finde ich es schon sehr interessant, dass die das wieder ausgelagert haben. Da liegt für mich die Vermutung nahe, dass es aus technischer bzw. Ingenieurs-Sicht womöglich zum aktuellen zeitpunkt eben schlicht besser so ist.

Es gibt übrigens genug Beispiele, wo Dinge zur Effizienzsteigerung durch kommen, die aus technischer Sicht eher fragwürdig sind. Erst heute habe ich davon gehört, dass es im Bereich der Heimautomatisierung sehr nervig ist, dass moderne TVs ihre Netzwerkadapter abschalten, weshalb man die TVs zwar über Netzwerk abschalten kann, aber Einschalten geht nur per Infrarot.
Mal ganz zu schweigen von Autos und Downsizing von Motoren und was das mit der Lebensdauer macht.
 
Das ein anderes Team nun die CPU entwickelt hat, welches mit FIVRs bisher warscheinlich keine Erfahrungen hatte und mit Sicherheit unter Zeitdruck stand, was ordentliches abzuliefern, ist in meinen Augen die plausibelste Erklärung.

Ich hatte bisher keine Probleme bei meiner CPU ausmachen können, im Gegenteil, durch den FIVR ist die Anpassung der Spannung wesentlich komfortabler.
 
Die haben kein Zeitdruck gehabt. Von wem denn?^^
Broadwell war verspätet, Skylake kommt jetzt erst 2H/2015 und damit ja quasi auch ein halbes Jahr später. Sandy Bridge kam 3.1.2011 offiziell, war aber schon 2009 quasi fertig, danach wurde für Ivy Bridge nur bissel optimiert und es ging direkt an was wirklich Neues. Insofern ist Mitte 2010 bis 2013 kein totaler Zeitdruck, vor allem ohne Konkurrenz. Das stellt man erst immer fest, wenn man mit den Technik-Leuten mal redet. Die reden heute schon über Skylake als wäre es Vergangenheit - denn sie sitzen schon an den nächsten Projekten^^
 
Ich könnte mir vorstellen, dass die integrierten VRs von den Israelis nicht wirklich wieder rausgeschmissen wurden, sondern schlicht und einfach in deren Desing noch nicht vorgesehen sind. Die Entwicklungsarbeiten laufen ja quasi parallel bei den beiden Teams in Israel und den USA. Es ist wie wie ein Bockspringen, wo immer abwechsend einer die Führung übernimmt.
Die Entwicklungsarbeiten an Skylake liefen bestimmt schon längst, als vom US-Team bei Haswell die FIVR eingeführt wurden und waren schon so weit fortgeschritten, dass dieses Feature nicht mehr ohne Weiteres implementiert werden konnte und das wohl auch gar nicht so synchron ablaufen soll.

Es gibt sicher einen Austausch und Kooperation zwischen den beiden Teams, aber sie arbeiten halt doch nicht als eine Einheit. Das wird wohl ganz bewusst so sein, denn bei Intel wird man sich noch gut daran erinnern, dass ihnen die separate Entwicklungsabteilung in Israel damals den Hintern gerettet hat, als sich die US-Abteilung in die Netburst-Sackgasse verrannt hatte.
Indem die beiden Entwicklergruppen zumindest teilweise unabhängig arbeiten und nicht direkt alles übernehmen, was die andere ausgebrütet hat, hat man auch zukünftig immer eine Fallback-Lösung parat, auf die man kurzfristig umschwenken kann.

So kann Intel zwar immer noch in eine Sackgasse geraten, hat dabei aber quasi immer auch noch einen Fuß auf einem anderen Pfad, auf den sie direkt wieder wechseln können, wenn sie den Fehler erkennen.

Hätte sich z.B. die FIVR in Haswell und Broadwell als kompletter Irrweg erwiesen, dann wären sie jetzt mit Skylake und Cannonlake schon wieder weg und würden in dem Fall auch nicht wieder kommen. Wenn sich aber herausgestellt hat, dass sie sich unterm Strich positiv auswirken, werden sie halt (wie wohl jetzt geplant) in zukünftigen Generationen (auch denen aus Israel) wieder implementiert. Also nur ein vorübergehender Schritt zurück, um auf Nummer Sicher zu gehen.
 
Sinkt damit nun die Effizienz der CPUs im Vergleich zu Broadwell?
Wäre an sich schade, aber lieber ein System was komplett rund läuft, statt irgendwelche benötigten "bypass" Lösungen.
 
psYcho-edgE schrieb:
Da hoff ich doch mal dass es dann hübsche passende Boards gibt :)
Ne, die Mainboardhersteller haben schon angekündigt, dass sie Skylake überspringen werden.

Und wer die Ironie nicht findet: Natürlich wird es dafür "hübsche" und "passende" Boards geben!

Voyager10 schrieb:
Conroe 40%Mehrperformance bei 40%Energieeinsparung kam auch aus Israel , nicht zu vergessen. Die Stromschleuder Nehalem kam dann erst wieder aus den USA...
(...)
Du willst also andeuten, dass das Produkt mit der schlechteren Effizienz aus einem Land kam in dem Strom idR so gut wie nichts kostet und die offizielle Bekämpfung der Erderwärmung mittels "dann drehen wir die Klimaanlagen halt weiter auf" erfolgt? So ein Zufall aber auch ;)
Aber mal Spaß beiseite - Wenn das wirklich zwei unterschiedlichen Teams sind und die Entwicklung parallel läuft, dann kann's ja schon gut sein, dass die Leute die an Skylake arbeiten, einfach noch keine FIVR vorgesehen hatten, und das völlig ungeachtet der Effizienz.
 
Dann sollten die CPUs an sich etwas kühler werden und eine weitere Komponente auf dem Board muss gekühlt werden.
 
Voyager10 schrieb:
Conroe 40%Mehrperformance bei 40%Energieeinsparung kam auch aus Israel , nicht zu vergessen. Die Stromschleuder Nehalem kam dann erst wieder aus den USA...

So schlecht war Nehalem auch wieder nicht. In Form des Lynnfield auf der 1156er Plattform war Nehalem mitnichten eine Stromschleuder wenn man mit den Yorkfields vergleicht.
Auch der hochgelobte Sandy Bridge (aus Haifa) ist Taktbereinigt auch gerade mal ~15% schneller als Nehalem. Warum Sandy so gut eingeschlagen hat liegt vielmehr daran, dass intel keine 32nm Westmere (Nehalem Shrink) Quads für Sockel 1156 mit 3,x GHz gebracht hat. Wäre ein solcher Quad mit 3,3GHz gekommen, wäre der Sprung von Nehalem nach Sandy genauso "ernüchternd" gewesen wie von Sandy nach Haswell. Bezüglich der Leistungsaufnahme wären da wahrscheinlich auch kein großer Unterschied dann gewesen.
Auf der 1366er Plattform war der Bloomfield zwar in der Tat kein Kostverächter, aber auch hier ist Sandy Bridge nicht wesentlich besser.
 
Ich sehe es auf jeden Fall auch nicht so, dass das US-Team von Intel nur Mist baut und alles gute (der letzten Jahre) von der israelischen Truppe kommt.

Z.B. war es ein klarer Rückschritt, dass die Core2 kein Hyperthreading beherrschten. Das kam dann ja auch mit der nächsten Generation wieder um zu bleiben.
Integrierter Speichercontroller (und damit das Ende des limitierenden Frontsitebus) und integrierte GPU kam, wenn ich mich nicht irre, auch zuerst von der US-Seite.

Aber auf jeden Fall ist es für Intel eine gute Sache, dass sie zwei Teams haben, die relativ unabhängig von einander arbeiten, so dass es immer eine Alternative zu eventuellen Fehlentwicklungen gibt. Der Nachteil daran ist halt, dass ein gutes Feature deshalb auch mal wieder für eine Generation (+ Refresh) verschwinden kann, bevor es dann endgültig etabliert wird.
 
d.h. doch v.a. eins: nach Skylake kommt wieder ein neuer Sockel.

Die grösste technische Neuerung ist heute oft, dass eine bestimmte Technik zur allgemeinen Verwunderung rausfliegt und dann in einem späteren Produkt doch wieder zurückkehrt (siehe Startmenü..).
 
Bei zwei Unabhängigen Teams verwundert es niht, dass Intel die Sockel alle 2 Jahre wechselt. Allerdings glaube ich schon, dass die Teams heute relativ dicht zusammenarbeiten. Haswelll und Sandybridge sind keine völlig unterschiedlichen Architekturen und weisen viele gmeinsamkeiten auf.

Trotzdem bin ich mal auf die neuen gespannt, denn der CPU Markt ist doch recht langweilig im bezahlbaren Consumermarkt... würde doch irgentwann mal meinen Sandy i5 gerne ausmustern.
 
Zurück
Oben