Test Intel „Haswell“-Grafik für Desktop-PCs im Test

Wie ist denn die Temperatur von dem "Hitzkopf" wenn die Grafik genutzt wird?
In den anderen Tests liest man ja, dass es mit OC schon grenzwertig bis zum Throtteln geht - was passiert wenn dann noch die interne Grafik genutzt wird?
Ich konnte in den Tests nichts finden und meine Frage in dem anderen Thread blieb auch unbeantwortet..........
 
acc schrieb:
der wurde schon mit ivy bridge behoben.

Raptorchicken schrieb:
der wurde schon seitg ivy bridge behoben

jedenfalls ein ziemlich komisches konzpt, warum sie den GT3 vollausbau nicht auch für den desktop bringen...
Das ist totaler Quatsch, das der 24p-Bug mit IB behoben ist.
Es gibt immer noch einen ReSync aller 4:04min.
Hab ja selber einen Core i3-3225 mit HD4000. Kann es daher nachvollziehen.
 
Voyager10 schrieb:
Immer wieder scheint man hier zu vergessen das nur die GT2 getestet wurde , hier gibt es Tests der GT3e

http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested

und da zieht die Intel iGPU an der AMD APU vorbei.

Natürlich muss man fragen wieso Intel jetzt im Desktop Vergleich mit AMD APUs nur die schwächere GPU reinbaut .
Meine Antwort ist, es ist von Intel so gewollt. Würde man im Desktop die GT3 einbauen dann wäre AMD erledigt.
Das die AMD Fans das natürlich anders auslegen "Intel könnte keine starke bessere GPU machen" ist natürlich wie immer völliger Humbug...Bei Intel ist das nur eine Frage des Wollens und des Preises.

Hätte, hätte Fahrradkette. Zum Einen gibt es, wie schon erwähnt, die GT3 im Desktop-Berreich nicht. Und Zweitens, wie kommst du jetzt auf einmal auf die glorreiche Idee einen neuen Intel-Prozessor mit einer alten AMD-APU zu vergleichen? Wenn AMD mit Trinity eine Steigerung von 10-25% (grafikseitig) hätte, wäre die GT3e auch nicht schneller. Und drittens kommt noch hinzu, würde Intel die GT3e in einem Desktop-Prozessor verbauen, dann wäre das wieder ein i7 oder i5 für 200€ aufwärts. Entschuldigung, aber für den doppelten Preis (ca. 100€ für den A10) erwarte ich auch die doppelte Leistung, sowohl bei CPU und GPU. Viertens stellt sich mir dann noch die Frage, um wie viel Prozent ist die Fläche der GT3e größer als die der HD7660G/D, wenn man den Fertigungsprozess anpasst? Denn ganz ehrlich? Ich habe hier gelesen, dass die GT2 Fertigungsprozessbereinigt schon 20% größer ist/wäre. Wie sieht das dann bei der GT3e aus? Es ist ja wohl logisch, dass eine Grafikeinheit mit x-mal mehr Transistoren und co. auch schneller ist.

Nichts desto trotz warten wir doch erstmal ab, was mit Richland und am Ende mit Kaverie daher kommt. Vielleicht ist Intels Ansatz ja wirklich gut, siehe GT3e, vielleicht wird aber AMDs Umsetzung mit dem nächsten großen Schritt bei Kaverie einen Sprung machen und Intel ist, trotz der guten Leistung wieder weit(er) hinten. Das wird sich erst zeigen, wenn man Neu-gegen-Neu testen kann und nicht Neu-gegen-Alt.

@all die nicht verstehen, warum man einen i7 mit der besten Grafikeinheit versieht. Einige Programme nutzen doch das GPU-Computing aus und da ist Intels Lösung ja nun wirklich nicht schlecht, sogar besser als AMDs Grafikeinheit. Von daher ist es durch aus logisch in starke Prozessoren auch starke Grafikeinheiten einzubauen.
 
quotenkiller schrieb:
ich muss gestehen, ich hab mir diesen test nun nicht durchgelesen, oder auch nur auf die benchmark ergebnisse geachtet, sondern bin in anbetracht der cpu bezeichnung (hohe nummer + dieses hq kürzel, welches mir erst mal nicht viel sagt) direkt zum abschnitt pricing gesprungen
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/19
dir ist schon aufgefallen, dass du auf eine 468/657dollar cpu verweist?

Zwei Punkte:
Intels offizielle Listenpreise entsprechen nicht den realen Einkaufspreisen der großen OEMs.
Der i7-4750HQ (HD5200) liegt im (Preis)Segment eines i7-3632QM (Einführung: Q3/12). Entsprechende Notebooks mit letzterer CPU gibt es ab 500€.
 
Zuletzt bearbeitet:
Das ist totaler Quatsch, das der 24p-Bug mit IB behoben ist.
Es gibt immer noch einen ReSync aller 4:04min.
Hab ja selber einen Core i3-3225 mit HD4000. Kann es daher nachvollziehen

Korrekt. Unglaublich, dass hier zwei Leute der Meinung sind, dass der 24p Bug schon mit IB behoben worden ist :D Anscheinend keine Erfahrung damit gemacht.
 
YforU schrieb:
Zwei Punkte:
Intels offizielle Listenpreise entsprechen nicht den realen Einkaufspreisen der großen OEMs.
Der i7-4750HQ (HD5200) liegt im (Preis)Segment eines i7-3632QM (Einführung: Q3/12). Entsprechende Notebooks mit letzterer CPU gibt es ab 500€.

In diesem Test geht es um Dektop-CPUs was bringt einem da eine Notebook-CPU mit guter Leistung wenn man sie nicht/nicht sinnvoll im Desktop Bereich nutzen kann?

An alle anderen die meinen "Ja, aber mit GT3 oder höher ist Intel so gut." - Toll doch was bringt es einem wenn es ein eine CPU im Notebook Segment mit dieser GPU ausgestattet ist und nicht im Desktop Segment.

anandtech vergleicht hier eine Notebook CPU mit einer Desktop CPU dies ist, egal wie man es dreht und wendet, nicht zu Vergleichen. Sorry bei aller liebe mit der ich Intel CPUs verwende aber hier hat Intel Hoffnungen geschürt und es geschafft diese nicht zu erfüllen. Im Bereich Desktop-CPU+GPU schaffen sie es einfach aktuell nicht eine anständige Kombination zu bringen um mit AMD mitzuhalten. Die im Test hier verglichenen CPUs haben außerdem komplett unterschiedliche Preisklassen und somit Zielgruppen.

Würde es Intel schaffen eine CPU auf den Markt zu bringen die Grafikleistungsmäßig an den A10-5800K heranreicht um unter 200€ -> gut ok aber so weit wird es unter Haswell sicher nicht mehr kommen...
 
YforU schrieb:
Zwei Punkte:
Intels offizielle Listenpreise entsprechen nicht den realen Einkaufspreisen der großen OEMs.
Der i7-4750HQ (HD5200) liegt im (Preis)Segment eines i7-3632QM (Einführung: Q3/12). Entsprechende Notebooks mit letzterer CPU gibt es ab 500€.
Erstmal: Wieso sollen nur Intels offizielle Listenpreise nicht den realen Einkaufspreisen der großen OEMs entsprechen? Als OEM wirst du dein Design wohl generell nicht nur ein paar hundert oder tausend mal verkaufen wollen, da wirste auch bei AMD ein entsprechend günstigeres Angebot bekommen.

Aber selbst wenn wir uns nur Pi mal Daumen an den Listenpreisen orientieren, ist das in diesem Fall sinnlos. Ein Haswell mit 40EUs (und erst Recht nicht mit Crystallwell) kann gar nicht die Verbreitung eines i7-3632QM finden. Um dass zu wissen, braucht man nur die Die-Größen vergleichen. Broadwell wirst du mit ungefähr dieser Anzahl an EUs wahrscheinlich auch in 500€-Notebooks finden, Haswell noch nicht.
 
Vorher schrieb:
In diesem Test geht es um Dektop-CPUs was bringt einem da eine Notebook-CPU mit guter Leistung wenn man sie nicht/nicht sinnvoll im Desktop Bereich nutzen kann?

Zum einen werden längst sehr viel mehr Notebooks als Desktops verkauft und zum anderen gilt die Einschränkung (Desktop) nur für LGA1150. Als BGA gibt es die HD5200 auch am Desktop für AIO und Komplettsysteme.

Caanon schrieb:
Erstmal: Wieso sollen nur Intels offizielle Listenpreise nicht den realen Einkaufspreisen der großen OEMs entsprechen? Als OEM wirst du dein Design wohl generell nicht nur ein paar hundert oder tausend mal verkaufen wollen, da wirste auch bei AMD ein entsprechend günstigeres Angebot bekommen.

Es ging um die hohen Listenpreise der HQ CPUs. Das sieht erst einmal sehr teuer aus aber beim Vergleich mit aktuellen IB CPUs zeigt sich eben das hier insgesamt keine realistischen Preise angegeben werden.

Ansonsten schau dir den Listenpreis eines i5-3337U an und addiere dazu eine GPU wie 8750M. Das ist nur um die 50$ günstiger als ein i7-4750HQ. Letzterer hat eine geringere TDP und zwei Kerne mehr. Die GPU ist vergleichbar.
 
Zuletzt bearbeitet:
YforU schrieb:
Es ging um die hohen Listenpreise der HQ CPUs. Das sieht erst einmal sehr teuer aus aber beim Vergleich mit aktuellen IB CPUs zeigt sich eben das hier insgesamt keine realistischen Preise angegeben werden.
Die realistischen Preise stehen aber bestimmt nicht auf irgendwelchen Listen, die du ohne weiteres einsehen kannst. Wenn du die wirklich wissen willst -egal ob von Haswell, oder von IB, oder von Trinity, oder Richland oder sonstwelchen CPUs- dann musst du wohl die entsprechenden Verträge mit den jeweiligen OEMs einsehen, sonst haste eben Pech. ;)

YforU schrieb:
Ansonsten schau dir den Listenpreis eines i5-3337U an und addiere dazu eine GPU wie 8750M. Das ist nur um die 50$ günstiger als ein i7-4750HQ. Letzterer hat eine geringere TDP und zwei Kerne mehr. Die GPU ist vergleichbar.
Toll, aber der i7-4750HQ hat auch eine Die-Größe die ihn ganz im Gegensatz zum i7-3632QM kaum produzierbar macht, wie auch die anderen Haswells mit 40EUs und Crystallwell. Und selbst die ohne Crystalwell haben für den teuren 22nm-Prozess nicht gerade eine Massenproduktionsfreundliche Die-Größe. Das wissen auch AMD und Nvidia und wissen, wie weit sie den i7-4750HQ nur unterbieten müssen, um noch annähernd soviele Design Wins wie vorher zu bekommen.
 
Zuletzt bearbeitet:
Caanon schrieb:
Die realistischen Preise stehen aber bestimmt nicht auf irgendwelchen Listen, die du ohne weiteres einsehen kannst. Wenn du die wirklich wissen willst -egal ob von Haswell, oder von IB, oder von Trinity, oder Richland oder sonstwelchen CPUs- dann musst du wohl die entsprechenden Verträge mit den jeweiligen OEMs einsehen, sonst haste eben Pech. ;)

Braucht man auch nicht denn der empfohlene Preis wird von Intel angegeben. Das der in der Realität eben erheblich niedriger ist zeigen die am Markt erhältlichen Notebooks. Bei einem Preis von 378$ (i7-3632QM) lässt sich kaum ein Notebook um 500€ anbieten. Die gibt es aber.

Toll, aber der i7-4750HQ hat auch eine Die-Größe die ihn ganz im Gegensatz zum i7-3632QM kaum produzierbar macht, wie auch die anderen Haswells mit 40EUs und Crystallwell. Und selbst die ohne Crystalwell haben für den teuren 22nm-Prozess nicht gerade eine Massenproduktionsfreundliche Die-Größe. Das wissen auch AMD und Nvidia und wissen, wie weit sie den i7-4750HQ nur unterbieten müssen, um noch annähernd soviele Design Wins wie vorher zu bekommen.

Mit Blick auf Intels grundsätzlich sehr hohe Margen und dem Einsatz von 128MB als L4 (selbst 32MB wären ausreichend gewesen -> Xbox One) sind die Fertigungskosten sicher kein Problem. Intel nutzt zwar kostspielige Fertigungsprozesse aber eben auch eigene Fabriken. Bei AMD und Nvidia verdient TSMC immer mit und gleichzeitig ist das Volumen erheblich geringer.
 
Zuletzt bearbeitet:
YforU schrieb:
Braucht man auch nicht denn der empfohlene Preis wird von Intel angegeben.
Eben doch, weil was ist denn dieser "empfohlene Preis": Ein unverbindlicher!
Komm bei denen als Apple mit einer CPU-Bestellung für deine Massen an MacBooks an und du bekommst einen ganz, ganz anderen realen Preis als Acer oder sowas mit einer CPU-Bestellung für irgendein mäßiges, daher kaum verkaufbares und daher auch nur wenig produziertes "Ultra"book. ;)
Der empfolene Preis sagt dir darüber nichts, außer dass der reale Preis mehr oder weniger weit darunter liegt.
Man müsste eben Maus sein in den Unternehmen, dann könnte man es auch genau wissen, sonst wird's schwer. Nichts anderes meinte ich.


YforU schrieb:
Das der in der Realität eben erheblich niedriger ist zeigen die am Markt erhältlichen Notebooks. Bei einem Preis von 378$ (i7-3632QM) lässt sich kaum ein Notebook um 500€ anbieten. Die gibt es aber.
Habe ich abgestritten, dass es diese gibt? Nö. Ist bei der geringen Die-Größe ja auch kein Wunder, dass sowas geht.
Habe ich abgestritten, dass der Preis in der Realität niedriger ist, als der vom Hersteller empfohlene? Nö. Habe ich doch selber geschrieben, dass das ganz normal ist.
Aber wissen wir wirklich irgendwas genaues? Nö. Siehe oben.


YforU schrieb:
Mit Blick auf Intels grundsätzlich sehr hohe Margen und dem Einsatz von 128MB als L4 (selbst 32MB wären ausreichend gewesen -> Xbox One) sind die Fertigungskosten sicher kein Problem. Intel nutzt zwar kostspielige Fertigungsprozesse aber eben auch eigene Fabriken. Bei AMD und Nvidia verdient TSMC immer mit und gleichzeitig ist das Volumen erheblich geringer.
Es stellt sich die Frage welche 22nm-Fertigungskapazität sich Intel bis heute gegönnt hat. Die müsste sehr bedeutend höher sein als zuvor bei Tocks, wenn in den Mainstream-Notebooks nun statt dGPU vom Konkurrent + kleinem CPU-Die von Intel nur noch ein Riesen-Die von Intel rein soll.
Der Ausbau würde entsprechend teuer gewesen sein und wozu das ganze: Um ein Bisschen mehr Kohle pro Die reinholen zu können. Glaubst du im Ernst diese Rechnung kann überhaupt aufgehen?
Sicherlich wurden seit Ivy Bridges Launch Fabriken auf 22nm umgestellt, Haswell ist schließlich ein Tock, aber eine derartige Kapazität wäre für Intel eben völlig neu, da bisher kein derart großer Die für Mainstream-Notebooks gedacht war.
Der Atom will übrigens auch noch in 22nm gefertigt werden und hat mit Sicherheit höhere Priorität als Haswells mit HD5200. dGPUs aus Mainstream-Notebooks verdrängen kann man nächstes oder übernächstes Jahr noch immer, im Mobile-Bereich muss Intel überhaupt erstmal nennenswert werden.
 
naja dass Intel den Desktop Bereich nicht mit der GT3 bestückt zeigt ja dass man hier nicht auf breiter Front vor allem AMD Konkurrenz machen will.

Es ist offensichtlich das Intel der Ansicht ist, dass einem High Performer im Mainstream Desktopsegment keine große / starke GPU braucht, zumindest in 99,9% der Fälle.

Wenn der i7 gekauft wird wird er meist mit dez. GPU kombiniert. Basta. Und ansonsten reicht die iGPU aka HD4600 mehr als aus bzw ist schon oversized.

Noch ne klasse drüber hat man schließlich gar keine GPU an Bord.

Im Notebook Segment wo man kleine leichte Modelle will versucht man die Dez. GPU einzusparen. Da macht es Sinn auf mehr GPU Leistung zu setzen. Und wer da wieder über dein Preis der GT3 Modelle klagt... naja nicht zu helfen halt ^^ - ich finds schlicht interessant was Intel als der GPU Nachzügler hier an Boden gut gemacht hat über wenige Jahre. Was das kostet steht auf einem ganz anderen Papier. Der GT3 i7 im Notebook würde keine 100€ kosten wenn AMDs APU sowohl CPU als auf GPU Seite & Effizienz die Stirn bieten könnten, wovon wir aber ein weites Stück weg sind was man leider auch an den Preisen sieht =/

Den Test GPU Haswell @ Deksktop hätte man sich aus meiner Sicht fast sparen können... man könnte ja mal interessiert Fragen wie viele hier sind die nen i5 Quad aufwärts im Desktop inklusive GPU nutzen - und wie viele dann wirklich die GPU auch noch über Games beanspruchen. Dürfte im Promille Bereich liegen ^^

In meinen Augen ist Haswell @ Desktop ohnehin recht irrelevant und kommt eher einem 5-10% OC IB gleich. Was Connected Standby da noch reißt muss sich zeigen. Auch das was ein kleiner Haswell auf ITX beim Verbrauch gut macht (idle). Unter 10W wären schön.

@Matzegr

ja, die Größe der GT3 überrascht mich auch. Dafür sieht die Leistung recht mager aus, vor allem dann wenn man auch noch den Takt berücksichtigt. Wundert mich etwas zumal ja das SI etc auch mit reingerechnet werden muss.

Die Frage ist was der Unterschied zu den Shadern bei Nvidia und AMD ist. Zumal die OpenCL Leistung so extrem hoch ausfällt (hätte eher Gegenteiliges erwartet)

55303.png

55302.png


legt die Vermutung nahe dass Intel bei den Shadern da ganzschön Wert drauf gelegt hat und diese entsprechend aufbläst.
 
Zuletzt bearbeitet:
Peter_Shaw schrieb:
Zum '24p-Bug':


Das ist m.W. leider nicht richtig, das Problem wurde etwas entschärft, aber nicht behoben, der Ruckler kommt nun halt alle 4min statt alle 40sek. LINK

Daher würde es mich interessieren, wie es jetzt bei Haswell aussieht.


Schau mal hier: http://www.missingremote.com/review...t-75k-and-intel-dh87rl-motherboard-first-look


Matzegr schrieb:
Dann schauen wir uns aber mal eine Intel-Folie an.

1-1080.1236443504.jpg


Da steht neben der GT2 als Vergleich eine HD6570 und GT 630!

Zur Erinnerung eine HD6570 hat 480 5D-VLIW Shader.

Trinity hat 384 4D-VLIW Shader.

Die GT2 nimmt ~53mm² ein. Wenn man die unterschiedliche Fertigung rausrechnet ist die GT2 ca. 10% größer als die HD 7660D im Trinity.

Dazu kommt noch das die hier getestete 4770K CPU bei Spielen, wenn die GPU nicht limitiert, 80% höhere Frameraten liefert als nen A10-5800K, wenn man ne zusätzliche GPU nutzt. Das wiederum zeigt das die GT2 natürlich auch von der stärkeren CPU Leistung profitiert.

Und obwohl die CPU um Welten besser ist, die iGPU mehr Platz benötigt liegt Trinity bei Spielen 25% vorne!


Die GT3 ist im Vergleich zur HD 7660D doppelt so groß! (Nach meiner Rechnung. Wenn man der Rechnung auf Anandtech glauben schenkt, dann wäre die GT3 mehr als 3 mal so groß wie ne 7660D). Dazu kommen noch bei der Iris Pro 84mm² eDRAM.

Für die genutzte Fläche, ist die gezeigte Leistung eine Enttäuschung! Da hoff ich doch mal für Intel, dass man mit neuen Treibern noch einiges rausholen kann.


Oha da sind einige Böcke drin bei dir. In der Tat ist die HSW GT2 ca 53 mm² groß. Dein großer Fehler hierbei ist allerdings die Fertigunsberechnung. Intels 22nm skaliert Faktor 1,5 über 32nm. Prozessbereinigt sind das um die 85 mm². Trinitys GPU ist 103 mm² groß. Demnach ist Trinitys GPU größer und nicht andersrum. Folglich liegt deine GT3 Rechnung auch falsch. Zwar stimmt, dass GT3 prozessbereinigt größer ist als Trinity, aber weit weniger als du behauptest. Es sind etwa 50%. Dazu sollte man mal erwähnen, dass Intels 1/4 DP in der Theorie mehr Fläche beansprucht als AMDs 1/16 DP.



Die beiden Intel-Prozessoren können in den GPU-Computing-Tests enorm von der sehr starken CPU profitieren, die dem Pendant in AMDs Trinity-APU bei Weitem überlegen ist. So hat der i7-4770K in den meisten Fällen die Nase vorn, wobei dies in erster Linie nicht an der GPU, sondern an der CPU liegt.


Ist das vom Redakteur eine dahingeworfene Behauptung? In Luxmark idlet die CPU vor sich hin im GPU Test, was Haswell trotzdem nicht abhält schneller zu rechnen. Die Gen 7.x Architektur eignet sich besser für Computing Aufgaben, außerdem ist Intels OpenCL 1.2 Treiber performanter. Der CPU Treiber von Intel läuft in Luxmark auf AMD CPUs schneller als mit AMDs eigenem OpenCL Treiber. Auch ist mir das Fazit schleierhaft. Wer hat denn von der mittleren Ausbaustufe eine Trinity Leistung erwartet? Hier liegt viel Unwissen vor beim Redakteur. Im Gegenteil, der Abstand zum A10-5800K ist erfreulich gering. Bei Torchlight 2 stimmt die Benchbeschreibung nicht. Crysis 3 mit Patch 1.2 getestet. Patch 1.3 gibt es schon seit wann? 2 Monate? 3dmark Cloudgate wird zu stark von der GPU beeinflusst, hier wäre Firestrike sinniger imho.
 
Manni-D schrieb:
Das ist totaler Quatsch, das der 24p-Bug mit IB behoben ist.
Es gibt immer noch einen ReSync aller 4:04min.
Hab ja selber einen Core i3-3225 mit HD4000. Kann es daher nachvollziehen.

tja bei mir gibst keine resyncs, was nun?
 
Caanon schrieb:
Es stellt sich die Frage welche 22nm-Fertigungskapazität sich Intel bis heute gegönnt hat. Die müsste sehr bedeutend höher sein als zuvor bei Tocks, wenn in den Mainstream-Notebooks nun statt dGPU vom Konkurrent + kleinem CPU-Die von Intel nur noch ein Riesen-Die von Intel rein soll.

Haswell + GT3 ist 48mm² (22nm) größer als SB + GT2 (32nm, 216mm²). Riesig ist in Relation zu AMD sowieso relativ denn Trinity hat 246mm² (32nm, SOI) und Vishera (4 Module, ebenfalls 32nm SOI) 315mm². Mit Blick auf das Volumen ist Intels 22nm Fertigung mit absoluter Sicherheit günstiger als 32nm SOI bei GF für AMD.

Ein AMD FX-6300 wird nicht separat produziert und hat somit ebenfalls 315mm². Aktueller VK inkl. UST: 99€. Das Intel für einen i7-4750HQ (264mm² + 84mm²) weniger als 200€ bekommt halte ich für unrealistisch. Die Fertigungskosten sind also in keinster Weise ein Problem.

Der Ausbau würde entsprechend teuer gewesen sein und wozu das ganze: Um ein Bisschen mehr Kohle pro Die reinholen zu können. Glaubst du im Ernst diese Rechnung kann überhaupt aufgehen?

Natürlich denn die Chip Größe hat bei Intel über die letzten Jahre deutlich abgenommen. Es ist eher so das Intel zwangsweise neue Wege benötigt um die Fabs bei zunehmend kleineren Strukturen auch in Zukunft auslasten zu können. Deshalb ist es auch logisch den eDRAM (L4, Crystalwell) in einer nur leicht abgewandelten Variante des 22nm LP Prozesses herzustellen (Atom, Saltwell).

Intel, Anfang 2011, 22nm:
The transition to 22nm process technology will start later this year for Intel. The company will also move to a new manufacturing model that will rely on four high volume leading-edge fabrication plants instead of three. The plan will cost Intel $9 billion this year, but US chipmaker claims that with the 22nm manufacturing process it will be able to enter new markets.
http://www.techspot.com/news/42049-intel-investing-9-billion-in-22nm-manufacturing-process.html

In Relation zu 32nm (-> 3 Fabs) sind fast alle 22nm CPUs der Core Serien abseits der Haswell GT3 Variante kleiner geworden. Würde die eine zusätzliche Fab nur die kleinen Saltwell SoCs fertigen wäre der Markt sowas von geflutet ;)
 
Zuletzt bearbeitet:
Zu 23p gibt es hier Infos:
http://www.hardwareluxx.de/communit...4p-bug-erklaerung-797983-27.html#post20701082

omnium schrieb:

Talking of display refresh rate support, Intel has finally fixed the 23.976 Hz bug which has been plaguing Intel-based HTPCs since 2008. This is going to make HTPC enthusiasts really happy. The fact that Intel manages the best match for the required refresh rate compared to AMD and NVIDIA cards is just icing on the cake

The good news is that the display refresh rate accuracy is excellent.

Even better news is that the set of display refresh rates obtained with the Haswell system is more accurate than anything I had obtained before with AMD or NVIDIA cards. The gallery below presents some of the other refresh rates that we tested out. madVR reports frame drops / repeats only once every 6 hours or more in the quiescent state.
 
Ralf555 schrieb:
Oha da sind einige Böcke drin bei dir. In der Tat ist die HSW GT2 ca 53 mm² groß. Dein großer Fehler hierbei ist allerdings die Fertigunsberechnung. Intels 22nm skaliert Faktor 1,5 über 32nm.

Ok, prinzipell hast du recht. Ne CPU skaliert nicht 1:1 mit der neuen Fertigungsgröße, da z.B. Power-Gating Transistoren recht groß sind und nicht mitskalieren. Wenn man sich SB/HW anschaut dann kommen wir auf 4,6 Mio. Transistoren/mm² (995 Mio. (schematic) Transistoren auf 216mm²) bzw. auf 7,9 Mio. Transistoren/mm² (1,4 Mrd. (schematic) Transistoren auf 177mm²) also ein Faktor von 1,71 statt den theoretischen 2,11.

Hier geht es aber um den GPU-Teil. Hier erreicht man nahezu eine 1:1 Skalierung(Zumindest schaffen es Nvidia und AMD bei ihren GPUs). Mag sein das meine Rechnung mit 2,1 zu hoch ist, aber deine 1,5 sind definitv auch zu wenig. Schade, dass Intel nicht die Transistorenzahlen der iGPUs veröffentlicht.
 
Auf Seite 7 hat sich ein kleiner Fehler eingeschlichen.
Bei "Bioshock Infinite" steht in der Tabelle Battlefield 3 als Überschrift. Die Version wurde anscheinend auch von BF3 übernommen.
 
Zuletzt bearbeitet:
Zurück
Oben