Test Intel NUC mit Core i7 im Test: Mit 28-Watt-CPU und Iris zur 4K-HEVC-Wiedergabe

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.537
#1
Intels schnellster NUC verspricht bis zu 3,4 GHz Takt und eine starke Grafikeinheit. Selbst neueste Video-Codes werden in Ultra HD abgespielt. Bei einer fast doppelt so hohen TDP müssen Käufer dafür aber auch Kompromisse in Kauf nehmen. Wie genau die aussehen und was das Modell leistet, zeigt der ComputerBase-Test.

Zum Test: Intel NUC mit Core i7 im Test: Mit 28-Watt-CPU und Iris zur 4K-HEVC-Wiedergabe
 

Tom_1

Lieutenant
Dabei seit
Jan. 2015
Beiträge
549
#2
Ich frage mich immer wieder wann diese Dinger endlich mal eine vernünftige Kühlung bekommen.
Die werden so extrem heiss, man kann die nichtmal mehr angreifen fürs um/anstecken oder ausschalten.
Ansonsten finde ich sie praktisch (haben einen in der Firma -anderes Modell)
 
Dabei seit
März 2008
Beiträge
172
#3
Schöner Test .
Wie sieht der Stromverbrauch bei HEVC aus?
Wäre es möglich eineb Chameleon mit Hardware HEVC-Decoder mit zu testen?

Was mich bei diesen Geräten immer wieder erstaunt sind die hohen Idle-Verbrauche.
Im Vergleich zu gleich ausgestatteten Notebooks welche noch ein Display mit befeuern müssen, ist der Verbrauch höher!!!
 
Dabei seit
Mai 2005
Beiträge
6.327
#4
Wäre sehr interessant eine 45W 4 Kern CPU zu verbauen. Mit 3-4cm mehr Gehäusegröße sollte die Kühlung sogar leise machbar sein. Go Intel Go! ;)
 

Weby

Lt. Commander
Dabei seit
Feb. 2009
Beiträge
1.052
#5
1 × M.2, 10 Gbit/s sind aber keine 4x PCIe Lanes. Wie kann dort die Samsung SSD nicht limitiert werden?
 
Dabei seit
Okt. 2010
Beiträge
4
#6
endlich.., bin schon längerem auf der suche nach etwas Leistungsfähigem in Konsolengrösse, was man hinter dem Fernseher verstecken kann. Die Leistungsdaten hier für Video und Audio sehen gut aus. Geplant ist das ganze in Verbindung mit nem Samsung UE55HU7200.

Jetzt nur die Frage, ob mann damit auch halbwegs aktuelle Spiele (evtl. The wichter 3) spielen kann, oder ist die intregierte Grafikeinheit als Problem darstellen?
 
Dabei seit
Mai 2005
Beiträge
6.327
#7
Eine aktuelle unter Mittelkalsse Grafikkarte benötigt ungefähr 100W an Saft, hier hat die komplette CPU, inklusive GPU, nur ein Viertel dieser Leistung zur Verfügung. Das kann man ganz grob 1:1 auf die Leistung umrechnen. Sicher kann man damit spielen, aber man sollte bei aktuellen Titeln nicht viel erwarten ;)
 

k0ntr

Commander
Dabei seit
Okt. 2007
Beiträge
2.664
#8
Crysis müsste laufen. Konnte es damals mit meinem 3700+Athlon @2.2Ghz , 1GB RAM und meiner 6800GT spielen..."spielen".
 

Zebrahead

Lt. Junior Grade
Dabei seit
Juli 2011
Beiträge
506
#9
Steht doch im Artikel was man von der GPU erwarten kann. Witcher 3 kannst Du sowas von knicken damit.
 

Volker

Ost 1
Ersteller dieses Themas
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.537
#10
1 × M.2, 10 Gbit/s sind aber keine 4x PCIe Lanes. Wie kann dort die Samsung SSD nicht limitiert werden?
Stimmt, sonst sind es PCIe 3.0 Lanes, hier nur 2.0,
sh: http://downloadmirror.intel.com/24794/eng/NUC5i7RYB_TechProdSpec01.pdf

Supports M.2 SSD PCIe drives (PCIe x1, x2, and x4)
― Using PCIe x4 M.2 SSD maximum bandwidth is approximately 1600
MB/s
 
Zuletzt bearbeitet:

bensen

Fleet Admiral
Dabei seit
Juli 2003
Beiträge
18.134
#11
Tja hier wird vielleicht auch schon der Speicher limitieren. DDR3-1600 ist jetzt nicht all zu viel. Da hilft nur eDRAM oder DDR4 bei Skylake.
Trotzdem finde ich den Test mit einem Spiel ziemlich mager. Gerade bei den Kleinstsystemen wo oft die TDP begrenzt ist Torchlight alleine ein ganz schlechter Indikator. Denn das Spiel benötigt so gut wie keine CPU-Leistung.
Wenn CPU und GPU belastet wird, throtteln die 15W Modelle sehr schnell. Das 28W Modell hier würde dagegen noch ziemlich hohe Taktraten haben und dann wäre der Abstand erheblich größer. Deswegen würde ich das Fazit auch ändern und es explizit auf Torchlight beziehen. Man kann imho nicht ein einziges Spiel testen und dann Aussagen zur Gamingtauglichkeit treffen.
 

Matzegr

Commander
Dabei seit
Jan. 2011
Beiträge
2.386
#12
Zitat von Volker:
Bei der Grafik tritt die integrierte Iris 6100 trotz 48 EUs enttäuschend auf.
Wo läßt da eigentlich Intel immer die Leistung liegen?

Die Iris 6100 braucht bei 14nm rund 78mm², kommt bei einem Takt von 1,1 GHz auf theoretisch 844,8 GFLOPs und liefert gerade mal 62% mehr Leistung als die in 28nm gefertigte 30mm² große iGPU im Kabini, die auf theoretisch 128 GFLOPs kommt.

Wo liegt das Problem?
Treiber, Speicherbandbreite?

Über die Effizienz bei Torchlight 2 kann man auch nur mit dem Kopf schütteln.

i7-4770R: 1,2 W/FPS
i7-5557U: 1,15 W/FPS
i5-4250U: 1,09 W/FPS
A4-5000: 0,85 W/FPS


Vergleichen wir mal die HD 5000 im i5-4250U mit der Iris 6100 im i7-5557U:

Der i7-5557U hat 20% mehr EUs, 32% mehr max. GFLOPs, braucht 6% mehr Strom und liefert dafür ganze 6% mehr Leistung. Nebenbei hat man 14nm gegen 22nm.

Wo soll das mit Skylake hinführen wenn man dort 72EUs (+50%) unterbringt?

Irgendwo gibt es einen oder mehrere Flaschenhälse, da bringt es doch nichts die Anzahl der EUs noch weiter zu steigern.
 
Zuletzt bearbeitet:
Dabei seit
März 2010
Beiträge
3.340
#13
Jetzt nur die Frage, ob mann damit auch halbwegs aktuelle Spiele (evtl. The wichter 3) spielen kann, oder ist die intregierte Grafikeinheit als Problem darstellen?
Du hast Vorstellungen einen mega Aktuellen AAA+ Titel mit nen integrierten Grafikkarte. Ich denke das dass game selbst bei 840x680 ruckeln wird wie Sau.

Wenn du sowas willst entweder selbst nen MiniITX zusammenstellen mit nen gtx970 oder r9 280x (MSI Mini itx oä.) oder ne Highend steambox mit min. ner GTX970m

Edit: sowas hier wäre dafür geeignet
http://www.hardwareluxx.de/index.php/artikel/hardware/komplettsysteme/34084-steamos-auf-dem-asus-rog-gr8-ausprobiert.html
 
Zuletzt bearbeitet:

bensen

Fleet Admiral
Dabei seit
Juli 2003
Beiträge
18.134
#14
Wo soll das mit Skylake hinführen wenn man dort 72EUs (+50%) unterbringt?
Zu eDRAM und DDR4?
Dass der Speicher in solchen Regionen limitiert ist doch nichts neues. AMD hat ja das gleiche Problem. Wenn die kein Speicherlimit hätten, würden die schon längst IGPs lieefern die doppelt so schnell wie bisherige wären.

Effizienzwunder sind die Intel-IGPs aber auch nicht. Sowohl auf Fläche, als auch auf Leistung bezogen. Die Skalierung ist auch cniht optimal. Da müssen sie noch aufholen. Wer weiß was zu Skylake hin so gemacht wurde.
Aber was die Intel IGP kann, ohne dass der Speicher oder die TDP limitiert sieht man ja an den R-Modellen. Die haben auch nur 40 EUs sind aber erheblich schneller.
 
W

Wurstpeller

Gast
#15
Na ja, wenn diese Heizung wenigstens n'en 4-Kerner hätte und eine HD-wasweissich mit 256 EU's und 4GB HBM Speicher, dann könnte der meinen (k)alten Mac mini endlich ersetzen. :evillol:
 

gmc

Ensign
Dabei seit
Feb. 2014
Beiträge
206
#17
Der HEVC Vergleich ist recht sinnlos wegen (wahrscheinlich) veralteter Treiber der anderen Geräte. Wie üblich fehlt hier wieder einer Treiberangabe, seriöser Journalismus sieht anders aus.
 
W

Wolfsrabe

Gast
#18
"Partial" - das heißt ja wohl daß H265 alias HEVC noch nicht vollständig unterstützt wird. Daher wird auch der erhöhte Verbrauch und die gesteigerte Wärmeentwicklung kommen.

Ich denke hier wird man in Zukunft noch wesentliche Verbesserungen in der H265 / HEVC Implementierung erwarten kann.

Mal gucken ob von AMD auch sowas kommt.


Spiele oder Videokonvertierung sind für mich in so einer Kiste völlig unwichtig, das macht jeder Bürorechner ohnehin fast besser.
 

sdo

Lieutenant
Dabei seit
Sep. 2011
Beiträge
683
#19
Da haben sich alle wohl zu große Hoffnungen für skylakes igpu gemacht. 50% mehr Leistung von nichts ist immer noch nichts.

Würde gerne mal carrizo sehen, wie sich die Grafik dort entwickelt hat.
 

Sid6581

Lt. Junior Grade
Dabei seit
Okt. 2006
Beiträge
507
#20
Knapp zwei Jahre nach Einführung schafft es Intel noch nicht einmal, HDMI 2.0 zu implementieren, damit ist der 4K-Support ein zweischneidiges Schwert - weiß jemand wie gut Displayport auf HDMI-Adapter funktionieren? Wäre damit 2160p60 mit HD-Sound auf einem gängigen UltraHD-Fernseher möglich?
 
Zuletzt bearbeitet:
Top