Test Asus VivoMini UN65 im Test: Konfigurierbarer Kleinst-PC glänzt dank Skylake in HEVC

Corros1on schrieb:
Wozu benötigt man heutzutage noch infrarot? Mittlerweile ist doch fast alles mit WLAN oder Bluetooth, wenn nicht mit Kabel!
Zumal bei Infrarot ein direkten "sichtkontakt" geben muss!

Bei einem HTPC ist es zumindest nicht schlecht, die Option zu haben, seine irgendwann mal teuer gekaufte Universalfernbedienung, an die man sich über Jahre gewöhnt hat, weiter benutzen zu können.
Sichtkontakt ist bei einem Gerät, das man sich neben den Fernseher stellt, gewöhnlich ja kein Problem. ;)
 
Zuletzt bearbeitet:
Der TV gehört an die Wand, Kabel unter Putz und Zusatzgeräte in das TV-Möbel und Klappe / Schublade / Schranktüre ZU.

Wer will sich schon die Flut von LEDs an Receiver, BD-Player, Mediabox usw. ständig ansehen? Wer will diese Geräte heutzutage überhaupt noch sehen?
 
"Vor gut einem Jahr wagte Asus mit viel Verspätung den Weg auf den Markt der Kleinst-PCs"

Ähh...meine ASUS VIVOs sind schon 2 Jahre alt. Oder zählt diese Generation nicht zu "Kleinst-PC"?

Egal... Ich persönlich finde die VivoMinis gar nicht so attraktiv.
Der "normale" VIVO ist zwar ein paar mm grösser, kam aber schon komplett bestückt an:

- i3 CPU
- 1TB HDD (3,5" - 2,5" gehen natürlich auch)
- 4GB DDR3 RAM
- BT
- GB LAN
- W-LAN
- 2x USB 3.0 + 4x USB 2.0 + CardReader

Für 299,-€ ... gleich 2 geordert. Laufen perfekt und bieten mehr Möglichkeiten weil man ja nicht auf die M2 beschränkt ist.
 
cypeak schrieb:
seien wir ehrlich: uhd (nicht 4k!!) ist nicht auf dem vormarsch weil es kaum inhalte gibt. unsere sender hierzulande sind kaum (oder garnicht) bei fhd angekommen, geschweige den bei uhd. die ersten uhd-blurays sind dabei auf den markt zu kommen. von den erschwinglichen playern mal ganz abgesehen....

was 30hz betrifft hast du recht: browsen macht da kein spaß...aber der scrollvorgang "ruckelt" nicht, es werden schlich nur 30 bilder pro sekunde ausgegeben...;)

Logisch "ruckelt" es der 30FPS wegen, aber ich wollte mich kurz fassen. Bin aus der Medien/Filmproduktion und kenne schon den Unterschied zwischen UHD und 4K, dennoch meine ich wenn ich 4K bei der Hardware schreibe 4K :) denn die meisten Projektoren nutzen echte 4096x2160 und nicht die Konsumenten beschnittene 3840x2160 Auflösung.

Bei den Inhalten gebe ich dir Recht, aber ich habe vor so vielen Jahren mit der Computerei angefangen, da war Englisch Pflicht (und ist es für mich auch noch heute), so dass ich auch viele andere Bereiche in meinem Leben ins Englische gezogen habe. Dazu gehören Bücher, Filme und Fernsehen. Im englischen Raum sieht es nicht ganz so mau mit 4K Material aus und dass das Thema noch ein wenig in den Kinderschuhen steckt ist mir klar, dennoch würde ich vom AV-Receiver über TV und Zuspieler mir kein Gerät mehr neu zulegen, welches nicht 4K>UHD beherrscht und dazu gehört auch die PC Hardware.
 
flipp schrieb:
Die aktuell Brix-Reihe beherrscht HDMI 2.0 und damit wohl auch CEC. Imtel wird nachziehen bzw. bietet in vielen NUCs immerhin Infrarot an. Asus verpaßt hier die Chance nachzuziehen.

Intel hat schon (fast) nachgezogen, allerdings zu einem doppelt so hohen Preis...

https://www.computerbase.de/2016-03/intel-nuc-kit-nuc6i7kyk/

Was mich bei diesem Gerät stört ist einmal natürlich ein hörbarer Lüfter und zum 2. definitiv der nur 10Bit breite M.2. Anschluß. So kann dieses Gerät sicherlich keinen Preis gewinnen - die aktuellen Skylake NUC von Intel bieten mehr zum ähnlichen Preis!

Den Asus mit einem 32Bit M.2 Anschluß und HDMI2.0 und das Gerät wäre Interessant - so aber leider gar nicht.
 
Zuletzt bearbeitet:
cypeak schrieb:
wunsch und wirklichkeit; und was "standard" sein sollte oder standard ist, das sind zwei paar schuhe.
an sich sollte uhd beim gaming doch standard sein, aber ein großteil der gpu's da drußen ist schwelich in der lage aktuelle games entsprechend zu rendern...;)

Das wird auch noch länger dauern. Bis dato gibt es so gut wie kein ARM SoC der 4k@60Hz mit brauchbaren Software Support bietet, nur der Odroid-C2 ist dort auf einem guten weg. Pine64 haben das zwar im Datasheet stehen, der Software Support macht das aber wieder komplett unbrauchbar.

Datasheet und reale Leistung sind hier deutlich unterschiedlich.

cypeak schrieb:
und nochmalls: es ist nicht an der gpu videos zu dekodieren - zumindest nicht in der arm welt (nur weil das bei amd/intel in der x86 welt so ist...)

Das ist aber nur teilweise korrekt, zwar kodieren nicht die Shader in der GPU, da die Decoder eigene Schaltkreise besitzen, aber die Decoder sitzen hier komplett in der GPU. Deshalb sind die Decoder in gewisser Maße schon von der GPU abhängig, denn der GPU Typ entscheidet welche Decoder geliefert werden. Dafür braucht man auch zum Beispiel die Mali Treiber für die Decoder um beim Odroid-C2 die HW Beschleunigung zu nutzen. Das ist auch bei x86 nicht anders, auch da sitzen die Decoder in der GPU und auch als dedizierte Schaltkreise.
 
LegeinEi schrieb:
Der TV gehört an die Wand, Kabel unter Putz ...

Zustimmung, wg. Kabel unter Putz.

Aber die Geräte sind doch technische Betriebsmittel......LED kann man überkleben
oder übermalen. Macht mehr Sinn, wenn der ganze Kram ordentlich gekühlt wird...sonst verrecken die Billig-Bauteile
im Gerät selber.

dank super TV, hat man erst gar keinen Reciever-Kram mehr. Ein 60" flache Fernseher + ein MINI-PC +
externe Festplatte + Internetzanschluss langen da völlig aus + maximal noch einen BluRay-Player dazu.

mario-Barth-RTL, pro7, sat1 und Konsorten....kann man eh vergessen
 
Kennt sich damit jemand aus?

Um einen Codec wie H.265 vollständig und hocheffektiv über die Hardware zu unterstützen, muß der Codec selbst erstmal fertig und ausgereift sein. Ist er es denn schon? Und braucht es dann nicht noch eine Weile, ehe Prozessoren oder Grafikchips die "Befehle" integriert bekommen, die ein Decoden von H.265 dann mit wenig Last effektiv erledigen können?

Bei H.264 war es ja auch so, und erst nach Jahren war man soweit, daß dieser Codec von nahezu jeder CPU mit wenig Last abgespielt werden konnte.
 
Spawn182 schrieb:
Bin aus der Medien/Filmproduktion und kenne schon den Unterschied zwischen UHD und 4K, dennoch meine ich wenn ich 4K bei der Hardware schreibe 4K :) denn die meisten Projektoren nutzen echte 4096x2160 und nicht die Konsumenten beschnittene 3840x2160 Auflösung.

hmm. also ich finde die argumentation nicht besser wenn man tatsächlich 4k statt uhd ins feld führt.
mengenmäßig dürften (echte) 4k projektoren/anzeigegeräte die ottonormalverbraucher anschaffen werden und die ensprechenden (echten) 4k quellen noch deutlich schlechtere verbreitung finden als uhd.
das dci 4k format mag im kino/film-bussines große relevanz haben, aber solange das consumer-massengeschäfft auf uhd setzt ist es eben eine nische.

irgendwie fühle ich mich an die zeiten erinnert als 16:10 monitore (mit 1920x1200er auflösung) aufkamen und dann die 16:9 (1920x1080) geräte den markt stürmten...heutzutage dürfte die verfügbarkeit der 16:10 geräte relativ gesehen deutlich schlechter sein....auf einen 16:10 monitor kommen zw. 8 und 10 modelle mit anderen seitenverhältnissen in den markt...vorzugsweise 16:9...
dabei können die 16:10er ohne einschränkungen FHD material anzeigen ;)
 
für Dokumentationen ...langt ein normaler Röhren-Fernseher oder eine 1900 x 1000er Auflösung.

k.A. was die ganzen Leute mit ihrem 4k am Hut haben?
4000 x 2000 ist irgendwann in 5 Jahren mal interessant....aber nicht heute ( die Kirche mal im Dorf stehen lassen )
 
Bright0001 schrieb:
Irgendwie doch witzig. Das Ding ist kleiner als ne Packung Milchschnitte, und doch packt es mit 4k Wiedergabe einen 1100/1090T locker flockig in die Tasche. :evillol:

Kommt ganz drauf an. Mit Hardware decoder (gpu) geht das ohne Probleme. Auch kleine ARM Chips schaffen mit GPU Hilfe 4k.
Rein in Software komplett auf CPU Basis wirds halt eng.
 
Zurück
Oben