Welche Hardware wird benötigt um 4K@60fps zu gucken?

4kku

Cadet 3rd Year
Registriert
Juni 2014
Beiträge
36
Hallo,

welche Hardware-Kombination CPU, RAM, GPU usw. wird mindestens benötigt um 4K Videos in 60 fps gucken zu können und dann würde ich noch gerne wissen, mit welchem Tablet und mit welchem Smartphone das möglich ist?

Danke. :)
 
3840x2160 + 60Hz->
HDMI 2.0 und DP bieten das in ihren Spezifikationen.

Zum Rest kann ich keine Aussage machen, aber du könntest da mit der Bitrate (foglich Datenumsatz) rumrechnen und deine Ergebnisse bekommen. Inwieweit die Realität da vllt. vorbeischrammt -> mag ich nicht beantworten.
So arg viel Rechenleistung ist das ja nicht wirklich.
Braucht halt auch Festplattendurchsatz, wobei das heutzutage eh kein Problem mehr darstellen sollte.
 
1. werden filme nicht mit 60 fps dargestellt. meist sind das 24, 25 oder auch 30fps. diese z.b. bei 25 fps und 50hz dann einfach doppelt auf dem bildschirm gezeichnet.
2. ein sehr schönes 4k test video ist hier. Das Video überfordert ne menge Rechner. bei handy und tablet sehe ich da schwarz erstmal.
https://e-nautia.com/disk/download.php?id=2148840
3. beim versuch auf meinem Nexus7/2013 abzuspielen gab es nur fehlermeldungen mit den playern, dass es nicht möglich wäre das format abzuspielen. mehrere player ausprobiert, immer das selbe ergebnis.
4. anforderungen an GPU sind kaum relevant bezüglich geschwindigkeit. das hardware-beschleunigte encoden ist eher nen faktor, dass du nen neueren chip hast, der es unterstützt (http://www.hardwareluxx.de/index.ph...-maxwell-architektur-im-xxl-test.html?start=9). auch die ram-menge ist nicht so relevant, da 450MB ram nimmt, bzw 700MB sich reserviert. bei der CPU liegt ne hohe anforderung, schönen Quadcore kann ich dir empfehlen!
5. tablet/handy muss erst im grafik chip dann ne vernünftige h265 encodierung bekommen und player müssen nachziehen. dann könnten die vllt langsam ne kleine chance haben. aber aktuell ist ja bei 1080p noch bei manchen modellen das zuviel.
 
Bei meinem Note 3 als File lässt es sich ohne Probleme abspielen. ;)

XShocker22
 
BxB schrieb:
1. werden filme nicht mit 60 fps dargestellt. meist sind das 24, 25 oder auch 30fps. diese z.b. bei 25 fps und 50hz dann einfach doppelt auf dem bildschirm gezeichnet ...

1. das ist falsch. da wird eine sogenannte Zwischenbildberechnung durch Bildprozessoren im Display gemacht und man erhält die doppelte Bildfrequenz. siehe hierzu auch TV mit 100Hz zu Zeiten von analogem Kabel-TV. weiterhin gibt es sehr wohl Filme mit so hohen Aufzeichnungsfrequenzen. Die 3 Hobbit-Filme sind so gedreht worden - wenigstens aber "Smaugs Einöde".

also immer erstmal nachschlagen (sprich: recherchieren), bevor man hier falsche "Fakten" verbreitet.
 
Zuletzt bearbeitet: (typo)
Ich nenne jetzt mal konkret ein paar Beispiele ob es den funktionieren würde, weil anders verstehe ich das glaub nicht... :freak: :D


TV:

Mal angenommen wir hätten einen Samsung UE40HU6900 4K TV hier stehen und möchten nun ein 4K@60fps Video in 4K@60Hz mit einem HDMI 2.0 Kabel gucken, welche CPU wird mindestens benötigt und kann der TV überhaupt 4K@60Hz darstellen oder geht der dann runter auf 30, 25 oder 24Hz?

Falls der TV 4K@60Hz mit 60fps kann, dann müsste eine GTX 970 mit einem HDMI 2.0 Ausgang her, weil es keine günstigere GPU gibt und kein Mainboard HDMI 2.0 hat um die IGP in der CPU zu verwenden.


Monitor:

Wie sieht es bei einem Monitor mit DisplayPort 1.2 aus, welche CPU - IGP Kombination wird mindestens benötigt um 4K@60Hz@60fps zu gucken?

Mainboards mit DisplayPort 1.2 gibt es ja und daher wird da denke ich auch keine extra Grafikkarte benötigt.


Tablet:

Wie sieht es z.B. mit dem Microsoft Surface Pro 2 128GB (i5-4200U + Intel HD Graphics 4400) aus, der hat einen Mini DisplayPort und mit einem Adapter von Mini DisplayPort zu DisplayPort würde 4K@60Hz funktionieren?


Smartphone:

Also gibt es kein Smartphone was 4K@60Hz schafft?


Nochmal Danke. :daumen: :hammer_alt:
 
Hobbit mit HFR (High Frame Rate) ist eine der Ausnahmen von Material, dass mit mehr Bildern in ausgewählten Kino Säälen ausgestrahlt wird. (Ich persönlich fand das im Kino gewöhnungsbedürftig, aber nicht schlecht. Es war gefühlt ein schnellerer Ablauf, aber gleichzeitig auch klarer, weniger verwaschen. Viele mögen es nicht, da sie ihr Leben lang gewohnt sind ~24 Bilder aufgedrückt zu kriegen. Lass mal jemand nur HFR sehen und dann das normale ...) Zuhause hast du aber i.d.R. zu 99,9% nicht dieses Material, selbst die BluRays haben meines Wissens nach immer noch keinen Standard für FullHD mit >24 fps, den du nutzen kannst ;)

Der Wunschgedanke, dass die Zwischenbilder total schön und passend berechnet werden - ... hierzu ein paar Gedanken: ...
Interpolation von Bild [1]->[2] würde als Zwischen-Bild 1.5 eine Übergangsfunktion nutzen, die eine Veränderung als Mittelwert zwischen den beiden durchführt. Erstens ist Mittelwertbildung in der 2D-Computergrafik immer einem Verwaschen gleich. Da er nur Information dieser beiden Bilder besitzt, kann er nur durch mathematische Formeln, umgesetzt in Algorithmen diese zwischen zeichnen, welche effkektiv und schnell durchführbar sein müssen (nehmen wir mal er nimmt für jeden Pixel seine 8 Nachbarn dazu, würde bei 4k [ohne Abzug Randpixel in der Rechnung] ganze 2*9*3840*2160 = 149 mio Pixel einbeziehen. Dies bitte zig mal pro Sekunde! ... und bei 24 fps ->100hz würde er 3 Zwischenbilder berechnen, was noch mehr Arbeit bedeutet).
Aus diesem Grund wurde früher (und aus meiner Sicht noch sehr häufig heutzutage) das Bild einfach mehrfach angezeigt mit einer höheren Frequenz. (Besonders bei CRTs ist eine hohe Hz-Zahl deutlich angenehmer fürs Auge, auch wenn es das gleiche Bild ist). Die Geräte früher hätten nicht mal annähernd die Leistungsfähigkeit dazu.

Zweitens bedeutet es auch, dass er bei der Anzeige das nächste Bild kennen muss, um das Zwischenbild zu berechnen. Also obwohl er Bild [2] kennt, würde er Bild 1.5 erst zeichnen als zwischen gerechneter Übergang. Das heisst er arbeitet durch die Interpolation mit einer gewissen Latenz, die hinterher zieht. Bei 60 hz heisst alle ~16,6ms erscheint ein Bild, 24bilder/sek = alle 42ms ein neues Bild ... heisst: Bild[2] ist fertig berechnet, Zwischenbild(er) wird berechnet und nach der Berechnungszeit angezeigt - danach erst Bild[2]. Für Fernsehen und co mag das ok sein, aber für Competatives Gaming ist sowas mit zu großem delay behaftet.

Das sind jedenfalls nur meine Gedanken dazu. Falls du Quellen/Artikel dazu hat, die das widerlegen und nicht nur im werbestil als must have feature schönreden => posten ^^

@XShocker22 ... mit welchem player konntest du das Enten-Video starten?
 
Also ich bin auch ein großer Fan von HFR, beim Hobbit ists echt stark. Und die 60Hz Videos im Internet sind auch großartig.
 
4kku schrieb:
...

Smartphone:

Also gibt es kein Smartphone was 4K@60Hz schafft?


Nochmal Danke. :daumen: :hammer_alt:


meines Wissens hat man erst kürzlich vorgestellt, wie man über einen USB3 anschluß auch 4K übertragen kann. dazu werden die 4 zusätzlichen Leiter ggü USB2 genutzt. die "unteren" Leiter von USB2 bleiben davon unbenutzt und man kann quasi parallel noch mit USB2-HighSpeed Daten austauschen.

anbetracht des Vernetzens von Heim und Herd könnte damit eine weitere Schnittstelle so wie Thunderbolt quasi interoperabel genutzt werden.

hier noch ne Info auf Golem:
http://www.golem.de/news/schnittste...-link-fuer-4k-video-per-hdmi-1411-110602.html
 
Das video läuft mit dem mx player auf meinem note 3 ohne probleme und das mit einem Kern der zwischen 0.3-1.2ghz mit 3-30% auslastung schwankt. (Von 4 kernen die jeweils 2.8ghz schaffen)
 
Zurück
Oben