Plex Server Upgrade für 4K HEVC 10bit [Intel Quick Sync vs. Nvidia Encoder]

Ich hab die Diskussion mal ein wenig verfolgt, sorry @KCX, aber ich habe leider keine Benchmarks gefunden.
@HisN
HisN schrieb:
Der Server ist Headless, d.h. an der Graka steckt kein Monitor und der Server kommt ohne UI hoch, die 4% kommen also nicht von irgend einem Desktop, im Normalbetrieb steht da dauerhaft NULL
Vielleicht ist das auch ein Problem :confused_alt:
Im Internet steht immer wieder, dass man an der Grafikkarte einen "Dummy-Plug" verwenden soll, andernfalls funktioniert Plex auf der GPU nicht (Link). Die 4% haben mich nämlich auch etwas stutzig gemacht, kann es mir aber nur irgendwie erklären, als wenn die Grafikkarte "versucht" das Video auszugeben. Der Speicherbedarf ist nämlich auch nur äußerst gering und könnte meiner Vermutung zustimmen. (Ich möchte anmerken, dass ich bisher noch nie Plex verwendet habe, dementsprechend kann hier auch Mist gestanden haben ^^)
 
  • Gefällt mir
Reaktionen: KCX
@Nixdorf danke für deine Tests und die Infos! Jo der FireTV ist ähnlich wie die Shield eine sehr gute Streaming Box die das regelt. Mein Test war auch auf einem LG mit HDR und der WebOS Plex App - das liegt allerdings schon ein paar Tage zurück, sodass ich jetzt nicht 100% sagen kann was der Auslöser (SRT) war und ob das jetzt anders ist. Habe das nicht ausführlich eruiert. Das war halt meine Vermutung, da der LG das eigentlich "Direct" hätte abspielen müssen. Hat er aber nicht, der Server machte wie gesagt ein 4K h264 via Transcode daraus und die Farben gingen somit verloren. Kann auch sein, dass Emby an der Stelle "besser programmiert ist". Ich werde mir das nochmal genauer ansehen. Danke dir nochmal!
Ergänzung ()

yoshi0597 schrieb:
Ich hab die Diskussion mal ein wenig verfolgt, sorry @KCX, aber ich habe leider keine Benchmarks gefunden.
Alles gut.. Trotzdem Danke! 😊
Ergänzung ()

yoshi0597 schrieb:
Im Internet steht immer wieder, dass man an der Grafikkarte einen "Dummy-Plug" verwenden soll
Auch sehr guter Hinweis unabhängig von der hier besprochenen Thematik, den ich definitiv im Hinterkopf behalten werde! thx
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nixdorf
@yoshi0597
Im Unraid-Forum wird darauf hingewiesen, dass man am besten eine Graka nimmt, die keinen Monitor drann hat, weil der Transcode-Prozess im Docker-Container crashed, wenn noch ein andere Prozess die Graka bemüht. Es ist also sogar von Vorteil, wenn kein Monitor drann hängt^^

Achja.. so ist das Internet^^
 
  • Gefällt mir
Reaktionen: nospherato, KCX und yoshi0597
Jo hab mir das gerade auch mal komplett durchgelesen. Scheint wohl nur bei Windows ein Problem zu sein. Da bei mir ein Monitor dran hängt, habe ich sowas noch nicht bemerkt 😅. Windows :cheerlead:

Da ich echt plane den Server in naher Zukunft unten in einen dunklen kühlen Keller zu stellen (headless), wäre ich wahrscheinlich darüber gestolpert 😆 Kenne ja jetzt die Lösungen 😎
 
4K HDR HEVC und ATMOS 120Mbps
Direct Stream auf mein G8S
1591216670958.png

1591216787229.png


Jetzt zum interessanten Teil... 1080p 8Mbps
1591216907072.png

1591216939355.png

1591217170560.png


~ 10% CPU Last / 560MB RAM / 13% Encode / 21% Decode / 1,5GB VRAM (3700X, RTX2080)

auf 240p und 0,3Mbps dann ein wenig mehr Decode (~5%) dafür aber nur 1% Encode, Rest quasi gleich
1591217749312.png


Jetzt zwei 1080p Streams einer 8Mbps und einer in Maximum, was ein 4K 60Mbps Stream sein soll aber offenbar in 1080p mit 95Mbps transcodiert wird? Kp wieso genau... ist ein FHD SD Monitor.
1591218699245.png

1591218947994.png

1591219432494.png


Zwei verschiedene Streams benötigen quasi genau das Doppelte an Leistung.

Fazit: Mit Turing und einer halbwegs vernünftigen CPU kein Problem. 4GB VRAM scheinen zu reichen.
ABER: Die Farbe ist einfach bescheiden und nicht akzeptabel - daher noch keine Option für mich 😢
 
Der FF kann auch kein yt-HDR wiedergeben. Weiß nicht ob er Deinen Plex-HDR-Stream wiedergeben könnte, selbst wenn es gehen würde.
Letzter Test vor ein paar Tagen.

Browser und HDR.png

Also nur für den Hinterkopf^^
 
  • Gefällt mir
Reaktionen: KCX
@HisN interessant zu sehen. Was genau vergleichst du da? Edge vs. Chrome vs. FF ? Auf welchem OS und mit oder ohne HDR Monitor? Bisher hatte ich noch keine Probleme bei HDR Videos mit dem FF. Der Stream gestern im FF war auf meinem Server, wo leider kein HEVC "Direct" möglich ist.
Ergänzung ()

Hab gerade mal hier auf meinem PC bei der Arbeit das 8K HDR 60fps Video im FF gestartet.
Das läuft leider nicht bzw. nur in 4K. Die Farben etc. sind alle i.O.
1591252894618.png

i5 8500 mit GT710 - interessant zu sehen, dass die GPU nur 3D Last hat und der Rest vom Prozessor geregelt wird.
 
Zuletzt bearbeitet:
Genau, linksoben Chrome, linksunten Edge, rechts Firefox. OS ist Win10 1909 (zum Zeitpunkt des Screenshots) und der Monitor mein 1000 Nits Asus PG43UQ.
Und Du siehst, nur einer stellt HDR tatsächlich dar, auch wenn Edge ein HDR-Icon einblendet.
 
@HisN ah ok dann liegt es daran, dass du ein HDR Monitor hast (btw. heftiges Gerät 👌) und das sichtbar wird. Habe leider noch keinen HDR Monitor, sodass mir das Problem noch nicht bekannt war. Aber da sieht man mal wieder, dass das ganze Thema noch in den Kinderschuhen steckt. Viele haben das einfach noch nicht auf dem Schirm - im wahrsten Sinne des Wortes... Hoffe das sich das recht zügig etabliert und die ganzen Begleiterscheinungen dann endlich behoben werden.
 
Zuletzt bearbeitet:
Ein ewiger Rattenschwanz :-)
 
@HisN GTX 1650 Ultra 😉 #turingencoder
 
  • Gefällt mir
Reaktionen: HisN
  • Gefällt mir
Reaktionen: KCX
Bleibt halt nur ein extrem kleiner Spielraum für die Karte. Die 1650 GDDR6 mit Volta Encoder kostet ~140€ un die 1650 Super mit Turing Encoder kostet ~160€.
Bei deinem Server brauchst du zwar die Grafikperformance überhaupt nicht, trotzdem solltest du im Hinterkopf behalten, dass ein größerer Chip im Leerlauf etwas mehr Leistung benötigt
 
yoshi0597 schrieb:
1650 Super mit Turing Encoder kostet ~160€.
Hat die Super den auch schon 🤔 Meinst du 1660?
Ergänzung ()

Jo offenbar hat die den auch schon..

Sixth generation NVENC implements HEVC 8K encoding at 30FPS, HEVC B-Frames support and provides up to 25% bitrate savings for HEVC and up to 15% bitrate savings for H.264. The Nvidia GeForce GTX 1650 is exempt from this generation however, as it uses Volta NVENC instead of Turing. The GTX 1650 Super however uses the Turing NVENC engine as it is based on the TU116 rather than the TU117 used in the regular GTX 1650.
 
  • Gefällt mir
Reaktionen: yoshi0597
Specs:
1660 Ti: TU116-400-A1
1660 Super: TU116-300-A1
1660: TU116-300-A1
1650 Super: TU116-250-KA-A1
---> alle aufm TU 116 Chip.
Hier noch direkt von Nvidia (Link) (unter "Vollständige technische Daten")
NVIDIA Encoder (NVENC) Ja (Turing)
Ergänzung ()

Bei der 1650 steht:
NVIDIA Encoder (NVENC) Ja(Volta) / Ja (Volta oder Turing)(4)
(4) TU117-Grafikprozessoren haben einen Volta-Encoder und TU106-/TU116-Grafikprozessoren einen Turing-Encoder. Erkundige dich beim Hersteller nach dem genauen Modell.
 
  • Gefällt mir
Reaktionen: KCX
  • Gefällt mir
Reaktionen: yoshi0597
  • Gefällt mir
Reaktionen: KCX
yoshi0597 schrieb:
wie 2xHDMI und 2xDP
Jo ist ne Alternative 😁
Aber Triple-Slot und RGB Schnick Schnack, die (1x 4-Pin) Lüftersteuerung ist auch uninteressant.
Ok hat etwas größere Lüfter, aber in meinem Fall, sollten die ja am besten gar nicht gebraucht werden 😁
Die Videoausgänge sind Sekundär bzw. hat der Monitor am Server tatsächlich noch DVI
 
Zur ausgehenden Frage habe ich folgende Erfahrungsberichte zum Plex Transcoding der UHD 630 iGPU gefunden:
Ich werde die Tage meine Erfahrungen ergänzen, da ich nun auch auf den i3-8100 setzen werde (wegen ECC Support).

Eine GTX sollte man übrigens nicht für Plex nehmen:
All GTX series cards are limited to a maximum of 2 simultaneous transcodes

Wenn dann nur eine Quadro.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KCX
Zurück
Oben