Plex Server Upgrade für 4K HEVC 10bit [Intel Quick Sync vs. Nvidia Encoder]

@mgutt ich habe in der "Eile" vergessen die zusätzlichen Pakete zu installieren wie auf der Support Seite beschrieben 😌 sry

Code:
sudo apt install ocl-icd-libopencl1 beignet-opencl-icd
Ergänzung ()

mgutt schrieb:
Außerdem laufen die Anwendungen isoliert.
Hab das schon oft gelesen; werde ich mir auch mal ansehen. Muss mich da Stück für Stück rein arbeiten. Komme ja so langsam auf den Geschmack von Linux 😄
 
Zuletzt bearbeitet:
Beignet & OpenCL Pakete installiert aber leider keine Veränderung. Bin dann mit Chuck in Kontakt getreten und habe Logs geteilt. Dabei kam heraus, dass meine CPU (er hat CoffeeLake geschrieben, denke aber er hat sich vertan) aktuell nicht unterstützt wird.
Beignet and OpenCL as distributed by Ubuntu don’t include CoffeeLake support. CoffeeLake does not include backward support in the GPU like we had with the iHD and i965 drivers.
Ich müsste die Pakete aktuell also an meine CPU anpassen
The temporary solution is to download the source for Beignet & OpenCL, let it configure itself for your CPU, then build and install.
Hab aber kein Plan wie das gehen soll 🤣😅

Naja, man ist sich dem Problem bewusst und man arbeitet scheinbar dran
Engineering has been working on the replacement for Beignet & OpenCL since it was discovered during their initial forum preview. The better, which they are developing for all platforms now, is the Intel Compute Runtime (ICR).

Mal schauen wie es weitergeht...
Ergänzung ()


Edit: also wenn ich das jetzt richtig verstehe, will Plex von der Lösung mit den Beignet Paket weg und in Zukunft auf die Intel Compute Runtime setzen!?

Scheinbar hat da jemand eine Lösung: https://github.com/intel/beignet/pull/20 - leider ist das aber zu hoch für mich 😅 @mgutt hast du ne Idee?
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
"Alles" läuft (außer PGS burn in)! Danke dir nochmal für die Anleitung!
1613679309912.png
Ergänzung ()

Update #61

Wir haben also einen Gewinner! 🥳
Die Nvidia GPU liefert mMn das beste Bild!
 
Zuletzt bearbeitet:
Das Update auf Rocket Lake könnte sich ggf. lohnen bzw. interessant werden, wenn ich mir die Infos zu Quick Sync mal so ansehe. Wann und ob man dann davon profitieren kann, steht natürlich in den Sternen.

ab Version 7 - Ice Lake: "HDR10 Tone Mapping"

ab Version 8 - Tiger & Rocket Lake: "HEVC 12-bit ... hardware decoding" bzw. Hardware accelerated Dolby Vision

https://en.wikipedia.org/wiki/Intel_Quick_Sync_Video
https://en.wikipedia.org/wiki/Rocket_Lake

Bin gespannt, ob sich die Performance und das Bild dann eines Tages nochmal verbessert. Bis dahin ist der Thread bzw. das Thema jetzt erstmal erledigt (hoffe ich 😅). Trotz des "bessern" Bild mit Nvidia GPU werde ich mir aber keine zusätzliche Karte einbauen.

Bis dahin - danke euch! ✌️
 
  • Gefällt mir
Reaktionen: HisN
KCX schrieb:
Das Update auf Rocket Lake könnte sich ggf. lohnen bzw. interessant werden, wenn ich mir die Infos zu Quick Sync mal so ansehe. Wann und ob man dann davon profitieren kann, steht natürlich in den Sternen.
nur zur Vollständigkeit halber - sehe gerade erst, dass Rocket Lake, Tiger Lake und die DG1 auch schon drin stehen und somit theoretisch direkt funktionieren sollten.
https://github.com/intel/compute-ru...ncl/source/dll/linux/devices/devices_base.inl
https://www.phoronix.com/scan.php?page=news_item&px=Intel-Compute-20.37.17906
 
  • Gefällt mir
Reaktionen: Rockhound
mgutt schrieb:
So jetzt mit dem i3-9350K getestet und es hat sich rein gar nichts geändert. Der eine Prozess hängt genauso wie beim i3-8100 bei ~120% (ohne Tone Mapping) und es stockt alle ~40 Sekunden. Also es sind nicht mal 10 Sekunden oder so dazu gekommen. Das kann doch gar nicht mehr an der CPU hängen. Da muss Plex irgendwas verkackt haben.

Neuer Test mit E-2146G (6 Kerne / 12 Threads statt 4 Kerne) und es ruckelt jetzt nur noch alle 70 Sekunden. Was eine Steigerung 😂
 
  • Gefällt mir
Reaktionen: KCX
mgutt schrieb:
Neuer Test mit E-2146G (6 Kerne / 12 Threads statt 4 Kerne) und es ruckelt
Jo PGS Burn in ist und bleibt aktuell der Endgegner.

mgutt schrieb:
Kann ich bestätigen - müsste jetzt nochmal exakt nachschauen aber wenn ich mich richtig erinnere, fängt es bei Minute ~1:15 an also auch so um die 70 Sekunden (werde nochmal schauen).

Aber egal, das zeigt mMn einfach das dort Ende ist. 3700X+2080 haben es ja auch nicht geschafft.
 
Hallo Freunde, denke mal mein anliegen passt hier ganz gut her.

Ich wollte mir ansich ein Synology 1821+ für meine VideoSammlung kaufen und da Plex laufen lassen. Da TV sowie PC Monitore "leider" noch funktionieren, kommt da erstmal kein 4K Upgrade in Frage. Da ich meine Bluerays nicht in 4k und 1080p speichern möchte, kommt nur Transcoding in Frage. Da die 1821+ dafür nicht genug Power hat und ein leistungsfähiges Synology Nas zu teuer ist, dachte ich mir ich rüste einfach mein Office PC auf da das eh mal wieder nötig ist.
Da lasse ich dann den Plex Server laufen mit Zugriff auf das Nas.

Nun hab ich schon jede Menge gelesen aber weiss noch nicht genau was ich kaufen soll.
Ich dachte an einen 5700G + B550 Mainboard und dazu für 4K Transcoding + HDR Tonemapping ne GTX1650. In der Hoffnung das Plex irgendwann die AMD iGPU unterstützt und dann die 1650 wieder raus kann wegen Stromkosten. Summiert sich ja auf Dauer.
Oder würdet ihr lieber ein System auf Intel Basis ala 11Gen aufbauen ?
 
Ich würde mir die Wartezeit und die Kosten für die GPU sparen und mit einem alten i3 loslegen. 11te Gen würde ich ebenfalls nicht nehmen. Maximal 10te. Mehr dazu hier:
https://www.computerbase.de/forum/t...im-10-zoll-rack.1932675/page-17#post-25918269

Falls du Linux als Betriebssystem vorgesehen hast, wäre ein 5700G eh so eine Sache. Es ist nie ratsam das neueste vom neuesten zu kaufen, wenn es um Linux geht. Und das was eine AMD iGPU beim Gaming besser als Intel macht, macht sie beim Transcoding deutlich schlechter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -]AF[-Death und KCX
@-]AF[-Death ich weiß gar nicht wo ich bei dir anfangen und aufhören soll. Du bist definitiv auf dem Holzweg. Vergiss einfach AMD - Ende. Wie @mgutt schon schrieb, aktuell max. 10te Gen. oder hol dir halt eine 1650 Super (ist aber viel zu teuer)
 
Zuletzt bearbeitet:
@mgutt @KCX

Danke für eure Antworten, glaube das ich mich nicht ganz verständlich ausgedrückt habe.

Fakt ist ich möchte demnächst nen neuen Office PC kaufen, da aktuell noch ein AMD A10-5700 genutzt wird.
Ein neuer Office PC kommt so oder so.
Wenn ich nun z.B. einen Office PC auf 5700G Basis aufbaue, würde ich dort Windows drauf lassen zum täglichen arbeiten und per Docker ein Plex Server. Um mit dem Rechner Transcoding nutzen zu können bräuchte ich dann noch ne Gtx 1650.
Wenn ich es so mache wie ihr vorgeschlagen habt, kauf ich mir einen Intel Nuc 10th Gen. extra für Transcoding und dann noch zusätzlich einen OfficePC.
Oder halt z.B. einen 10700K für alles, was sicher auch gehen würde, nur da die Kiste dann 24h am Tag läuft und der Intel wesentlich mehr Strom zieht wäre AMD doch vorteilhafter oder nicht ?
 
@-]AF[-Death was den Verbrauch angeht, kann ich dir leider nichts Genaues sagen. Müsste mich selbst einlesen etc.. @mgutt kann da aber evtl weiterhelfen. Ein extra Nuc wäre eine Variante. btw. kann man auch einfach eine Nvidia Shield als Plex Server nutzen. Aber auch da kenne ich mich nicht beim Thema 4K Transcoding bzw. Tonemapping aus. Eine Nvidia GPU bringt das bessere Bild und hat gut Leistung, ist aber wie gesagt aktuell kein günstiger Spaß.
 
  • Gefällt mir
Reaktionen: -]AF[-Death
Intel zieht nur unter Volllast signifikant mehr. Dieser Fall tritt aber bei einem Office-System so gut wie nie auf.

Im Idle und bei Alltagsaufgaben dürften sich ein 5700G und ein 10700K nicht viel nehmen. Der 10700K würde beim Verbrauch hoch drehen, wenn man mal ein Archiv erstellt, oder ein Video über die CPU konvertiert, oder aus einem Videoschnittprogramm exportiert und dabei Effekte rendert. Das kann man aber durch Anpassen der Power Limits bändigen. Außerdem würde ich gegenüber einem 10700K eher einen 10700 ohne K empfehlen.

Ergänzung: Zu den Verbrauchsangaben in ComputerBase-Tests gebe ich mal ein Beispiel, das zeigt, wie problematisch die sein können, wenn man nicht genau aufpasst. Im Test zum 5700G wird der Idle für den 5700G mit 38W angegeben, und für den 5950X mit 56W*. Wer aber den Test zum 5950X genau studiert, der findet unter diesem Diagramm den Hinweis, der auf Unterschiede je nach Board hinweist. Testet man also beide CPUs mit dem gleichen Board, schmilzt der Unterschied von 18W auf 4W zusammen. Diese 14W Unterschied fließen auch in die Single-Thread-Lastmessungen mit ein. Das passt jetzt nicht exakt auf den 10700K, aber es zeigt, wie vorsichtig man mit den Angaben umgehen muss.


*Die Systeme wurden beide inklusive RTX 3080 gemessen. Ein 5700G nur mit iGPU liegt niedriger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KCX und -]AF[-Death
-]AF[-Death schrieb:
Wenn ich nun z.B. einen Office PC auf 5700G Basis aufbaue, würde ich dort Windows drauf lassen zum täglichen arbeiten und per Docker ein Plex Server. Um mit dem Rechner Transcoding nutzen zu können bräuchte ich dann noch ne Gtx 1650.
Alleine die GTX 1650 wird den Verbrauch des Systems um 10 bis 20W erhöhen. Daher verpufft der Minderverbrauch vom 5700G im Alltag wie nichts.

-]AF[-Death schrieb:
Wenn ich es so mache wie ihr vorgeschlagen habt, kauf ich mir einen Intel Nuc 10th Gen. extra für Transcoding und dann noch zusätzlich einen OfficePC.
Ich würde dir eher zu einem Nvidia Shield raten. Der spielt alles ohne Transcoding ab. Auf einem Shield kann man auch Plex Server und Client gleichzeitig installieren. Wobei viele den Plex Server auf einem NAS und mehrere Shields im Haus verteilt haben. Wie man es macht, ist also flexibel. Ob nun NAS oder nicht, hängt dann in der Regel von der Anzahl der Platten ab und wie und ob man Backups / Ausfallsicherheit braucht.

Einen NUC würde ich mir jedenfalls schon deswegen nicht holen, weil er in der Regel nur eine SATA Buchse hat. USB produziert zu viel Overhead und ist auch fehleranfällig.

Wenn es mehr Platten und damit ein NAS werden soll: Sparsam wäre ein C246 Board mit einem Pentium Gold oder i3. Je nach eingesetztem Netzteil ist man da auch problemlos auf dem Niveau eines NUC und 4K Transcoding ist auch kein Problem.

Also ich wäre klar für zwei getrennte Systeme. Wenn du einen Teil der Komponenten gebraucht besorgst, dürftest du ziemlich nah an den Preis der GTX 1650 kommen:
https://geizhals.de/?cat=WL-2161844

Ich habe zB die Tage erst einen G5400 für 35 € bei Kleinanzeigen gekauft und 1151v2 mATX oder ITX Boards gibt es ja auch massig. Hier wäre meiner Ansicht nach sogar das perfekte Board greifbar:
https://www.ebay-kleinanzeigen.de/s-anzeige/motherbord-asrock-b365m-pro4/1853867795-225-3356

Das hat nämlich 2x M.2 und 6x SATA. RAM verkauft er auch, vielleicht ja auch günstig.
 
  • Gefällt mir
Reaktionen: -]AF[-Death und KCX
mgutt schrieb:
Ich würde dir eher zu einem Nvidia Shield raten. Der spielt alles ohne Transcoding ab.
Das mal nur als Datenpunkt: Ich nutze einen Emby-Server mit dem dazugehörigen Client auf einem Fire-TV-Stick 4K. Auch diese Kombination spielt an einem 2013er Samsung FullHD-TV (also kein HDR) problemlos HDR10-Inhalte ohne Transkodieren ab, und der alte TV zeigt korrekte Farben an.
 
mgutt schrieb:
Klingt komisch. Wie soll das ohne Transcodieren gehen?
Das funktioniert genau so wie auch mit einem vernünftigen Media Player auf dem PC. Die Farbraumreduktion erfolgt am Ende der Kette, erst bei der Umwandlung auf das Ausgabegerät. Ich vermute, dass der MT8695 im Stick die Farbraumreduktion selbst durchführt, wenn am HDMI ein SDR-Gerät angeschlossen ist.

Die Probleme mit den Farben ergeben sich nur dann, wenn zwischendrin eine Transkodierung vorgenommen wird, und das Zielformat dabei SDR ist. Nur dann muss zwingend dort auch das Tone Mapping stattfinden, was lange in den Mediaservern wie Plex und Emby fehlte.*

Jedenfalls ist die Wiedergabe definitiv völlig in Ordnung. Ich kenne die fahlen Farben, die sich bei nicht fehlendem Tone Mapping ergeben, und die habe ich nicht.

Was hingegen klar nicht funktioniert, sind Dolby-Vision-Inhalte, wenn der TV das Format nicht kann.


* Und seit es implementiert ist, kann es zu Problemen mit den Hardware-Encodern führen. Bei mir mit der RX 580 muss ich in Emby den Hardware-Encoder deaktivieren, damit Tone Mapping funktioniert. Und dann lastet man mit einer Wiedergabe mit Transkodierung mal eben den 2700X zur Hälfte aus. Das macht es um so wertvoller, dass man sich die Umwandlung fast immer sparen kann.
 
  • Gefällt mir
Reaktionen: mgutt
Nixdorf schrieb:
Intel zieht nur unter Volllast signifikant mehr. Dieser Fall tritt aber bei einem Office-System so gut wie nie auf.

Im Idle und bei Alltagsaufgaben dürften sich ein 5700G und ein 10700K nicht viel nehmen. Der 10700K würde beim Verbrauch hoch drehen, wenn man mal ein Archiv erstellt, oder ein Video über die CPU konvertiert, oder aus einem Videoschnittprogramm exportiert und dabei Effekte rendert. Das kann man aber durch Anpassen der Power Limits bändigen. Außerdem würde ich gegenüber einem 10700K eher einen 10700 ohne K empfehlen.

Ergänzung: Zu den Verbrauchsangaben in ComputerBase-Tests gebe ich mal ein Beispiel, das zeigt, wie problematisch die sein können, wenn man nicht genau aufpasst. Im Test zum 5700G wird der Idle für den 5700G mit 38W angegeben, und für den 5950X mit 56W*. Wer aber den Test zum 5950X genau studiert, der findet unter diesem Diagramm den Hinweis, der auf Unterschiede je nach Board hinweist. Testet man also beide CPUs mit dem gleichen Board, schmilzt der Unterschied von 18W auf 4W zusammen. Diese 14W Unterschied fließen auch in die Single-Thread-Lastmessungen mit ein. Das passt jetzt nicht exakt auf den 10700K, aber es zeigt, wie vorsichtig man mit den Angaben umgehen muss.


*Die Systeme wurden beide inklusive RTX 3080 gemessen. Ein 5700G nur mit iGPU liegt niedriger.
Ihr habt mich überzeugt. Das mit AMD und Nvidia GPU wird erstmal verworfen und wir widmen uns dem Intel :-)
Du hast ja geschrieben das man die TDP bei den K Modellen per Bios einstellen kann. Brauch ich da unbedingt einen Z Chipsatz für oder geht das auch bei einem H470 Chipsatz ? Muß mich eh erstmal belesen welcher Chipsatz sinnvoller ist.
Weil preislich liegen der 10700 mit und ohne K nah beinander und ich würde eher zum K tendieren. Weil da kann ich später immernoch das Powerlimit anheben wenn ich es schneller haben möchte. Oder hat der Ohne K nennenswerte Vorteile ?

@mgutt

Bei dem GVT-g Link von dir steht auf der Intel Seite "Gen9 (i.e. Graphics powering 6th through 9th generation Intel processors) is the last generation of the software-based vGPU solution GVT-G"
Sicher das die 10Gen GVT-g auch noch beherrscht ? Oder ist das allgemein nur wichtig für Unraid ? Weil ich sicher sagen kann das ich Unraid eh nie benötigen werde.
 
-]AF[-Death schrieb:
Ihr habt mich überzeugt.
Ich hab ja gar nicht aktiv für Intel geworben, sondern nur angefragte Hintergrundinformationen zum Verbrauch geliefert. Bei mir kommt derzeit ja auch eine AMD-GPU zum Einsatz, und die macht dann halt mit Emby auch - wenn auch sehr selten - mal Ärger.

-]AF[-Death schrieb:
TDP bei den K Modellen per Bios einstellen kann
Man stellt nicht die TDP ein, sondern die Power Limits (PL1, PL2). Der Anstieg der TDP ist dann eine physikalische Konsequenz aus der Anpassung. Und die Limits kann man bei allen Prozessoren einstellen, nicht nur bei den K-Modellen. Es ist sogar eine Standardoperation, durch Anheben der Limits ein Non-K-Modell näher an seine K-Variante heran zu bringen. Ein i7-8700 (eigentlich ein 65W-Modell) mit erhöhten Power Limits hat zum Beispiel eine fast ientische Performance wie ein i7-8700K, zu einem teilweise 50-70 Euro geringeren Preis.

-]AF[-Death schrieb:
Brauch ich da unbedingt einen Z Chipsatz für
Nicht dass ich wüsste. Ob man die Power Limits einstellen kann, hängt eher von der Vollständigkeit der UEFI-Oberfläche ab, als vom Chipsatz. Bei einem Fertigrechner-UEFI von Anbietern wie Dell oder HP fehlt das gerne mal, Endkundenboards haben die Einstellungen aber tendenziell immer dabei.

-]AF[-Death schrieb:
preislich liegen der 10700 mit und ohne K nah beinander und ich würde eher zum K tendieren
Wie gesagt, die Limits kann man bei beiden einstellen. Wenn der Preis sich aber kaum unterscheidet, kann man sich frei entscheiden. Bei 10700 vs 10700K taktet die K-Variante bei Lightly-Threaded-Lasten bis zu 300 MHz höher, verbraucht dann aber auch in diesen Situationen entsprechend mehr.

-]AF[-Death schrieb:
Die Funktion hängt mit der Virtualisierung der Grafikkarte zusammen. Damit kann man die Quicksync-Einheiten auch in einer Docker-VM nutzen, anstatt nur im Host selbst. Wenn eine derartige Nutzung geplant ist, dann kann das sehr wichtig sein. Aber @mgutt kann dazu mehr sagen.
 
  • Gefällt mir
Reaktionen: -]AF[-Death
Zurück
Oben