Notiz GeForce 378.66: Pascal dekodiert H.265 mit 12 Bit Farbtiefe in Hardware

sylvio2000 schrieb:
Meine Gamer-Tage sind zwar schon lange vorbei, aber ich frage mich bei den Treiber-News immer warum es heutzutage nötig ist Treiber an spezielle Spiele anzupassen. Früher lief doch auch ein Treiber mit allen Spielen? :)

Um die Spiele besser an die Grafikkarten anzupassen um Fehler zu korigieren, Features einzubauen....
 
Eher um die Treiber an die Spiele anzupassen, damit diese überhaupt vernünftig laufen ;)
 
theOH schrieb:
Eine frage für die experten: welche Software kann ich nutzen, die die h265 Fähigkeiten der GeForce Serie nutzt? Danke!

Für eigene Encodes:

XMedia Recode (kostenlos)
DVDFab (Testversion 30 Tage kostenlos)

XMedia Recode benötigt etwa die doppelte Zeit von DVDFab und ist von der Benutzeroberfläche etwas steril. Aber das Ergebnis stimmt bei beiden.

Als Videoplayer zum Decodieren: MPC-HC , VLC und Kodi.
 
Zuletzt bearbeitet:
Besten Dank, euch beiden. Werde xmedia mal probieren :) alternativ werde ich wohl in DVDFab investieren. Gute Software kann ja auch mal kosten :)
 
Gibt's eigentlich was für alte Rechner...
das ist ja ganz nett, aber die Kisten die es wirklich bräuchten sehen doof aus und alles versuchen auf H264, bzw. VGA Auflösung bei Internet Links mit kleinem Upload von <=1Mbit zu zwängen ist auch nicht immer die Lösung.

Ich bin quasi gewzungen ein altes IPad 2/IPhone4S oder Lumia 930 bzw eine Quickcam/Webcam Pro 9000 zu betreiben, weil mir mehr nur Ärger beim Skypen bereitet.
Panasonic TVs und Skype sind hier ein Graus und selbst die Logitech C922 kann auch nicht mehr durchquetschen als die Pro 9000. Vor H264 war Skype mit VP8 echt nice ab 384Kbit. Ging aber auf die CPU..
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Edit: Interessant. HEVC NVENC sagt Nvidia selbst kommt wenn überhaupt an die X264 Qualität ran ... läuft zwar echt super fix hier aber ich kann bestätigen dass die Quali bei CPU Encoding einfach ne ganze Ecke besser ist. Aber naja, halt 0,3x speed vs 10x
Kann man so pauschal nicht sagen. Ich verwende NVENC schon seit geraumer Zeit und es hat immer in etwa gleichwertige Resultate gegenüber der cpu kodierung erzeugt. Warum sollte eine gpu auch schlechter abschneiden als eine cpu? Wenn dann liegt es primär am eingesetzten Algorithmus.

Stahlseele schrieb:
Microsoft Edge ist der einzige Browser, der mit VP9 überhaupt umgehen kann.
Das is aber dann schlecht für Google, wenn man youtube Videos nur mit dem Microsoft Browser abspielen kann. Bedeutet das ich kann youtube außerhalb von Windows überhaupt nicht verwenden??

fox40phil schrieb:
Gibt's so etwas auch von Amd? Oder ist man da auf CPU encoding angewiesen? Dient es eigt nur zum umwandeln oder kann man das auch direkt in seiner Videosoftware nutzen (Vegas, Premiere)?
Das hängt davon ab, ob die Software das unterstützt.
Stand jetzt gibt es zumindest seitens Adobe h265 Encodierung ausschließlich in Software ergo cpu und soweit ich weiß trifft das auch auf die Dekodierund zu.

Limit schrieb:
AMD unterstützt HEVC UHD 10 Bit ab Polaris. Fiji / Carrizo können nur 8 Bit. 12 Bit sind ein nettes Extra, da aber weder TV noch Blu Ray Standards mehr als 10 Bit vorsehen und auch entsprechende Monitore / Fernseher nicht in Sicht sind dürften 12 Bit eher exotisch bleiben. Übrigens bringt das Encoding mit 10 Bit Farbtiefe durchaus auch Vorteile für Leute, die nur einen 8 Bit Monitor besitzen, da durch weniger Rundungsfehler die Codec-Effizienz erhöht wird.
Das stimmt so nicht ganz. Dolby Vision verwendet zum Beispiel 12 bit Quantisierung. Erste Dolby Vision Blurays sollen dieses jahr erscheinen und auch die Anzahl entsprechender TVs nimmt zu. Bislang konnten das nur die LG Spitzenmodelle. Amazon und Netflix haben in den USA auch schon einige filme im Angebot.
Tatsächlich gibt es 12 bit also schon, nur bei uns in D gibt's noch kein Material dafür.
Und auch neben Dolby Vision gibt es genug Einsatzbereiche für 12 Bit, vor allem im Grafiker Umfeld.
 
SimsP schrieb:
Kann man so pauschal nicht sagen. Ich verwende NVENC schon seit geraumer Zeit und es hat immer in etwa gleichwertige Resultate gegenüber der cpu kodierung erzeugt. Warum sollte eine gpu auch schlechter abschneiden als eine cpu? Wenn dann liegt es primär am eingesetzten Algorithmus.

Weil die Einstellmöglichkeiten erheblich geringer sind. Und das ist keine (Einzel)Meinung. GPU Kodierung hängt in der Qualität deutlich der CPU Kodierung hinterher. Das gilt für h.264 und auch für h.265. Das ist im Grunde auch allgemein Bekannt und zigfach belegt.

Dolby Vision ist eine Technik, um HDR Material zu transportieren. Aber nicht Einzige. Und was sich da am Markt stärker durchsetzen wird, das ist heute noch total offen.
 
Welche Einstellmöglichkeiten fehlen dir denn bei NVENC? Allgemein bekannt ... ja vor jahren war das noch so heute anscheinend nicht mehr so ganz. Welcher encoder liefert dir denn beispielsweise sichtbar bessere Ergebnisse? Gibt's da irgendwelche aktuellen Tests mit SSIM, PSNR oder so?

Und BT709 ist eine Technik um SDR Material zu transportieren ... worauf willst du hinaus? Die Tatsache dass bereits heute 12 Bit Video Material produziert und teilweise auch schon konsumiert wird widerlegt das kaum und genau das war meine Aussage.
 
R4Z3R schrieb:
Schade, auf der GTX 960M geht gar nichts :( Schon etwas enttäuschend dass man das neueste vom neuesten braucht um Videos via Hardware zu dekodieren, zumal beide Formate jetzt auch nicht brandneu sind.
Bitte die News nicht falsch verstehen, das 10bit ist hier das neue, H.265 mit 8bit zu encoden, können sicherlich quasi alle gängigen Karten. Da die meisten Leute *noch* keinen 10bittigen Monitor zu Hause haben, ist dies eher eine Investition in die Zukunft und als Vorbereitung für HDR zu sehen.
R4Z3R schrieb:
Zumal die GTX 960M bis vor kurzer Zeit noch die neueste erhältliche Generation war.
die 1080 kam im Mai 2016 raus, vor dem Hintergrund das eigentlich alle 12 Monate immer eine neue Karte raus kommt, sehe ich das etwas anders. Ist denke ich aber hier auch nicht das Problem, wenn dir die Leistung reicht, wirst du für das H.265 encoding auch keine neue Karte brauchen.
 
SimsP schrieb:
Welche Einstellmöglichkeiten fehlen dir denn bei NVENC? Allgemein bekannt ... ja vor jahren war das noch so heute anscheinend nicht mehr so ganz. Welcher encoder liefert dir denn beispielsweise sichtbar bessere Ergebnisse? Gibt's da irgendwelche aktuellen Tests mit SSIM, PSNR oder so?


Teste es selber?

Der einzige gute Hardware Encoder soll wohl der von Intel mit deren eigenen Suite sein. NVENC ist zumindest was Qualität/Dateigröße angeht ziemlich weit von der Software-Lösung entfernt.
 
kumpert schrieb:
Tja genau das habe ich und ich bekomme vergleichbare Ergebnisse zum Software-Encoder. Zumindest dem Premiere Software-Encoder. Deswegen wollte ich wissen, welche Encoder ihr verwendet, dass ihr bessere Qualität bekommt.

Der einzige gute Hardware Encoder soll wohl der von Intel mit deren eigenen Suite sein. NVENC ist zumindest was Qualität/Dateigröße angeht ziemlich weit von der Software-Lösung entfernt.
Falls du Quicksync meinst ... nein der ist tatsächlich schlechter als NVENC.
Nochmal die Frage: Welche Software-Lösung? Es gibt nicht die EINE sondern gleich ein paar. Die meisten verwenden aber x264/x265 und mit dessen Qualität kann NVENC durchaus mithalten.
 
Eigentlich dachte ich, es sei Allgemeinwissen, dass Nvenc schlechter als Softwareencoder wie x264 ist. Besonders bei niedrigen Bitraten wie 3000kbit/s wird der Unterschied deutlich.

​Hast du ein bestimmtes Beispiel im Sinn, bei dem das nicht so ist?
 
Naja eben genau die Situation NVENC vs Premiere Pro Software Encoder.
NVENC Kodierung für 5 Sekunden Filmmetariel ca. 30 Sekunden, Software Kodierung ca. 30 Minuten.
Die Qualität die dabei rauskommt ist bei gleicher größe in etwa gleich gut.

Ich kann auch alle möglichen Sachen einstellen Profile, Quality, Level, gopLength, frame reordering on/off, chroma subsampling 4:2:0/4:4:4, number of reference rames, VBR/CBR/2PASS..., qpI/qpP, number and mode of slices, deblocking filter on/off, min/max CUSize, variable framerate, adaptive quantization, temproal adaptive quantization, frame-lookahead, und natürlich die angestrebte Bitrate bzw. Qualität.
Ehrlich gesagt kann ich mich da nicht über zu wenige Einstellmöglichkeiten beschweren.
 
Troik schrieb:
Bitte die News nicht falsch verstehen, das 10bit ist hier das neue, H.265 mit 8bit zu encoden, können sicherlich quasi alle gängigen Karten. Da die meisten Leute *noch* keinen 10bittigen Monitor zu Hause haben, ist dies eher eine Investition in die Zukunft und als Vorbereitung für HDR zu sehen.
die 1080 kam im Mai 2016 raus, vor dem Hintergrund das eigentlich alle 12 Monate immer eine neue Karte raus kommt, sehe ich das etwas anders. Ist denke ich aber hier auch nicht das Problem, wenn dir die Leistung reicht, wirst du für das H.265 encoding auch keine neue Karte brauchen.

Es ging mir ja um das Decoding. Und da sieht es erstaunlich schlecht aus. 99% aller PCs und Notebooks müssen unter hoher CPU-Last ohne direkte GPU-Unterstützung dekodieren, bei jedem YouTube-Video.

Denn VP9 kam erst mit Kaby Lake und Chrome wählt als Default-Format VP9.
 
Zurück
Oben