News Microsoft: AMD Radeon RX 6000 beschleunigen AV1-Videos

Dark Soul schrieb:
Mit separaten FFmpeg Bibliotheken kannst du auch HEVC (h.265) in OBS nutzen. Ob Twitch das entgegen nimmt, weiss ich aber auch nicht :( Aber FFmpeg kann hevc decoden und encoden (vorausgesetzt man hat eine GPU die es kann).
okay...
Also bei meinem Laptop weiß ich das er nur H264 per Hardware encoden kann, die RX 550 in meinem "Hauptrechner" sollte auch H265 per Hardware können, getestet hab ich das noch nicht. Werde ich aber mal.
1602512844181.png1602512896556.png
^ Diese Optionen hab ich im einfachen Modus.
1602512970235.png1602513037823.png
^ Diese im erweiterten Modus, am Laptop (A6-6310, Radeon R4, Beema Generation)
Demnach benutzt OBS wohl automatisch das AMD Adavanced Media Framework. Es gibt aber noch:
https://github.com/obsproject/obs-amd-encoder/releases den hier, wobei ich mir unsicher bin ob der Teil des OBS Installers / der portable Version ist oder ob der manuell installiert werden müsste.

Auf meinen Hauptrechner hab ich gerade keinen Zugriff.

MfG
Christian
 
ChrFr schrieb:
wobei ich mir unsicher bin ob der Teil des OBS Installers / der portable Version ist oder ob der manuell installiert werden müsste.

Früher (2017) musst man das manuell machen :) Solche Dinge ändern sich aber meistens selten haha
 
HaZweiOh schrieb:
Mit Sicherheit nicht, denn es geht hier um viel Geld. Die Leute, die die Zeche bezahlen müssen (sprich: die Content-Anbieter), steigen so schnell wie möglich um, sobald genug Geräte in der Lage sind, das Material abzuspielen.

Umsteigen ist wohl das falsche Wort, impliziert es doch, dass HEVC durch AV1 ersetzt wird.

Letztendlich wird der Content wohl in beide Codecs auf den Netflix/Prime/Youtube/HBO/etc. Servern vorliegen und gestreamt wird vornehmlich AV1, sofern das Endgerät das unterstützt. Die werden lange koexistieren, dafür werden sich die entsprechenden Geräte mit AV1 Unterstützung zu langsam durchsetzen.
 
v_ossi schrieb:
Umsteigen ist wohl das falsche Wort,
Das musst du im Zusammenhang sehen: oben schrieb Sun_Set_1, AV1 würde sich erst in 10-15 Jahren durchsetzen. Das sehe ich überhaupt nicht so, und du ja auch nicht.
 
HaZweiOh schrieb:
Und noch was: Bleiben wir mal realistisch! Keine Sau braucht (oder profitiert irgendwie von) 8K. Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall. Wenn überhaupt, zählt die Performance in 4K.

ich bin beileibe kein "immer mehr!" rufer und dass 8k bei uns aktuell keine große rolle spielt ist klar - abgesehen von einigen netten youtube videos existiert kein wirklicher content dafür. aber das wird mit der zeit mehr werden. vor nicht allzulanger zeit haben wir uhd belächelt, weil das "braucht auch niemand" - inzwischen streamen immer mehr menschen uhd content via netflix und co.

andere teile der welt sind da anders aufgestellt; japaner waren diesbezüglich immer die vorreiter - als wir noch mit pal/ntsc herumgekrebst haben, waren die mit fhd unterwegs.
ich kann mich an einen artikel erinnern bei dem NHK (senderbetreiber in japan) mit 8k kameras experimentiert hat, als hier grob der verkauf von uhd tv geräten losging.
die eigentlich dieses jahr stattfindenden olympischen spiele dort, wollten sie in 8k übertragen...

sprich, der bedarf wird entstehen und es würde mich nicht wundern wenn auch die bildschirmdiagonalen der tv's in unseren wohnzimmern in den nächsten 10-20 jahren wachsen.
schon heute ist die nachfrage nach 75 zoll geräten alles andere wie klein - einige jahre zurück war das ein absolutes high-end segment und mit entsprechenden kosten verbunden - heute ist man ab 900-1000€ dabei...
 
  • Gefällt mir
Reaktionen: Sun_set_1
cypeak schrieb:
vor nicht allzulanger zeit haben wir noch
Das ist dann doch wieder das 640 KB-"Argument".

Die Frage ist nicht, wer etwas macht, sondern wie sinnvoll das ist. In Japan kannst du dir auch hübsche und kluge Familienangehörige zum Vorzeigen mieten. Aber sowas nenne ich nicht "Vorreiter", sondern "krank".

Es gibt halt Grenzen, wo die Sinnhaftigkeit dann doch aufhört. Diese Grenzen liegen in der menschlichen Biologie.
Deshalb spielt es keine Rolle, ob irgendjemand das "schon" so macht oder nicht.

Fakt ist auch, dass die Wohnzimmer immer größer werden. Wer erkennt aus 4,50 m noch einzelne Pixel?
Die Industrie interessiert sich nicht die Bohne für Sinnhaftigkeit. Die werden auch noch 32K-Fernseher promoten, und es wird immer Leute geben, die sich einbilden, da einen Unterschied zu sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501
8K Blu Rays bringen nichts (erst bei Kinoformaten ab 5 Meter Bilddiagonale)
8K bei Games bringt ein deutlich ruhigeres Bild (kein sichtbares Aliaising mehr, schärfere Texturen)
8K beim Streaming bringt ein schärferes Bild und weniger Artefakte, durch die höhere Bitrate

Wobei mir vorerst schon 5K (2880p) und 6K ausreichen. Spiele sehen in 5K in der Tat schon schärfer und ruhiger aus als in 4K. Geht ganz einfach per DSR.
 
  • Gefällt mir
Reaktionen: Sun_set_1
@HaZweiOh
mich persönlich musst du nicht überzeugen, da ich durchaus zurückhaltend bin was die ganzen hypes betrifft.
gerade hier auf CB begegnet man aber vielen "übermenschen".
leuten die weit über die möglichkeiten ihrer biochemie entwachsen sind (vorsicht: sarkasmus!) - welche den unterschied zw. 144 und 165hz exakt sehen können; menschen die nur aufgrund von gewichtsunterschieden bei mäusen das exakte modell (samt produktionsjahr!) bestimmen können - unnötig zu sagen dass ihre fein ausgeprägte motorik bereits von 3-4 gramm zuviel benachteiligt wird..usw...ist immer wieder eine quelle der belustigung.

HaZweiOh schrieb:
Die Frage ist nicht, wer etwas macht, sondern wie sinnvoll das ist. [...] Aber sowas nenne ich nicht "Vorreiter", sondern "krank".

wenn nicht gerade die covid pandemie wäre, würde ich dir vorschlagen beim nächsten urlaub in japan mal in tokio ins akihabara viertel zu fahren und dich da mal umzusehen - dann kommst du zurück und denkst dass wir 10 jahre hinterherhinken und weißt ungefähr was in 10 jahren bei uns im wohnzimmer steht.
ich glaube eher dass nach 8k (welches wirklich noch jahre benötigen wird, bis es nennenswerte marktantele erreicht) der knick kommt, denn dann bewegen wir uns tatsächlich in sphären die langsam auch mit bilddiagonale im privaten bereich nimmer machbar sind...
4k wechsel 8k mag bei den kleinen 55/65 zoll funzeln absolut unnötig sein, aber so ab 85 zoll fängt es an interessant zu werden - ist das was für das normale wohnzimmer? wahrscheinlich nicht. wird es trotzdem früher oder später dort stehen? darauf kann man fast wetten.
 
  • Gefällt mir
Reaktionen: Project 2501, McFritte, Sun_set_1 und eine weitere Person
Selbst bei einem 85 zoll Gerät müsste man näher als 1,66m ran, um überhaupt einen Unterschied zwischen 8- und 4k ausmachen zu können.
 
  • Gefällt mir
Reaktionen: hurcos und HaZweiOh
Also wenn ich das Video auf 4k laufen lassen, dann ist die Auslastung ja schon ordentlich. Das Video läuft aber flüssig:
AV1_4k_CPU.png


Wenn ich dann aber auf 8k umstelle, dann ruckelt es wie Sau. Hätte ich ja nie gedacht...kann ja nachvollziehen, wenn 8k in Games ruckelt. Aber in einem Video?! :D
AV1_8k_CPU.png


Mein Rechner ist alt und lahm! Zeit für einen 5950X! :king:
 
Pisaro schrieb:
Kann man das als Art Gegenstück zu Nvenc sehen? Wobei Nvenc wohl nur ein Codec zum aufnehmen ist. Also wahrscheinlich heißt die Antwort nein.

Falls ich mir dieses Jahr eine AMD GPU kaufe würde Nvenc wegfallen.

NVENC ist die Hardware Einheit in einer Geforce, welche die Videos encodiert.
Also einen Videostream in ein spezielles Format umwandelt.

Sowas gibt es auch bei AMD. Heisst VCN, der ist im H264 Format
welches Twitch nutzt inzwischen auch echt gut, mit H265 stampft
er NVENC in Grund und Boden. H265 nutzt Twitch wohl leider nicht.

Hier Navi 10 (RX5700XT) in H264 mit den für Twitch maximalen
8 Mbit/Sek.
 
  • Gefällt mir
Reaktionen: Otsy
Dark Soul schrieb:
Wie schon gesagt: Codec != Container Format. Hat nichts mit h265 zu tun. Deine Aussage dass die Verbesserungen in h265 geklont worden sind schlicht falsch. H265 beschreibt ein Verfahren Videomaterial zu encodieren - Matroska beschreibt ein Verfahren Video und Audio zu "bundeln" (oder nur eines wenn nicht AV). Also kann man den Matroska Container mit einem AVC (h264), HEVC(h265), VP8, VP9 (und viele weitere) kodierten Video füllen.

Ist richtig, da hatte ich was durcheinander gewürfelt beim echauffieren darüber, wie MPEG sich schon länger künstlich am leben hält.
Meiner Erinnerung nach treiben die das Spielchen jedenfalls nicht erst zum zweiten Mal.

Oder war es nicht so, dass Xvid als 'freier' MPEG-Fork viele Ideen aus der Community einbrachte. Dann kam h264 von MPEG und daraufhin x264 von freien Entwicklern, welche viele Ideen der bisherigen OpenSource-Xvid Entwicklungen / Komponenten mit dem Stack von h264 kombinierten und daraus dann x264&265(HEVC) releaseten? Von welchem dann h265 wiederum etwas abgeschielt hat? Ich meine, x265 war vorher am Markt. Kann mich aber auch täuschen, habs jetzt nicht gegoogelt.

In jedem Falle: Es mangelt nicht an freier und leistungsstarker Konkurrenz und das nicht erst seit AV01. Das ist mein Punkt.

Sicherlich zu Gute halten muss man AV01, dass er komplett eigenständig ist und nicht bloß ein weiterer Fork von XY.

Ich drücke dem AV-Codec die Daumen, dass es diesmal klappt.
 
Zuletzt bearbeitet:
Nightspider schrieb:
8K beim Streaming bringt ein schärferes Bild und weniger Artefakte, durch die höhere Bitrate

Bitrate ist nicht an die Auflösung gekoppelt. Deshalb sieht der Remux einer Blu-ray in FullHD ja auch besser als Streamingzeug in UHD aus.
 
DeusoftheWired schrieb:
Bitrate ist nicht an die Auflösung gekoppelt. Deshalb sieht der Remux einer Blu-ray in FullHD ja auch besser als Streamingzeug in UHD aus.

Aber diese ist doch nach oben durch Farbtiefe und Auflösung begrenzt?
Ich meine, solange Du aus einem roten Pixel nicht einen roten und einen gelben machst (mit gegebener Intensität) ist irgendwann schluss mit dem Erzeugen von Mehr-Informationen?

Oder hab ich da grad nen Denkfehler?
Es müsste, meiner Meinung nach, eine fest definierte maximal mögliche Bitrate per Auflösung und Farbtiefe geben?

(Ja, klugscheißerei an der Stelle - dein Punkt stimmt trotzdem und mir ist klar worauf du hinaus willst in Hinsicht Streamen, Blu-Ray etc.
Will aber grad wissen ob ich einen Denkfehler habe?)
 
Zuletzt bearbeitet:
DeusoftheWired schrieb:
Bitrate ist nicht an die Auflösung gekoppelt. Deshalb sieht der Remux einer Blu-ray in FullHD ja auch besser als Streamingzeug in UHD aus.
Na bei YouTube und Amazon Prime schon, genauso wie bei Netflix.

Und das wird wohl auch erstmal so bleiben.
 
Nightspider schrieb:
Na bei YouTube und Amazon Prime schon, genauso wie bei Netflix.

Nur weil die drei das so handhaben, heißt nicht, daß es technische Notwendigkeit dafür gibt. Formulieren wir es so: YouTube, Amazon und Netflix koppeln die Bitrate an die Auflösung.
 
  • Gefällt mir
Reaktionen: Sun_set_1 und foo_1337
Sun_set_1 schrieb:
Ich meine, solange Du aus einem roten Pixel nicht einen roten und einen gelben machst
Moderne Videokompressionsverfahren denken nicht in Pixeln sondern in Flächen, Vektoren und Änderungsfaktoren. Und je höher die Kompression, desto einfacher muss der Codec das Bild aufbauen, um der Datenrate gerecht zu werden. Somit geht es hier nicht um Pixel sondern tatsächlich um den Detailgrad des Bildes. Das Reziprok davon ist je Vollbild eine komplette Pixelinformation zu hinterlegen, in der jeweiligen Farbtiefe. Das ist dann RAW unkomprimiert und die Datenrate Astronomisch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: foo_1337
Sun_set_1 schrieb:
Aber diese ist doch nach oben durch Farbtiefe und Auflösung begrenzt?
Ich meine, solange Du aus einem roten Pixel nicht einen roten und einen gelben machst (mit gegebener Intensität) ist irgendwann schluss mit dem Erzeugen von Mehr-Informationen?

Oder hab ich da grad nen Denkfehler?
Es müsste, meiner Meinung nach, eine fest definierte maximal mögliche Bitrate per Auflösung und Farbtiefe geben?

(Ja, klugscheißerei an der Stelle - dein Punkt stimmt trotzdem und mir ist klar worauf du Hinaus willst in Hinsicht Streamen, Blu-Ray etc. Will aber grad wissen ob ich einen Denkfehler habe?)
Naja die maximale Bitrate wäre komplett unkomprimiert jedes einzelne Bild in voller Auflösung übertragen. Dann müsste man aber irgendwo im Bereich hunderter Megabyte(!) pro Sekunde sein.
 
ghecko schrieb:
Moderne Videokompressionsverfahren denken nicht in Pixeln sondern in Flächen und Vektoren. Und je höher die Kompression, desto einfacher muss der Codec das Bild aufbauen, um der Datenrate gerecht zu werden. Somit geht es hier nicht um Pixel sondern tatsächlich um den Detailgrad des Bildes.

Hmm ja, das ist mir durchaus klar. Gerade die Vektortechniken habe ich ja selbst eingangs beschrieben.
Aber es gibt doch eine maximal mögliche Bitrate per Auflösung und Farbtiefe.

guggi4 schrieb:
Naja die maximale Bitrate wäre komplett unkomprimiert jedes einzelne Bild in voller Auflösung übertragen. Dann müsste man aber irgendwo im Bereich hunderter Megabyte(!) pro Sekunde sein.


Genau das meinte ich.
Ist mir alles klar, war nur ein theoretisches Gedankenkonstrukt gerade.
Denn in diesem Maximum würde nun unmittelbar gelten: Höhere Auflösung = höhere Bitrate.
 
Wirklich interessant ist, ob auch PS5 und Xbox Series X AV1 in Hardware decodieren können (4k@60fps mit 10bit). Die basieren ja auch auf RDNA2. Das würde eine entsprechend große Verbreitung ermöglichen.

Ansonsten ist libdav1d mit entsprechenden ASM Optimierungen auch ausreichend um in Software zu decodieren. Aktuell fehlt auf x86 noch die ASM-Implentierung für 10bit; 8bit läuft aber schon 1a.
 
Zurück
Oben