News Microsoft: AMD Radeon RX 6000 beschleunigen AV1-Videos

Bregor schrieb:
Ich teste gerade ob ich von x264 auf SVT-AV1 umsteige.

empfohlen wird in der Regel libaom mit einem splitting tool wie Av1an. SVT-AV1 hängt wohl feature und qualitätstechnisch hinterher, während libaom große Fortschritte beid er Geschwindigkeit macht.
Man muss aber sagen, dass alle encoder noch nicht wirklich "final" sind und noch viel entwickelt wird.
Z.B. das sehr interessante Film Grain Synthesis Feature steckt noch in den Kinderschuhen.

Bregor schrieb:
Wäre echt cool wenn die Rx 6000er schon AV1 encoding könnten
PS828 schrieb:
(Encoding müsste jetzt ja auch beschleunigt sein?)

Leider nein, das lässt noch auf sich warten.

Sun_set_1 schrieb:
ob ein 4 Jahre alter Samsung TV das auch noch in FHD mit guten Frame und Bitraten hinbekommt

Wohl nicht, perfekte Obsoleszenz, wir sollen doch neu kaufen.
Der 4 Jahre alte Samsung kann dann aber auch nicht h266, heißt er wird auch mit einem erfolgreichen MPEG Standard obsolet.

Tatsächlich wird es wohl auf absehbare Zeit nicht den Standard geben, den alle Geräte unterstützen.
Deshalb halten die Streaming Anbieter alle möglichen Formate vor.
Wenn man selbst Dateien versendet, ist das sicherste immer noch h264.
 
Sun_set_1 schrieb:
in dem Moment ist AV1 obsolet.
Ist das so?
Fragen wir jemanden, der sich mit dem Thema auskennt: den Chef der MPEG.
Der müsste deine markigen Sprüche eigentlich unterstützen ....

Aber in diesem Golem-Interview heult er dermaßen rum, weil die MPEG durch AV1 am Ende ist, dass ich beim Lesen förmlich lachen musste:
https://www.golem.de/news/kaputtes-...-sieht-videocodecs-in-gefahr-1801-132479.html

Habe selten so ein Interview gelesen, aber eines muss man ihm lassen: er war ziemlich ehrlich
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501, Smartbomb, Beitrag und 2 andere
Ich habe von sowas leider keine Ahnung, deswegen stelle ich eine wohl dumme Frage: Kann man das als Art Gegenstück zu Nvenc sehen? Wobei Nvenc wohl nur ein Codec zum aufnehmen ist. Also wahrscheinlich heißt die Antwort nein.

Falls ich mir dieses Jahr eine AMD GPU kaufe würde Nvenc wegfallen. Was schade wäre, denn nur mit Nvenc bekomme ich bei mir eine gute Videoqualität hin ohne das es ruckelt. Naja, vielleicht schafft da auch der Ryzen 5900X Abhilfe im Gegensatz zu meinem 7700K.
 
guggi4 schrieb:
Was sind da die Voraussetzungen? Mein aktuelles mittelklassephone erhält laut App avc also h264 und vp9

Laut Computerbase Meldung muss die Option Datensparsamkeit aktiv sein und Netflix muss das Video in AV1 vorhalten.
Zum probieren kannst du ja mal irgendeinen aktuell populären Pop-Song mit 1Mio+ Klicks testen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: guggi4
Herdware schrieb:
Zur XBox Series X gab es doch vor einiger Zeit Meldungen, dass die kein AV1 unterstützt. Zur PS5 finde ich auf die Schnelle nichts.

Wenn die beiden neuen Konsolen AV1 doch unterstützen sollten, wäre das natürlich ein großer Boost für den Codec. Nicht wenige werden ihre Spielkonsole auch für Videostreaming nutzen. Auf jeden Fall relevanter als Untertützung durch High-End-Gaming-Grafikkarten.


Notfalls sind beide locker schnell genug um AV1 in 4k auch ohne speziellen Hardware Decoder abzuspielen. ;)
 
  • Gefällt mir
Reaktionen: HaZweiOh und Herdware
HaZweiOh schrieb:
Bei Radeon heißt das Modul VCN (Video core next).

Kannst du dazu mehr sagen im Vergleich zu Nvenc? Zumindest liest man das Nvenc am besten sein soll.
 
ShiftyBro schrieb:
Die Frage ist dann aber vor allem, wann die mal rauskommen. Irgendwie bleiben die APUs bisher ja auf Vega sitzen...
Was völlig egal ist, weil es in der GPU einen eigenen multimedia Chip existiert, der selbst mit der Grafik API nichts zu tun hat.
 
Herdware schrieb:
Zur XBox Series X gab es doch vor einiger Zeit Meldungen, dass die kein AV1 unterstützt. Zur PS5 finde ich auf die Schnelle nichts.

Die Konsolen Chips haben ein anderes VCN als die Desktop pendants und werden leider AV1 nicht unterstützen.
Ob die CPU für SW decoding reicht wird sich zeigen.

Quelle: Letzte AMD Folie in CB Bericht.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Zumindest liest man, dass Nvenc
Viel zu pauschal, und das Produkt, was du als Kunde am Ende kaufst, ist eine Grafikkarte. Da zählt das Gesamtpaket, wo so ein Modul nur zu kleinen Teilen einfließt.
 
Das war eigentlich zu erwarten, und ich fände es merkwürdig, wenn man mit 2020er Grafikkarten keinen 2018er "Zukunftscodec" unterstützen würde.

HaZweiOh schrieb:
Keine Sau braucht (oder profitiert irgendwie von) 8K.
Also ich nutze nen 55" 4K Fernseher als Monitor, und bin mir ziemlich sicher, dass ein Wechsel der Auflösung auf native 8K deutlich zu sehen wäre. :freaky:
HaZweiOh schrieb:
Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall.
"Kein Mensch braucht [Hier fortschrittliche Technologie einsetzen]!" ist halt genauso abgedroschen und praktisch immer falsch. Dass du es jetzt gerade nicht brauchst ist kein hinreichender Beleg, dass es niemanden gibt dem das nicht Nutzen stiftet bzw. in Zukunft Nutzen stiften könnte.
 
  • Gefällt mir
Reaktionen: Smartbomb und HiT-Killer
Bright0001 schrieb:
Ich bin mir ziemlich sicher, dass 8K deutlich zu sehen wäre
Ich habe mir abgewöhnt, in Technik-Foren über Homöopathie und 15 mm Audio-Kabel in Platin zu diskutieren.

  • "Die besten Kabel, alder, ich kann den Unterschied hören. I schwöre !!!!!"
  • "Bist du bereit, einen Blindtest zu machen?"
  • "Öhm, also, heute geht das leider nicht, ich habe nicht die richtigen Schuhe an. Schwingungen und so."

Deshalb: Frage den Augenarzt deiner Wahl, ob du durch 8K irgendeinen Nutzen haben könntest. Er wird das Verneinen.

Bright0001 schrieb:
praktisch immer falsch.
Nein. Die Technik stößt ganz einfach an Grenzen, die durch die Natur und die Fähigkeiten des Menschen vorgegeben werden.

Ich weiß, dass die Marketing-Abteilungen dir was anderes einreden wollen. Aber man muss ja nicht darauf reinfallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501, Benji18, ReVan1199 und eine weitere Person
HaZweiOh schrieb:
Und noch was: Bleiben wir mal realistisch! Keine Sau braucht (oder profitiert irgendwie von) 8K. Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall. Wenn überhaupt, zählt die Performance in 4K.
Zudem hab ich die Vermutung, dass die av1 decoder ein Problem mit 8K haben.

Beim Verlkinten Japan in 8K60 Video läuft Format 401 (4K60) mit 5Watt Verbrauch ohne einen einzigen Framedrop durch.
402 und 571 (8K60 mit unterschiedlicher Bitrate) verknuspern dann auf einmal 60Watt+ mit ständigen Framedrops.
Der Unterschied zwischen 401 und 402 in ihrer Bitrate beträgt je nach Szene gerade mal +20% bis +50%.
Dies allein sollte keinen so hohen Unterschied bei Softwaredecodierung verursachen.
 
Also ich kann die ganzen 8K Videos trotz 3080 und 1GBIT Leitung nicht wirklich anschauen. Komplette Ruckelorgie.

Mein 6700K keine Lust mehr?
 
HaZweiOh schrieb:
Ich habe mir abgewöhnt, in Technik-Foren über Homöopathie zu diskutieren.
Deshalb: Frage den Augenarzt deiner Wahl, er wird anderer Meinung sein.
Wenn du bei normaler Schreibtisch-Entfernung den Sprung von 80dpi auf 160dpi nicht erkennen kannst, dann bin es eindeutig nicht ich, der mal zum Augenarzt sollte.

HaZweiOh schrieb:
Nein. Die Technik stößt an Grenzen, die durch die Natur und die Fähigkeiten des Menschen vorgegeben werden.
Nimm dir mal ein modernes Handy mit >=Full HD Display, und halte es mal neben einen normalo ~80-90dpi Bildschirm. Am besten auf beiden Wikipedia oder ähnliches öffnen: Falls du keinen Unterschied in der Schärfe erkennen kannst, dann kann ich zumindest an der Stelle nicht widersprechen, dass deine menschlichen Fähigkeiten irgendwo eingeschränkt sind.

HaZweiOh schrieb:
Ich weiß, dass die Marketing-Abteilungen dir was anderes einreden wollen. Die Frage ist nur, ob man darauf reinfällt.
Das arrogante Gehabe kannste auch gleich wieder einpacken.
 
  • Gefällt mir
Reaktionen: Project 2501, HiT-Killer, He4db4nger und eine weitere Person
ghecko schrieb:
HEVC ist tot im Internet, alle Streamingdienste steigen langfristig auf AV1 um (von Disney+ hab ich noch nix gehört, aber hc). Wenn jetzt noch die ganzen Gopros, Kameras usw HEVC rauswerfen war es das mit MPEG. Hoffentlich für immer.
Tot is etwas übertrieben, HEVC wird dann wohl noch sehr lange sterben müssen, für so ne Umstellung von A bis Z dauert es viele Jahre hinweg.
 
ghecko schrieb:
Denn der Markt orientiert sich nicht mehr daran, was die Hersteller implementieren, sondern was Google, Netflix und Konsorten künftig puschen.
Die Rechteinhaber sind etwas mächtiger - siehe diverse DRM Maßnahmen bei Bluray, Netflix und Google.
zB 720p max. Auflösung bei "komischen" Browser, Widevine Levels / "Zertifizierung"

0x8100 schrieb:
könnte ja mal öfter auf phoronix
Eine Änderung im Kernel muss nicht für ein spezifisches Produkt sein.

add VCN 3.0 AV1 registers
enthält nichts über eine Radeon 6000.
Es steht afaik auch nirgends, dass die Hardware für den Linux-Treiber im Laden zu kaufen sein soll.
Bis die Hardware erhältlich ist, ist es Spekulation (aber vermutlich gut begründet).

Das aktuelle Android sieht für "Handheld" (Handy) und "Television" Geräteklassen zwingend den HEVC/H265 Codec (p18) vor.
CDD Android 11 - sonst würde das Gerät kein echtes Android 11 Gerät sein.
Außerdem muss zB HDCP 2.2 unterstützt sein bei TV Geräteklassen ohne Monitor. (p19)
 
  • Gefällt mir
Reaktionen: riloka
Bright0001 schrieb:
dann bin es eindeutig nicht ich, der mal zum Augenarzt sollte.
Fernseher stehen gewöhnlich im Wohnzimmer. Frag doch erstmal deinen Augenarzt, dann sehen wir weiter.

lokon schrieb:
siehe diverse DRM Maßnahmen
Das Beispiel passt nicht ganz. Bei Raubkopien geht es um viel Geld. Aber den Rechteinhabern wird wohl egal sein, welcher Videocodec für ihren Film verwendet wird.

Der MPEG-Chef hätte in dem Interview auch nicht so resigniert geklungen, wenn er einen Einfluss darauf hätte.
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Ist das so?
Fragen wir jemanden, der sich mit dem Thema auskennt: z. B. den Chef der MPEG.
Der müsste ja eigentlich deine markigen Sprüche unterstützen...

Wenn Du meine 'markigen' Sprüche gelesen hast, hast Du bestimmt auch gelesen, dass ich allgemein für AV1 bin, gell?

Ich trenne nur zwischen technisch berechtigtem Wunschdenken, versus Realität.
Und meine Realität gibt mir ein ziemliches dejavu-Erlebnis in Richtung DivX, XVid und den seinerzeit beschworenen Untergang von MPEG.
Und wenn ich mich richtig erinnere, lieferte XViD eine ca. 40-60% höhere Kompressionsrate als das damalige MPEG, blei gleichzeitig höherer Bitrate.

Da hieß es, spätestens 2010 wird kein Gerät mehr MPEG unterstützen.

HaZweiOh schrieb:
Es lässt sich ruckelfrei auch auf Smartphones abspielen.

Und? Handys und Gaming-PC sind so ziemlich kurzlebigsten Geräte und daher naturgemäß die Ersten, die sowas auch in HW können. Weiterhin sind Handys idR deutlich neuer, als ihre TV und Settop-Box Kollegen.

Bei meinen Eltern steht ne ca. 6 jahre alte Settop-Box. Und solange die Platte nicht schlapp macht, wird da auch nichts neues geholt. Und die schauen auch Netflix darüber. Das ist der normale Verbraucher, sicherlich nicht die Technikfreunde hier die sowas nach 3 Jahren spätestens austauschen.

Ebenso sind Prozessoren in den TV's schon bei Release ihren Handy-Kollegen zwei bis drei Jahre zurück.
Dann rechne vier Jahre Nutzungsdauer hinzu und du kommst ungefähr in die Richtung von 10 Jahren, die es benötigt, bis ein neues Gerät mit neuer Technik im Wohnzimmer steht.

Beispiel: Der aktuelle TV ist aus 2016, hat aber 2016 einen ARM aus der Resterrampe von 2013 bekommen. Und das ist noch positiv geschätzt. Das Gerät hat also somit nun Technik-Stand von vor 7 Jahren.

Und bis nicht das letzte Gerät im Wohnzimmer etwas anderes nativ unterstützt, werden die Streaming-Anbieter auch immer MPEG mitschleifen. Und so kommen die Hersteller wiederum erstmal nicht in die Situation "take it or leave it".

HaZweiOh schrieb:
Und noch was: Bleiben wir mal realistisch! Keine Sau braucht (oder profitiert irgendwie von) 8K. Und bitte nicht schon wieder mit den ewig gestrigen Sprüche zum Thema "640 KB" ankommen, das war damals ein völlig anderer Fall. Wenn überhaupt, zählt die Performance in 4K.

Gutes Beispiel. Und wenn Du nun ein Gerät hast, das 4K MPEG in HW auf 60fps decoden kann, AV01 aber höchstens per Software mit 30fps und ohne DD, welches Format würde Netflix wohl für den Kunden auswählen? Und bis diese Geräte alle verschwunden sind, dauerts eben. Das ist mein Punkt.

Weiterhin handelt es sich ja um ein Konsortium. Jeder Pfenning den die dort verdienen, geht anteilig an die Hersteller zurück.


DeusoftheWired schrieb:
DivX und XviD sind Codecs. Matroska ist dagegen ein Containerformat, das noch dazu konstant weiterentwickelt wird und vor kurzem z. B. Dolby-Vision-Unterstützung erhalten hat. Außerhalb von Kommerziellem erfreut sich MKV immer noch großer Beliebtheit und das wird auf absehbare Zeit so bleiben.

Das ist richtig, so weit wollte ich gar nicht runter. Mir ging es mehr um offizielle Unterstützung seitens der Hersteller. Und da wird idR für MKV jeglicher Support verweigert "(kann laufen, muss aber nicht)"
Wobei zum jeweiligen Release-Zeitpunkt völlig klar ist, was seitens Matroska unterstützt wird. Und das könnte man dann ja auch entsprechend supporten, mit nochmals gesteigerter Kompression durch MKV.

Es ist also technisch deutlich überlegen. Hats sichs kommerziell durchgesetzt? Nö.
Ergänzung ()

HaZweiOh schrieb:
Nur theoretisch, denn was die MPEG baut, ist hochgradig Patent-verseuchter Schrott.

Ja, brought to you since 1988. Hält sich trotzdem seit vierzig Jahren.
 
  • Gefällt mir
Reaktionen: Project 2501, dynastes und v_ossi
Zurück
Oben