News Microsoft: AMD Radeon RX 6000 beschleunigen AV1-Videos

Sun_set_1 schrieb:
dejavu-Erlebnis in Richtung DivX, XVid
Diese Formate hatten doch nie so eine breite Industrie-Unterstützung wie AV1, oder?
Da sitzen doch praktisch alle Interessenten in einem Boot (okay, die MPEG nicht 🤣 )

Für alte Fernseher (die partout nichts anderes können), kann man ja noch ein Alt-Format parat haben.
Aber alle Geräte, die irgendwie AV1 abspielen können, werden auch schnell umgestellt, weil die Verbreitung alter Codecs bares Geld kostet, was die Content-Anbieter zahlen müssen.
Damit haben sie ein handfestes Interesse, so schnell wie möglich zu wechseln.
 
  • Gefällt mir
Reaktionen: riloka
In Zeiten von C2D, im bestem Fall, war es von sehr grosser Bedeutung dass der Grafikchip die Videos dekodieren können muss. Da waren die CPU sehr schnell mit überfordert. Doch jetzt, wo sogar 6-Kerner zum Standard wird, ist es doch wurst. Habe gerade einen 4K Video abgespielt un da ist mein 1800x mit gerade mal 16% ausgelastet. HWiNFO64 zeigt mir maximal Verbrauch 25W. Was wird eine GK ab @250W TDP dafür fressen ? Ist es wirklich sinnvoll ?
 
HaZweiOh schrieb:
Diese Formate hatten doch nie so eine breite Industrie-Unterstützung wie AV1, oder?
Das sind doch praktisch alle dabei.

DivX und XViD wurden zu ihren Hochzeiten eigentlich von fast allen TV-Geräten und DVD-Playern unterstützt.
Die Neuerung war halt, dass einfarbige Bereiche nicht mehr per Pixel abgespeichert wurden sondern nur noch deren Umrandungs-Koordinaten. Somit konnte die restliche Bandbreite an Kompressionsrate für das eigentliche Bild verwendet werden.

Erstmalig wurden so HD Filme möglich, die deutlich unter mehreren GB groß waren.
Das war ein Riesen-Sprung damals.

Es folgte breitseitige Unterstützung, Werbung usw. usf.
Dann kam h.264 (ich glaub ca. 5 Jahre später) mit seiner größten Neuerung (achtung Ironie) die Kompression durch das erfassen einfarbiger Bereiche zu verbessern und somit FHD Streaming in die Haushalte zu bringen. Ende der Geschichte kennen wir alle.
 
Nach meiner Erinnerung war das eher ein Sonder-Feature, für eine relativ kurze Zeit.
Ich glaube halt nicht, dass es sich so wiederholt. Bin mir auch sicher, dass niemand die Investitionen in AV1 wegwerfen will, wir werden es sehen. AV2 wird auch schon entwickelt.
 
Sun_set_1 schrieb:
Mir ging es mehr um offizielle Unterstützung seitens der Hersteller.

Ah, okay. Dann Mißverständnis.

Sun_set_1 schrieb:
Es ist also technisch deutlich überlegen. Hats sichs kommerziell durchgesetzt? Nö.

Das ist tatsächlich was anderes, da hast du recht. Konnte noch nie verstehen, weshalb sämtliche Fernseher- oder andere Gerätehersteller so scharf auf das Zeug der MPG sind, wenn sie dafür bezahlen müssen und es ein Stück weniger gut als die kostenlose, freie Alternative ist. Die MKV-Unterstützung in modernen Fernsehern ist … abenteuerlich und jedes Mal eine Überraschungstüte.
 
  • Gefällt mir
Reaktionen: Sun_set_1
DrFreaK666 schrieb:
Und wie viele von uns sind auf Phororix unterwegs?
Das war auf CB aber schonmal besser, als noch Ferdinand Thommes über Linux berichtet hat. Der aktuelle Linux-Berichterstatter Sven Bauduin ist zwar bemüht, aber die damalige Aktualität und Tiefgang vermisse ich noch etwas.
 
HaZweiOh schrieb:
Frag doch erstmal deinen Augenarzt, dann sehen wir weiter.
Ich weiß nicht was ich ihn fragen sollte, wenn ich es doch mit meinen eigenen Augen sehen kann. Könntest du auch, aber man will ja lieber verzweifelt seine unfundierte Meinung in die Welt blasen. :freaky:

HaZweiOh schrieb:
Fernseher stehen gewöhnlich im Wohnzimmer.
Danke Frau Wittler, sonst noch Einrichtungstipps?
 
  • Gefällt mir
Reaktionen: melloo und HiT-Killer
gidra schrieb:
In Zeiten von C2D, im bestem Fall, war es von sehr grosser Bedeutung dass der Grafikchip die Videos dekodieren können muss.

Eine flotte CPU kann einiges kompensieren. Aber auch da ist man auch mit realtiv aktueller Hardware nicht 100% auf der sicheren Seite.

Z.B. musste ich lernen, dass der Apollo-Lake-Celeron (immerhin 4 Cores mit >2GHz) in dem passiven Mini-PC, den ich als einfachen HTPC nutze, damit überfordert ist, selbst bestimmte FullHD@60FPS-Streams z.B. auf Twitch flüssig wiederzugeben, wenn die auch noch auf 4K (native TV-Auflösung) hochskaliert werden sollen. Ich musste also die Auflösung des HTPCs wieder auf FullHD runterdrehen, damit alles ohne Aussetzer läuft.

Mit besserer Hardwarebeschleunigung in der iGPU oder alternativ deutlich mehr CPU-Power wäre das nicht nötig gewesen.

(Und ja, den Unterschied zwischen 4K und FullHD sieht man auf einem 55"-TV deutlich. Weniger bei den Videos selbst, aber bei der Schrift im Chat usw.)

Fazit: Man muss nicht nur bei 8K-Videos entweder eine realtiv fette CPU haben, oder die GPU-Beschleunigung muss perfekt funktionieren. Beides ist auch heutzutage nicht automatisch gegeben.
 
paul1508 schrieb:
Du kannst wie im Artikel beschrieben einfach mal AV1 im Browser erzwingen. Youtube verwendet ansonsten halt VP09 (egal ob SD, HD oder 4k), zukünftig halt AV1, selbst für SD. Warum würde man auch nicht? Bei den niedrigen Auflösungen ist die Prozessorlast beim decodieren auch jetzt schon niedrig genug und Youtube spart damit Bandbreite.
Lies mal bitte meinen ganzen Post. Da gehe ich drauf ein, ob es nur für Streaming genutzt wird.:)
 
Herdware schrieb:
Z.B. musste ich lernen, dass der Apollo-Lake-Celeron (immerhin 4 Cores mit >2GHz) in dem passiven Mini-PC, den ich als einfachen HTPC nutze, damit überfordert ist, selbst bestimmte FullHD@60FPS-Streams z.B. auf Twitch flüssig wiederzugeben, wenn die auch noch auf 4K (native TV-Auflösung) hochskaliert werden sollen. Ich musste also die Auflösung des HTPCs wieder auf FullHD runterdrehen, damit alles ohne Aussetzer läuft.
Naja, potent ist was anderes. Mein alter IBM T40 ist selbst mit 720p H.264 überfordert. Übertakteter C2D (3,7Ghz) war mit 1080p h.264@10Bit überfordert. Ich sprach von tatsächlich potenten CPUs, die beim Dekodiren deutlich weniger Strom verbrauchen als wenn es die leistungsstarken GK tun würden.
 
HaZweiOh schrieb:
Diese Formate hatten doch nie so eine breite Industrie-Unterstützung wie AV1, oder?
Da sitzen doch praktisch alle Interessenten in einem Boot (okay, die MPEG nicht 🤣 )

Für alte Fernseher (die partout nichts anderes können), kann man ja noch ein Alt-Format parat haben.
Aber alle Geräte, die irgendwie AV1 abspielen können, werden auch schnell umgestellt, weil die Verbreitung alter Codecs bares Geld kostet, was die Content-Anbieter zahlen müssen.
Damit haben sie ein handfestes Interesse, so schnell wie möglich zu wechseln.
Blöd nur das die Endkunden nichts davon haben werden, zum einen kostet die Lizenz pro HEVC Produkt 20 US Cent, zum anderen ist die Lizenzabgabe eh auf einer bestimmten Summe gedeckelt (glaube 5 Mio Dollar).
Wer also denkt das TVs durch diese Einsparung weniger kosten oder die Streaminganbieter mit den Abogebühren runtergehen, dürfte wohl an der Realität vorbeiträumen
 
Bregor schrieb:
Wäre echt cool wenn die Rx 6000er schon AV1 encoding könnten in HW.

Ich vermute dass wird frühestens mit der nächsten Generation kommen.
Neue Technologien brauchen immer eine gewisse Zeit um zu reifen.
Werde daher meine Käufe für neue Hardware noch möglichst lange rauszögern.
Sehe es als wichtig an ordentliche Unterstützung für alle Generationen von Codecs zu haben für die Zukunft.

Hoffe auch dass es bald in allen Preisklassen mobiler Geräte ankommt. Wäre für Videotelefonie wichtig das auch Encoding in Hardware stattfindet ohne den Akku zu stark zu belasten.
 
gidra schrieb:
Ich sprach von tatsächlich potenten CPUs, die beim Dekodiren deutlich weniger Strom verbrauchen als wenn es die leistungsstarken GK tun würden.

Beides ist nicht optimal um Videos wiederzugeben bzw. im HTPC. Optimalerweise hätte man da sowohl bei CPU als auch bei GPU etwas möglichst kleines, billiges, stromsparendes, aber mit spezialisierter Hardware für diesen Zweck.

Nur deshalb eine 45/65W-CPUs im HTPC zu haben, weil die GPU bei der Hardwarebeschleunigung patzt, kann nicht die Lösung sein.
Aber nach den schlechten Erfahrungen, die ich mit dem Celeron hatte, würde ich inzwischen doch mindestens zur 15-25W-Liga greifen. Reicht wahrscheinlich immer noch nicht für 8K (erst Recht nich AV1), aber FullHD und das meiste 4K sollten problemlos sein.
 
lokon schrieb:
Eine Änderung im Kernel muss nicht für ein spezifisches Produkt sein.

enthält nichts über eine Radeon 6000.
Es steht afaik auch nirgends, dass die Hardware für den Linux-Treiber im Laden zu kaufen sein soll.
Bis die Hardware erhältlich ist, ist es Spekulation (aber vermutlich gut begründet).

ist doch vollkommen egal, wie der handelsname später ist. "radeon 6000" kann auch "qwertz" heissen, da ist trotzdem navi2 drin. und man weiss, dass für navi2 aka "sienna_cichlid" vcn 3.0 verwendet wird.
 
  • Gefällt mir
Reaktionen: Haldi
Sun_set_1 schrieb:
Das AV1 der aktuell deutlich übelegenere Codec ist, daran zweifelt wohl niemand.
Waren aber DivX und XviD, Matroska auch mal.

DivX in seiner ersten Form: (raub)kopierte und verbesserte MPEG-4 Part 2 Implementation
XviD: Freie Implementierung des MPEG-4 Standards. H.263 zb.
Matroska: Ist ein Container Format - hat also nichts mit Codecs zu tun ;)

Also gar nicht vergleichbar mit AV1. Denn DivX und XviD basieren auf Algorithmen / dem Funktionsprinzip der MPEG. Matroska ist ein Container, wie schon gesagt, hat nichts mit Codecs zu tun.

Nur der AV1 verfügt über ein eigenes Verfahren zur Videokompression.

ChrFr schrieb:
in OBS kann ich aktuell nur X/H264 als Codec auswählen.

Mit separaten FFmpeg Bibliotheken kannst du auch HEVC (h.265) in OBS nutzen. Ob Twitch das entgegen nimmt, weiss ich aber auch nicht :( Aber FFmpeg kann hevc decoden und encoden (vorausgesetzt man hat eine GPU die es kann).

Sun_set_1 schrieb:
... Hier war Matroska gnadenlos überlegen ...

Die Verbesserungen wurden in h265 gekl... / übernommen, der eigene Standard definiert und durchgedrückt. Ich war letztens noch an einem neuen TV Gerät (glaube Grundig), dass die eingelesene .MKV ohne Ton wiedergab. H264/265 dagegen ohne Probleme.

Wie schon gesagt: Codec != Container Format. Hat nichts mit h265 zu tun. Deine Aussage dass die Verbesserungen in h265 geklont worden sind schlicht falsch. H265 beschreibt ein Verfahren Videomaterial zu encodieren - Matroska beschreibt ein Verfahren Video und Audio zu "bundeln" (oder nur eines wenn nicht AV). Also kann man den Matroska Container mit einem AVC (h264), HEVC(h265), VP8, VP9 (und viele weitere) kodierten Video füllen.

DeusoftheWired schrieb:
DivX und XviD sind Codecs. Matroska ist dagegen ein Containerformat ...

Da war jemand schneller ;) Merci^^

Pisaro schrieb:
Kann man das als Art Gegenstück zu Nvenc sehen?

Nvenc ist der Hardware Encoder / Decoder von Nvidia. Das ist also lediglich die Hardware beschleunigte Implementation all dieser Codec Standards (AVC, HEVC, VP8, VP9 ....). Mann kann also nvenc rufen um ein Video zu decodieren statt einen Software Codec :)

Pisaro schrieb:
Kannst du dazu mehr sagen im Vergleich zu Nvenc? Zumindest liest man das Nvenc am besten sein soll.

"Am besten" ist eine schwierige Aussage ;) Aus persönlicher Erfahrung, weiss ich, dass nvenc weniger "Kompressionsartefakte" aufweist wie AMDs VCE (bezieht sich auf Pascal vs. GCN 4). Das schönste Bild erhälst du aber definitiv mit einer CPU Implementation. Diese braucht aber wiederum mehr Performance, mehr Zeit? mehr Strom? Ist also alles ein Tradeoff :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und up.whatever
Herdware schrieb:
Nur deshalb eine 45/65W-CPUs im HTPC zu haben, weil die GPU bei der Hardwarebeschleunigung patzt, kann nicht die Lösung sein.
Doch. Irgendwann geschieht es immer. Was bleibt ist die CPU selbst. Meine alte GTX 780 unterstützt bei HEVC keine 10Bit. Hätte ich damals statt 2 vier Kerne, hätte es gereicht. Doch nochmal, ich sprach nicht von kleinen GK-Chips zu der Unterstützung. Mein 1800x verbraucht bei maximal 1.2V ca. 65W. Entsprechend weniger würde dann auch der sechs Kerner verbrauchen.
 
Pisaro schrieb:
Kann man das als Art Gegenstück zu Nvenc sehen?
NVEnc ist in dem Sinne kein Codec, wenn ich mich nicht irre. Das ist nur die Sprache, womit die Software die GPU anspricht, um damit den Hardware Encode anzuweisen "Nimm das Bild auf und speichere es ab.". Meine GTX 660 kann auch NVENC, aber eben nur bis H264. Bei den neueren GTX 1000 und 2000 kann NVENC ja dann auch H265 und die 3000er zusätzlich noch AV1. Die werden aber alle meines Wissens nach üer NVENC angesprochen. Bei AMD ist das Gegenstück "AMF" (Advanced Media Framework). Das unterstützt OBS z.B. auch. Muss dort aber eventuell explizit per Erweiterte Einstellungen aktiviert werden. In den normalen Einstellungen gibt es auch ein "Hardware Encoder (AMD)" (habe hier kein System mit AMD GPU zur Hand, kann ich daher nicht genau nachgucken), aber das soll, meiner Recherche nach nicht der AMF sein. Die Einstellung hatte zumindest auch bei Bruder Performance einbußen gehabt, dass er lieber das AMD Tool (das Control Center) genutzt hatte zum Streamen. Mit dem AMF unter Advanced hat er es noch nicht ausprobiert (er hat eine 5700 XT). Müsstest du also mal gucken.

Hier noch mal ein Beispielvideo der Konfiguration. Bei Minute ~ 01:40 kommt die Einstellung, die ich mit Erweitert meinte (heißt dort "Ausgabemodus: Erweitert".
 
Zuletzt bearbeitet: (H264 und AV1 mit GTX 1000 und 2000 und 3000 Serie hinzugefügt (in der Hoffnung, dass die Aussage verständlicher ist))
gidra schrieb:
In Zeiten von C2D, im bestem Fall, war es von sehr grosser Bedeutung dass der Grafikchip die Videos dekodieren können muss. Da waren die CPU sehr schnell mit überfordert. Doch jetzt, wo sogar 6-Kerner zum Standard wird, ist es doch wurst. Habe gerade einen 4K Video abgespielt un da ist mein 1800x mit gerade mal 16% ausgelastet. HWiNFO64 zeigt mir maximal Verbrauch 25W. Was wird eine GK ab @250W TDP dafür fressen ? Ist es wirklich sinnvoll ?

ich nutze linux und ich habe gerade einige dinge offen bei 95watt (kompletter PC von steckdose gemessen)
wenn ich das japan 8K video starte gehts hoch auf 160-170watt
grafikkarte von 30watt auf 45watt

so sieht die auslastung aus. links mit 8K video. rechts dann wenn es pausiert ist. das ist schon heftig

Screenshot_20201012_161128.jpg
 
Zurück
Oben