News Microsoft: AMD Radeon RX 6000 beschleunigen AV1-Videos

Sun_set_1 schrieb:
Aber es gibt doch eine maximal mögliche Bitrate per Auflösung und Farbtiefe.
Nein.
Sun_set_1 schrieb:
Denn in diesem Maximum würde nun unmittelbar gelten: Höhere Auflösung = höhere Bitrate.
Nein. Es macht natürlich Sinn, eine höhere (avg) Bitrate bei Erhöhung der Auflösung zu wählen. Aber dadurch hat man erstmal nicht weniger Artefakte (bei gleichem Verhältnis).
 
Sun_set_1 schrieb:
Aber es gibt doch eine maximal mögliche Bitrate per Auflösung und Farbtiefe.
Wie oben editiert, das nennt sich dann RAW, hier findet keine Kompression mehr statt. Das ist stumpfes Hinterlegen von jedem einzelnen Pixel mit seiner Farbtiefe in der Bildwiederholrate.
Also Höhe x Breite x Bildwiederholrate x Farbtiefe = Maximale Bitrate der Bildinformation (unkomprimiert)

Bei 8K:
7680 x 4320 x 60(hz) x 30bit = 59719,68Mbit/s -> 7464,96MB/s ->7,46..GB/s
7,46 Gigabyte pro Sekunde...

/edit: Farbtiefe pro Pixel korrigiert (10 Bit Pro Farbe -> 30bit pro Pixel)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Thorque, Haldi, Nagilum99 und 2 andere
Sun_set_1 schrieb:
Aber diese ist doch nach oben durch Farbtiefe und Auflösung begrenzt?

Wenn man Informationsgehalt als obersten Maßstab nimmt, ist natürlich bei einer bestimmten Auflösung Schluß, was man an Informationen in ein Bild packen kann, und nur ein Erhöhen der Auflösung würde eine Vergrößerung des Informationsgehalts ermöglichen.

Sun_set_1 schrieb:
Es müsste, meiner Meinung nach, eine fest definierte maximal mögliche Bitrate per Auflösung und Farbtiefe geben?

Da wäre ich mir nicht so sicher, zumindest bei der Bitrate. Farbtiefe natürlich, 8, 10, 12, 16, 32 Bit. Die Grenze bei der Bitrate ist aber das, was der Sensor der Kamera hergibt. Das RAW-Material, das eine aktuelle Highendkinokamera auf ihr Medium schreibt, ist Wahnsinn im Vergleich zu dem, was man auf einer UHD-BD zuhause davon noch zu sehen bekommt. Man kann Leuten aber nicht zumuten, sich Filme auf Festplatten zu kaufen. Da begrenzen Bedienbarkeit und Speicherbedarf das maximal Mögliche.
 
ghecko schrieb:
Wie oben editiert, das nennt sich dann RAW, hier findet keine Kompression mehr statt. Das ist stumpfes Hinterlegen von jedem einzelnen Pixel mit seiner Farbtiefe in der Bildwiederholrate.
Also Höhe x Breite x Bildwiederholrate x Farbtiefe = Maximale Bitrate der Bildinformation (unkomprimiert)


Bei Fotos kannte ich den Begriff RAW selbstverständlich. War mir net sicher ob im Videobereich der gleiche Begriff verwendet wird. Ich hatte nur selbst grad nen Knoten im Kopf, den ich durch so Vergleiche im Maximal oder Minimalbereich mit "was wäre wenn" immer ganz gut gelöst bekomme. Darum gings mir grad, alles gut.


DeusoftheWired schrieb:
Da wäre ich mir nicht so sicher, zumindest bei der Bitrate. Farbtiefe natürlich, 8, 10, 12, 16, 32 Bit. Die Grenze bei der Bitrate ist aber das, was der Sensor der Kamera hergibt. Das RAW-Material, das eine aktuelle Highendkinokamera auf ihr Medium schreibt, ist Wahnsinn im Vergleich zu dem, was man auf einer UHD-BD zuhause davon noch zu sehen bekommt. Man kann Leuten aber nicht zumuten, sich Filme auf Festplatten zu kaufen. Da begrenzen Bedienbarkeit und Speicherbedarf das maximal Mögliche.


Genau Das war das Aber, welches mir an der Stelle unbewusst im Kopf rumschlummerte. Weshalb ich mir nicht ganz sicher war, ob meine Annahme unter Maximalbedingungen denn hollistisch überhaupt stimmt. Oder da nicht noch ganz andere Faktoren reinspielen würden / könnten. Konnte das aber noch nicht ausformulieren :)


Bedeutet dann nämlich, dass sich die maximale Bitrate dann höchstens für ein bestimmtes Aufnahmemedium, in einer bestimmten Farbtiefe in einer bestimmten Auflösung festlegen lässt. Ein anderes Medium (Kinokamera) könnte mit gleicher Auflösung und Farbtiefe trotzdem mehr Informationen generieren, als Kamera A unter eben dieser Auflösung und Farbtiefe. Somit wäre das von mir genannte Maximum eben nicht allgemein gültig. Verstanden! Danke!

(Das mit RR korreliert ist sowieso klar, daher hier einmal außen vor gelassen)


Können wieder weitermachen mit dem Thread, liebe CB-Community. Knoten gelöst :)
 
Zuletzt bearbeitet:
DeusoftheWired schrieb:
Nur weil die drei das so handhaben, heißt nicht, daß es technische Notwendigkeit dafür gibt. Formulieren wir es so: YouTube, Amazon und Netflix koppeln die Bitrate an die Auflösung.

Ich hab nie gesagt das es eine technische Notwendigkeit dafür gibt.

Aber es ist bei allen beliebten Streaming-Portalen der Fall.

Das eine hat ja nichts mit dem anderen zu tun.
 
KlaasKersting schrieb:
... davon auszugehen ist, dass auch zukünftige RDNA2 APUs AV1 dekodieren können.

Das schon, aber so wie es aussieht, wird man auch zukuenftig als jemand mit APU ohne AV1 Unterstuetzung nicht draussen/ausgeschlossen bleiben, nur Qualitaet und Geschwindigkeit sind mit AV1 eben besser, es wird absehbar wohl ein "nice-to-have" und kein "must-have" sein.

Bis Rembrandt RDNA2 APUs von AMD auf den Markt kommen wird es noch eine ganze Weile dauern, denn vor 2022 rechne ich mit diesen nicht. Eine XBSS, XBSX oder PS5 Konsole mit RDNA2-SoC ist da AV1 unterstuetzend wohl zeitlich etwas naheliegender.
 
Nightspider schrieb:
Das eine hat ja nichts mit dem anderen zu tun.

Sag ich doch! Und dann schreibst du, daß es bei den dreien eben anders ist. :|
 
  • Gefällt mir
Reaktionen: foo_1337
Na es ist ja auch so. :D

Das ist schon seit vielen Jahren so und wird auch erstmal so bleiben.

Außer du kannst mir eine Quelle geben, das die 3 Großen auf absehbarere Zeit die Bitrate bei gleicher Auflösung erhöhen wollen.

Wenn dann geht vielleicht eine Steigerung durch den effizienteren Codec AV1 einher.
 
Es ging hier um Encoding/Bitraten und nicht explizit um Streaming, erst recht nicht begrenzt auf die geizigen, was Bitraten betrifft. Bei Apple z.B. sieht die Welt wieder anders aus.
 
Das Funktioniert in Software ja wesentlich effizienter als erwartet!
Ich musste das Video auf 8k Hoch schalten um überhaupt erst etwas mehr last als Normales Browsen zu bemerken.

1602530044076.png



EDIT:
Das 60FPS Video is komplett überfordert... Dropped Frames ohne ende!
1602532678519.png



Find ich aber tolle das das in Hardware kommt. Besonders das ENkodieren.
Und wehe die sind geizig und bieten kein 8k Encoding an!
 
Zuletzt bearbeitet:
Nightspider schrieb:
8K Blu Rays bringen nichts (erst bei Kinoformaten ab 5 Meter Bilddiagonale)
Dem würde ich widersprechen. Das Problem ist ja, dass bei UHD Blu-rays bereits vor dem Encoding 50% der Information durch YUV 4:2:0 verlorengeht. Man hat auf einer UHD Blu-ray die Farbinformation also nur in 1920x1080 und den Unterschied zwischen UHD YUV 4:4:4 und YUV 4:2:0 sieht man bereits auf einem 55 Zoll TV bei ca. 2m Abstand deutlich.
 
Zuletzt bearbeitet:
Kann mir kurz jemand erklären, weshalb explizit spezielle Hardware benötigt wird?
Könnte mir vorstellen, dass ein Anpassen der Treiber auch den Einsatz älterer Hardware ermöglicht, oder!?
 
Meinst du für das AV1 decoding? Weil es eben im Chip nicht vorhanden ist. Da kann auch ein Treiber nichts ändern bzw. wäre nichts anderes als Software Decoding, was ohnehin dank dav1d & co längst möglich ist. Man benötigt halt ne schnelle CPU und hat mehr Stromaufnahme, was insbesondere bei Smartphones oder Notebooks suboptimal ist. Aus diesem Grund gibt es auch Browser Extensions wie h264ify.
 
Nolag schrieb:
Dem würde ich widersprechen. Das Problem ist ja, dass bei UHD Blu-rays bereits vor dem Encoding 50% der Information durch YUV 4:2:0 verlorengeht. Man hat auf einer UHD Blu-ray die Farbinformation also nur in 1920x1080 und den Unterschied zwischen UHD YUV 4:4:4 und YUV 4:2:0 sieht man bereits auf einem 55 Zoll TV bei ca. 2m Abstand deutlich.
Die Farbverschiebung durch die Farbunterabtastung wird man aber auch bei 8k sehen wenn dort 4:2:0 benutzt wird. Ggf. etwas geringer. Und den Unterschied wirst du bei Filmen nicht sehen denn du benötigst ja zum Vergleich ein unkomprimiertes Bild und das gibt's ja eher selten zu kaufen. Ergo kennt keiner den Unterschied in der Farbwiedergabe. Die Schärfe bleibt ja gleich da der schwarz weiß Kanal in 4 4 4 bleibt. Und ich denke auf die Schärfe hat er sich bezogen das man dort den Unterschied nur bei sehr großen Diagonalen bzw. Kurzen Abständen sieht.
Ergänzung ()

Sun_set_1 schrieb:
---Vollzitat entfernt---
bitte Zitierregeln beachten.
Kleine Anmerkung zu dem Ton Problem. Ich vermute im mkv Container lag der Ton im DTS Format vor und diverse aktuellere TVs bieten keinen DTS Decoder mehr an, zumindest die günstigeren Modelle. Dann bleibt der Ton stumm. In der anderen Datei lag der Ton vermutlich in Dolby Digital vor was praktisch alle TV Media Player decodieren können. Da gab's dann Ton. In dem Falle hat das jedoch nichts mit MKV oder H.264 H.265 zu tun.
 
Zuletzt bearbeitet von einem Moderator:
CityDuke schrieb:
Kleine Anmerkung zu dem Ton Problem. Ich vermute im mkv Container lag der Ton im DTS Format vor und diverse aktuellere TVs bieten keinen DTS Decoder mehr an, zumindest die günstigeren Modelle.
Mittlerweile sind es die wenigsten TV, egal welche Preisklasse, die das noch mitbringen. Bei Samsung sind seit 2017 sogar die Top Modelle ohne DTS. Panasonic verzichtet auch seit Jahren konsequent darauf und LG mit den CX (Top) Modellen seit diesem Jahr auch. Die allermeisten Käufer merken davon halt auch nichts, weil sie eh nur Netflix & Co schauen. Da spart man sich dann halt die paar Cent Lizenzgebühr pro Einheit.
 
Nabend,
läuft ganz gut auf einer 2070 Super, CPU Auslastung liegt gerade mal bei ca. 6-7%.
Screenshot (18).png

Gruß

Oh Mist war nur 4K...wie kann ich das auf 8k hochstellen?
Geht dann wohl mit Turing nicht, oder?
 
Einfach auf 4320p60 stellen. Welcher Browser wird hier benutzt? Das Decoding wird dann die CPU übernehmen..
So sieht das auf nem 2015er Macbook Pro mit i5-5257U aus. Man beachte die dropped Frames 😂

1602540203296.png
 
Steht leider nicht zur Auswahl.
Als Browser nutze ich den neuen von Windows.
Gruß

...ah ok danke!
 
Zurück
Oben