CUDA Videoencoder kostenlos (MediaCoder)

  • Ersteller Ersteller emeraldmine
  • Erstellt am Erstellt am
E

emeraldmine

Gast
Hallo CBF !

hm, ich wollte unbedingt ein paar Videos in Voll-HD (1920x1080)rendern, die CPU arbeitet , arbeitet ...ARBEITET. :freak:

Ist mir eingefallen, da gab es eine uralt Software die war kostenlos und so was von verbugt. Also auf ein Neues und nochmal an getestet.

http://www.chip.de/downloads/MediaCoder-32-Bit_21642588.html

Scheint jetzt stabil zu laufen, zumindest unter XP mit Nvidia Treiber. Statt 6 Minuten Rendern mit dem Q6600 Vierkern, hab ich ein 150 MB HD WMV, in nur 2 !!! Minuten gerendert auf Blu-Ray Bildqualität. (90% Bitrate).

Der Witz ist der , ich hab hier nur eine GT 640 verwendet...GG.. Was meint ihr ?

Kein Getrolle oder so, hab auch nix getrunken oder sonstiges :king:

ob die 64-Bit Version genauso stabil ist kann ich nicht sagen.

http://www.chip.de/downloads/MediaCoder-64-Bit_40664494.html

Grüße
 
kenn ich, hab ich mal genutzt.
bei mir war nur immer der ton danach asynchron, dann hab ichs gelassen...
und der mediacoder hat von 1080p h.264 auf 720p h.264 nur 10% gpu auslastung erzeugt, dafür 100% cpu und sonderlich schnell wars nicht...
 
Hab jetzt noch keinen vollen Film/Trailer gerendert, könnte mal einen Trailer zum Testen rendern.

Auf die GPU Last hab ich jetzt nicht geachtet, ich schau nochma mit GPU-Z.
 
Vergleich die Bildqualität doch mal genauer zwischen diesem tollen Codec und x264.
 
12GB MP1 -> 3GB MP4 = 10min mit 560GTX ti 448

Jau, das Tool ist gut, aber leider kann man die Durchschnittsbitrate nur bis auf 16kbit/s stellen^^ (Youtube FullHD sind/benutzt nur 8kbit/s ) bei der kostenlosen Version.

Allerdings ist es teilweise immer noch verbuggt, so z.B. konnte ich keine der "Rendergeschwindigkeitstests" ( Benchmark/kp wies dort heißt) machen, da sich dabei das Programm schließt oder friert ein.

Auslastung der Grafikkarte steigt bei der ganzen Geschichte aber nur auf ca. 60% - schätze die Festplatten limitieren. Im Durchschnitt rendert mein Rechner 120-160 Bilder/sekunde.
 
T.I.M. schrieb:
nur 10% gpu auslastung erzeugt, dafür 100% cpu und sonderlich schnell wars nicht...

Also hab mal getestet, die GPU Last lag bei 25-31% vom rendern von einer Voll-HD WMV auf BD.
 
MediaCoder kenn ich auch, aber ich benutze den Freemake Video Converter, weil es nicht nur CUDA, sondern auch DXVA beherrscht. Damit hatte ich auch ziemlich weniger Probleme als mit MediaCoder.
 
"Big Buck Bunny" von AVI auf M2TS , keine Asynchronitäten zu entdecken *achselzucken*. :freaky::evillol:
 
Wie bereits Mumpitzelchen geschrieben hat, vergleicht das ganze mal mit x264.
Alle Enkoder mit CUDA/OpenCL Beschleunigung erkaufen sich die Geschwindigkeit durch schlechtere Bildqualität bei gleicher Bitrate wie x264.
Also lieber etwas länger warten, so lange dauerts dank Quad Core und Co. mittlerweile eh nicht mehr.
 
Mumpitzelchen schrieb:
Vergleich die Bildqualität doch mal genauer zwischen diesem tollen Codec und x264.

Mit Verlaub, den Unterschied sehe ich gar nicht auf einem 1360x768 LCD, der ist so alt und so :kotz::hammer_alt:
 
Dir ist beste Bildqualität bei geringerem Zeitaufwand wichtig?

Investiere 15$:

http://neuron2.net/dgdecnv/dgdecnv.html

und beschäftige dich mit Avisynth und x264.

Damit sparst du beim Encoden mind. die Hälfte an Zeit und erhältst dieselbe Quali wie beim Einsatz von ner CPU zum De- und Encodieren.
 
Peter_J_Georg schrieb:
Wie bereits Mumpitzelchen geschrieben hat, vergleicht das ganze mal mit x264.
Alle Enkoder mit CUDA/OpenCL Beschleunigung erkaufen sich die Geschwindigkeit durch schlechtere Bildqualität bei gleicher Bitrate wie x264.
Also lieber etwas länger warten, so lange dauerts dank Quad Core und Co. mittlerweile eh nicht mehr.

Genau :D

Videos mit GPU Unterstützung konvertieren. Aber Wie?

Videos mit GPU Unterstützung konvertieren. Aber Wie?

Videos mit GPU Unterstützung konvertieren. Aber Wie?
 
Alle Enkoder mit CUDA/OpenCL Beschleunigung erkaufen sich die Geschwindigkeit durch schlechtere Bildqualität bei gleicher Bitrate wie x264.

Das stimmt zwar, aber wenn ich die Grafikkarte zum Decoden benutze und die CPU für's reine Encoden nutzen kann, habe ich dadurch Zeitgewinn und die beste Quali. Erzähl mir bitte keiner, daß es beim reinen Decoden Qualitätsunterschiede gibt.
 
Zuletzt bearbeitet:
@Link100: Deswegen steht ja auch "Alle Enkoder", beim decoden kannst du gerne die Grafik (mit)verwenden und damit Zeit sparen.
 
Sorry, ich habe mich wohl unklar ausgedrückt, anscheinend reden wir aneinander vorbei.

Mediacoder ist kein Encoder sondern ein Transcoder.
Beim Transcodieren wird ein komprimiertes Format in ein anderes umgewandelt, ohne daß verlustlose Decodierung (Dekomprimierung) als Zwischenschritt erfolgt. Im Gegensatz zum Encodieren, werden Eigenschaften des Quellmaterials in diesem Zwischenschritt verändert.
Wenn Quell- und Zielformat identisch sind, spricht man in genanntem Fall von Recodierung.

x264 ist kein Codec sondern ein Encoder der sich am H264 Standard orientiert. Das Wort Codec setzt sich aus codieren und decodieren zusammen, beeinhaltet also beides.

"Alle Enkoder" ist hier eigentlich der falsche Begriff, umgangssprachlich hat sich das aber leider wohl so eingeprägt.

Beim Decodieren mit DGDecNV wird die Grafikkarte auch nicht mit, sondern zum (alleinigen) Decodieren verwendet, genauso wie die CPU in diesem Fall zum (alleinigen) Encodieren verwendet wird. Es ist also sogar das (momentane) Optimum, bezogen auf das logischerweise qualitätsmäßig schlechtere Transcodieren mit CUDA/OpenCL (meinetwegen auch Quicksync) oder das vorgeschlagene sehr viel langsamere Decodieren und Encodieren per CPU.

emeraldmine hat eine Nvidia Karte, das vorgeschlagene Programm nutzt Cuda. Gute Bildqualität und Geschwindigkeit ist für ihn anscheinend auch von Bedeutung.
Für mich ergibt das so, wenn man bereit ist sich damit zu befassen und ein bißchen zu investieren, am ehesten Sinn.
 
Zuletzt bearbeitet:
Dein wissenschaftlicher Vortrag in allen Ehren, aber das ist nicht wirklich richtig.

Beim Transcodieren wird ein komprimiertes Format in ein anderes umgewandelt, ohne daß verlustlose Decodierung (Dekomprimierung) als Zwischenschritt erfolgt...

Transkodierung bedeutet üblicherweise Dekodierung und Enkodierung in einem 2Schritt Verfahren. Der Zwischenschritt ist hier unumgänglich.
Bei Dekodieren von verlustlos zu sprechen ist nicht richtig. Von verlustlos (bzw das Gegenteil verlustbehaftet) spricht man hier nur in Zusammenhang mit Komprimieren bzw Enkodieren.

...Im Gegensatz zum Encodieren, werden Eigenschaften des Quellmaterials in diesem Zwischenschritt verändert...

Dieser Satz ist unmöglich zu verstehen. Mehrere Antworten durch verschiedene Interpretation.
Es gibt keinen Zusammenhang zwischen Enkoder oder Transkoder, die die Bildqualität als Eigenschaft betreffen, da der Unterschied allein im Arbeitsablauf liegt, und nicht in der Verwendung von bestimmten Codecs.
Bei beiden Vorgängen werden grundlegende Formateigenschaften von Quell zu Zielmaterial durch De-/Kompression als wesentliche Schritte verändert.
Und wörtlich gelesen: Wenn dieser Zwischenschritt die o.g. "verlustlose Dekompression" sein soll, von welcher Veränderung wird hier dann gesprochen?

Es (DGDecNV) ist also sogar das (momentane) Optimum. ....bezogen auf.. das vorgeschlagene sehr viel langsamere Decodieren und Encodieren per CPU....

Als Unterschied steht, das DGDecNV halt per GPU dekodiert. Das der Geschwindigkeitsunterschied dadurch so gewaltig sein soll müsste erstmal per Benchmark bewiesen werden. Dekodiergeschwindigkeit nimmt einen geringeren Anteil ein als kodieren mit x264, speziell wenn die Qualität hoch angesetzt wird. Enkodieren ist quasi bei weitem die anspruchsvollere Berechnung. Von daher, wäre interessant ein Benchmark zu sehen, anders sehe ich keine Grundlage zu hypen.
 
Hallo Zhalom,

also ein paar Sätze, müde, früh am Morgen sind ein wissenschaftlicher Vortrag?

Bei Dekodieren von verlustlos zu sprechen ist nicht richtig.

Es muß natürlich, "ohne daß komplette Decodierung und unkomprimierte Weitergabe als Zwischenschritt erfolgt", heißen. Danke.

Und wörtlich gelesen: Wenn dieser Zwischenschritt die o.g. "verlustlose Dekompression" sein soll, von welcher Veränderung wird hier dann gesprochen?

Der Kern der Aussage sollte eigentlich werden, daß ein Transcoder nie ein Bild komplett decodiert.

Von daher, wäre interessant ein Benchmark zu sehen, anders sehe ich keine Grundlage zu hypen.

Ich hype? Na ok, mir gefällt der Frameserver. Benchmarks findet man z.B. im Doom9 Forum.
 
Link100 schrieb:
Der Kern der Aussage sollte eigentlich werden, daß ein Transcoder nie ein Bild komplett decodiert.
Das funktioniert so nicht. Damit ein Bild in irgendein anderes Format kodiert werden kann, muss es dekodiert vorliegen.

Es gab einige Tricks z.B. bei MPEG-2, um die Rekodierung zu beschleunigen (auf Kosten der Qualität), aber dann bleibt das Format in jedem Fall gleich.
 
Zuletzt bearbeitet:
Das funktioniert so nicht. Damit ein Bild in irgendein anderes Format kodiert werden kann, muss es dekodiert vorliegen.

Dann frag ich mich wie z.B. DLNA am TV funktioniert.
 
Zuletzt bearbeitet:
Zurück
Oben