[Adobe Premier Pro 5.5] Wie Codec hinzufuegen?

Tom Keller schrieb:
Nope. Wie schon oben geschrieben: das steht das, was der Renderer an Infos zurück schickt. Beim Haali Renderer ist das halt seine skalierte Auflösung. Öffnest du z.B. ein 320x240 Pixel großes Video, steht dann dort nicht die Hälfte, sondern das Doppelte oder Dreifache (da der Haali dann ja hochskaliert).
Versteh das nicht so ganz, kannste das mal genauer erklären :D
Wieso skaliert der überhaupt?

Das ConvertToRGB32 in der ersten Zeile kann man auch weglassen - es könnte sogar schaden, da Overlay intern IMMER eine Farbraumkonvertierung ins YUV-Format vornimmt. Liegt die AVI z.B. schon in einem YUV-Farbformat vor (z.B. YV12), dann hat man eine doppelte Farbraumkonvertierung (YUV => RGB => YUV). Da diese Konvertierung nicht verlustlos ist, sollte man sich mit mehrfachen Farbraumkonvertierungen besser zurückhalten...
Ist mir bewusst, das Problem war nur, das manche andere Leute ConvertToRGB32 verwenden mussten, weils sonst immer Fehler gab.
Bei meinen YV12 Videos gings auch immer ohne ConvertToRGB32.

Bei ImageSource empfiehlt sich das Laden inklusive pixel_type="rgb32" Parameter. Das spart das ConvertToRGB32 in der zweiten Zeile und beugt Problemen mit transparenten Bildteilen in der PNG vor.
ok gut zu wissen ^^

Ich würde auch die Angabe des fps- ( => Framerate) und end- ( => Länge) Parameters bei ImageSource empfehlen (entweder absolut... oder, wie in meinem Beispiel, übernommen vom Hintergrundvideo). Ansonsten nimmt ImageSource nämlich den Standard: 24fps mit 1000 Frames Länge. Hat das Video eine andere Framerate, klappt das Drüberlegen dann nicht... und nach 1000 Frames ist das Logo dann weg.
Das wundert mich jetzt bisschen, weil ich habe das immer so gemacht wie in dem Beispiel, allerdings ohne die ConvertToRGB32s weil ichs ja bei mir nicht brauchte.
Meine Videos sind in 30fps und das Wasserzeichen war immer übers ganze Video, hmm ^^



Das geht über den Mask-Parameter der Overlay-Funktion. Über Mask kann man eine Maske für die Transparenz festlegen:

ShowAlpha() nimmt den Alpha-Kanal der PNG-Datei und zeigt ihn als Graustufenbild an:

mask03fkan.png


Mit Mask=Logo.ShowAlpha() wird dieses Bild als Maske genommen... und schon kann man auch mit Overlay Die Transparenzen des Alpha-Kanals fürs Logo nutzen. Wichtig ist dann aber bei ImageSource zusätzlich der pixel_type="rgb32" Parameter - sonst wird der Alpha-Kanal üblicherweise nicht mit geladen.

Nett zu wissen ^^
 
De-M-oN schrieb:
Versteh das nicht so ganz, kannste das mal genauer erklären :D
Wieso skaliert der überhaupt?
Weil das jeder Videorenderer macht? Ansonsten würde ja z.B. ein 720x400 Pixel großes Video bei einer in Windows eingestellten Anzeigeauflösung von 1920x1080 nur mit schwarzen Balken angezeigt werden, sobald man das Videofenster größer zieht oder in den Vollbildmodus wechselt :p ...

Die Frage ist daher eher: warum meldet der Haali an den Player die skalierte Auflösung und NICHT die reale Videoauflösung zurück? Und das... weiß ich nicht ;) .


De-M-oN schrieb:
Ist mir bewusst, das Problem war nur, das manche andere Leute ConvertToRGB32 verwenden mussten, weils sonst immer Fehler gab.
Bei meinen YV12 Videos gings auch immer ohne ConvertToRGB32.
Dann aber bestimmt wegen Layer - das verlangt nämlich ZWINGEND den selben Farbraum bei allen übereinander gelegten Clips - sonst gibt's 'ne Fehlermeldung. Overlay ist das aber (wie gesagt) egal.


De-M-oN schrieb:
Das wundert mich jetzt bisschen, weil ich habe das immer so gemacht wie in dem Beispiel, allerdings ohne die ConvertToRGB32s weil ichs ja bei mir nicht brauchte.
Meine Videos sind in 30fps und das Wasserzeichen war immer übers ganze Video, hmm ^^
Hast recht :freak: . Entweder hab ich das mit 'nem anderen Filter verwechselt, oder in einer früheren AviSynth-Version funktionierte das noch nicht. Zumindest jetzt (hier mit AviSynth 2.58) gibts tatsächlich keine Probleme mit Overlay und Layer, wenn man keine Framerate oder Länge bei ImageSource angibt. Die Framerate wird scheinbar durch den "untersten" Clip bestimmt und alle überlagernden Clips werden (falls nötig) durch Wiederholung des letzten Frames auf dessen Lauflänge gestreckt.
 
Weiss von euch jemand, wo das im Cataclyst mit den 2560x1440 geht?
 
Tom Keller schrieb:
Weil das jeder Videorenderer macht? Ansonsten würde ja z.B. ein 720x400 Pixel großes Video bei einer in Windows eingestellten Anzeigeauflösung von 1920x1080 nur mit schwarzen Balken angezeigt werden, sobald man das Videofenster größer zieht oder in den Vollbildmodus wechselt :p ...

Naja aber wenn ich ein 2048x1152 Video abspiele - in Vollbild - und mein Monitor läuft auf 2048x1152, warum steht dann trotzdem 1024x576 da?

Dann aber bestimmt wegen Layer - das verlangt nämlich ZWINGEND den selben Farbraum bei allen übereinander gelegten Clips - sonst gibt's 'ne Fehlermeldung. Overlay ist das aber (wie gesagt) egal.
Das kann sehr gut sein, da ich sonst Layer genannt hatte in Kombination CoronaSequence, weil ich eben nur da es hinbekam mit dem Alpha + Beibehaltung der Farbe.

Die Framerate wird scheinbar durch den "untersten" Clip bestimmt und alle überlagernden Clips werden (falls nötig) durch Wiederholung des letzten Frames auf dessen Lauflänge gestreckt.
Braucht Avisynth/der Filter nicht einfach nur auf meinen angegebenen AssumeFPS(30) Wert gucken? Dann weiß er doch die FPS Rate.

Weiss von euch jemand, wo das im Cataclyst mit den 2560x1440 geht?

Ich leider nicht. Habe noch nie eine AMD Karte besessen und werde ich auch nicht, ich mag Nvidia da entscheidend lieber. Alleine schon wegen dem Treiber.
 
Awake schrieb:
Weiss von euch jemand, wo das im Cataclyst mit den 2560x1440 geht?
Tut mir Leid - ich habe auch nur eine NVIDIA-Karte... kann also ebenfalls nichts zum Catalyst sagen.


De-M-oN schrieb:
Naja aber wenn ich ein 2048x1152 Video abspiele - in Vollbild - und mein Monitor läuft auf 2048x1152, warum steht dann trotzdem 1024x576 da?
Der Haali scheint auf Anfrage nur die Auflösung zurück zu geben, auf die er das Video Beim Start im Fenstermodus skaliert (bzw. skalieren würde). Selbst wenn man danach manuell das Fenster vergrößert/verkleinert oder das Video im Vollbild startet, ändert das nichts daran - denn die Abfrage scheint wohl nur einmal (direkt beim Start) zu erfolgen.

Ist aber Jacke wie Hose, da diese Info überhaupt nicht aussagekräftig ist - mit dem EVR steht bei mir z.B. das hier da:

unbenannt-1pez1r.png


Und was soll man DAVON halten :p !?


De-M-oN schrieb:
Braucht Avisynth/der Filter nicht einfach nur auf meinen angegebenen AssumeFPS(30) Wert gucken? Dann weiß er doch die FPS Rate.
Jain. AssumeFPS muss ja nicht immer da stehn...

WENN AviSynth aber mal die Infos von einem Videoclip bezieht, dann üblicherweise die, die der Quellfilter zurückgibt. Es sei denn: du hast diese Infos durch ein angehängtes Resize, AssumeFPS, ConvertTo, usw. verändert - dann werden natürlich diese veränderten Werte übernommen. Alles andere würde ja keinen Sinn machen...

Normalerweise schaut AviSynth bei vielen Sachen aber erstmal gar nicht nach, sondern verlangt vom Nutzer, dass ER alles richtig macht. Die Stack-Funktion (um mehrere Videoclips neben- bzw. übereinander zu setzen) mag es z.B. gar nicht, wenn die Frameraten der Clips (und auch die Auflösungen und die Farbräume) nicht zueinander passen. Da muss der User halt selbst vorher dafür sorgen (eben mit AssumeFPS, Resize und ConvertTo) - sonst gibts nur 'ne Fehlermeldung.
 
AssumeFPS baut MeGUI automatisch schon ein :)

Also bei mir isses daher immer da ^^.

Bei EVR - Unbekannt, auch nett :D

Welchen Codec benutzt ihr bei Dxtory?

UT Video Codec, davon den 422er und config hab ich den Dividor auf 2. So ist der Codec am schnellsten. Da er aber relativ viel Speicher benötigt (4:2:2 Subsampling (auf 4:2:2 ist der Codec aber am schnellsten) ) evtl RawCap Funktion nutzen, was ich zb. tue.

Alternativ den Lagarith Codec (für die meisten am empfehlenswertesten).

Config: Mode: YV12, [x] Use Multithreading.
Das ist dann 4:2:0 Subsampling und Lagarith hingegen ist auf 4:2:0 auch schnell. (UT Video mit 422 und dividor 2 aber minimal schneller als Lagarith).
 
Den Lagartih habe ich bis dato auch genutzt. Ich werde mal den UT Video Codec testen. Danke!
Also das mit den Videos hat sich bei mir geklaert. Ich muesste diese wohl oder uebel in 2560x1600 aufnehmen, da ich im Catalyst keine Einstellung dafuer gefunden habe.

Entweder ich warte, bis Nvidia so guenstig ist wie ATI oder die Leute sollen sich gefaelligst 16:10 kaufen. :p

Wuerdest Du die Bearbeitung bzw. Schnitt, Zusammenfuegen etc. von Audiotracks mit Audacity oder Camtasia Studio 7 bevorzugen?
Ergänzung ()

Achja, ich wollte Dich noch fragen, wie ich am besten ein AviScript so bearbeiten kann, dass es zum Einen:

Code:
movie = DirectShowSource("C:\Games\Movies\Movies_Rendered\Firelands\Firelands (Video).mkv", fps=30.000, audio=true, convertfps=true).AssumeFPS(30.000)
logo = ImageSource("G:\Photo\Avatars\Awake.png")
Overlay(movie,logo,x=14,y=1588,opacity=1.0,mode="Luma")
#deinterlace
#crop
#resize
#denoise

enthaelt und im Dropdown-Menue waehlbar ist. Ich muesste sonst jedesmal den Code nachtraeglich eintragen, damit das mit dem Wasserzeichen aufgenommen wird. Mir ist naemlich aufgefallen, dass - wenn man eines Deiner Presets anpasst - dann kann man sie weder in der .zip noch einzeln zu den Presets hinzufuegen. Es wird nur Dein Originalskript geschluckt.
 
Zuletzt bearbeitet:
Entweder ich warte, bis Nvidia so guenstig ist wie ATI oder die Leute sollen sich gefaelligst 16:10 kaufen.

16:10 ist total vom Standard abweichend. Videostandard ist halt 16:9.

Sonst nimm doch in 16:10 auf und encodier in 16:9 Auflösung. 16:10 -> 16:9 fällt so gut wie überhaupt nicht auf, absolut unbedenklich.

Wuerdest Du die Bearbeitung bzw. Schnitt, Zusammenfuegen etc. von Audiotracks mit Audacity oder Camtasia Studio 7 bevorzugen?

Camtasia würde ich für nix bevorzugen :p

Auf jeden Fall audacity, stell aber vorher Audacity in Optionen auf 44.1 khz, 16bit, Stereo.
Dann als WAV exportieren.

Zu dem Script:

Das du da gerade eine MKV drin hast dient aber nur dem Beispiel oder?
Du kannst mein Script wählen, auf config gehen, dein Kram einsetzen und das ganze speichern (NEW für neues Preset anlegen, oder UPDATE um das gewählte zu überschreiben).

Willst du auf 2560x1440 resizen, wähl halt ein Preset, zb YT "(1280x720)" und ändere dann die Zahlen entsprechend auf 2560,1440 um.
 
Sagtmal, ist es moeglich ein Template, dass mit Sony Vegas Pro 11 erstellt wurde mit MeGUI zu rendern?
Ich habe bisher große Probleme beim Rendern mit Sony Vegas gehabt, da die Videos zum Einen immer komplett gruen (MainConcept .mp4) oder schwarz (Video for Windows .avi) waren und zum Anderen oft nicht alles gerendered wurde.

Habe ein vorgefertigtes Template entdeckt, dass mir gefallen hat. Dieses habe ich nun ein wenig angepasst und moechte das als Intro zu meinen Spielevideos hinzufuegen.
Ergänzung ()

Also ich habe es tatsaechlich geschafft, das Intro mit Sony Vegas zu rendern. Habe es mit .wav gemacht.
Nun moechte ich ein kurzes Video, dass ich eben gedreht habe, mit dem Intro davor zusammenfuegen.

Video: .avi
Intro: .wav

In MeGUI klappt das encoden etc. alles einwandfrei. Jedoch spuckt mir mkvmerge GUI den folgenden Fehler aus, wenn ich zuerst das Intro mit der Flac hinzufuege und daran das Video anhaengen moechte:

Fehler: Der Track Nummer 0 aus der Datei 'C:\Games\Movies\Movies_Rendered\Test.mkv' kann nicht an den Track Nummer 0 aus der Datei 'C:\Games\Movies\Movies_Rendered\Intro.mkv' angehängt werden. Die Trackparameter stimmen nicht überein.
 
Zuletzt bearbeitet:
Ja, Du hast Recht. habe ein wenig gestoebert und bin darauf gestossen, dass die Video keine unterschiedliche Aufloesung haben duerfen.
Ergänzung ()

Jetzt stehe ich vor einem Dilemma. Wie fuege ich 2 MKVs zusammen?
Ich habe das schon bei einem anderen Video hinbekommen aber hier klappt's irgendwie nicht.

- Intro wurde nach .wav gerendered
- Video aufgenommen nach .avi
- Intro + Video decoded --> jeweils eine .mkv und eine .flac sind entstanden
- .mp3 track nach .flac decoded

Jetzt sollte praktisch zuerst das Intro(+ intro.flac) und daran das Video(+ mp3.flac) angehaengt werden. Beim Zusammenfuehren jedoch will mkvmerge GUI aber nicht so wirklich mitmachen.
 
Ja, Du hast Recht. habe ein wenig gestoebert und bin darauf gestossen, dass die Video keine unterschiedliche Aufloesung haben duerfen.

Ist das nicht irgendwie logisch? :confused_alt:

Audio und Video müssen exakt gleichen Codec und mit exakt gleichen Encodiereinstellungen encodiert worden sein. Sonst kann es nicht gehen. Rein logisch schon nicht.

Bei FLAC kanns mitm Muxen Probleme mitm Header geben. Falls das der Fall ist, Audacity (Optionen -> Audacity auf 44.1 khz, 16bit, stereo einstellen) Die beiden FLACs importieren, die Hauptvideo FLAC ans Intro hinten dran hängen, die nun leere spur schließen und den Kram exportieren (Audacity hat auch FLAC, vergess aber nicht bei dem "speichern unter" dialog auf Optionen zu gehen und die Kompression auf 8 zu stellen.)

Dann MKVMerge Intro hinzufügen, hauptvideo anhängen, neue FLAC hinzufügen.
 
Werde es testen, Danke!
Ergänzung ()

Hat funktioniert, Danke Dir.
 
Zuletzt bearbeitet:
Hey Leute, ich krame den Thread mal wieder auf, da ich ein Problem habe mit der Aufloesung wiedermal.

Diesmal ist aber ALLES auf 2048x1152 eingestellt. Das Video wurde in 2048x1152 aufgenommen (siehe Eigenschaften\Clip & Medien Infor unter Media Player Classic) Dxtory war sowohl bei Scaling, alsauch in den Video Settings auf 2048x1152 eingestellt.
Ebenso in WoW, habe ich die Aufloesung auf 2048x1152 hinbekommen (durch hinzufuegen in der Registry). Die einzige Aufloesung, die noch auf 2560x1600 war, ist die Aufloesung in der Systemsteuerung. Wenn ich jetzt das AVI Script erzeugen moechte und in die Vorschau gehe dann sieht das Bild unten her abgeschnitten aus.

Ich bin gerade mit meinem Latein am Ende. Hat jemand einen Rat?
 
Zuletzt bearbeitet:
Zurück
Oben