[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

Ich glaube, ich verwende erst mal weiter mein 2.0er Gedönz. mit 2.3 nicht so wirklich zufrieden.

Edit: grad noch mal letzten Versuch Bild/Audio zu Video mit LTX 2.3 gestartet, ne, hat gar keinen Zweck. Furchtbare Ergebnisse. Bummer.

Für Text to Video werde ich 2.3 aber weiter testen.
 
Zuletzt bearbeitet:
@MechanimaL kurz rein geguckt aber mir ehrlich gesagt momentan zu kompliziert, habe gerade einen gut laufenden 2.0er Flow, bei dem bleibe ich für Image und Audio zu Video. Text to Video gucke ich mir noch mal weiter an, das kriegt man ja relativ unkompliziert ans Laufen. Bin ja auch ohne Manager momentan, da ist mir das zu aufwändig, alles an Nodes zu insten in dem 2.3er Flow ;-D
 
MechanimaL schrieb:
Ja, Habe ich schon 2x verlinkt, aber schadet ja nicht ^^

Echt? Das kommt dabei rum wenn man immer nur rumprobieren ist.




Bei Problemen mit LTX2.3 Prompting hilft wie immer ChatGPT mit folgenden Startprompt:


Danach ein Bild hochlanden und beschreieben was passieren soll. Das funktioniert wirklich sehr gut. Besser als noch bei LTX2
 
Zuletzt bearbeitet:
Lange Videos gehen aber muss ja auch was kurzes für die Generation Insta bereit halten.
 

Anhänge

  • KI Katzen Content für TikTok.mp4
    7,1 MB
  • Gefällt mir
Reaktionen: blubberbirne
Ich denke ich werde aus Maik (mit AI) eine KI Meme machen :daumen:


 
  • Gefällt mir
Reaktionen: Keuleman
Comedy geht gut, ich hab über ein ähnliches Format nachgedacht. Aber nicht MAIk. Der ist genial!
 

Anhänge

  • LTX-2_00051_.mp4
    528 KB
:evillol:


 
  • Gefällt mir
Reaktionen: Keuleman
Was ist bei mAIk anders mit der Stimme, dass die nicht direkt nach KI klingt? Finde auch die Mimik nicht so überdeutlich als es öfters bei den KI Videos ist.

Gefällt mir sehr gut 👍
 
  • Gefällt mir
Reaktionen: blubberbirne
mAIk kommt komplett aus LTX2.3
Die Deutsch Sprache und die Mimik hat sich gegenüber LTX2 stark verbessert.
 
@Keuleman Das würde ich glatt machen wenn es eine TTS Engine geben würde die Emotionen besser vermittelt. Da habe ich leider noch nichts gescheites gefunden. Wenn da jemand einen Tipp hat, gerne her damit.
 
Da gibt's wohl noch nix. Mich schon mal schlau gelesen... das von Microsoft war wohl am Besten, ist aber wieder zurück gezogen worden. Name entfallen. Gab ein dickes und ein kleines Modell... das kleine gibt's wohl noch, das andere ist in den Tiefen verschwunden.

Hab mich mit "Win Pyvideotrans" für den Moment begnügt. Ist aber auch reine Sprachsynthese mit vorgegebenen Stimmen. Stimmtransfer nein.
 
Mich würde mal interessieren wie sicher in Bezug auf Datenschutz Comfy & CO sind!?
Klar, man kann einfach die Internetverbindung kappen während man sie benutzt. Aber wer sagt denn das die benutzten offline Modelle nicht doch hintenrum vom Material lernen oder daten zwischengespeichert werden um sie bei Gelegeheit online nach hause zu schicken?
 
Das wäre schon längst bekannt geworden.

MAIk hat größeres vor:

1773170963914.png
 
  • Gefällt mir
Reaktionen: Dennis_BW und Keuleman
@blubberbirne Hat sich bewährt, von einer Person mit Qwen Image Edit verschiedene "Startposen" zu machen -> dann wirkt jedes Ergebnis noch lebendiger.

Beispiele aktuelles Projekt bei mir:

01.jpg
02.jpg
03.jpg
 
Das kommt noch :daumen:

Ich habe einen passenden Workflow den ich eben für einen Mann angepasst habe. Auch hier wieder dank ChatGPT schnell erledigt. Hatte nur einen Prompt übersehen. Deswegen hatte MAIk eben Brüste :D
 
Zuletzt bearbeitet:
Zurück
Oben