[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

Krik schrieb:
ComfyUI in Pinokio unter CachyOS (Linux)


Jepp und das macht gute Bilder. Und es ist schnell genug, dass ich direkt mit einem größeren Anfangsbild anfangen kann. Ich bräuchte jetzt "nur" noch einen 2x Upscaler, aber das scheint es nicht direkt zu geben.

Bei Amuse gibt es eine ganze Reihe von modellen die sich nur ums Upscalen kümmern:

1771822980863.png


Z.B. RealESRGAN 2x (gibt auch 4x)
 
  • Gefällt mir
Reaktionen: Krik
Swin2SR 2x habe ich auf CivitAI gefunden. Ich werde den bei Gelegenheit mal testen.
Vielen Dank für den Screenshot. Vielleicht finde ich die anderen Upscaler auch auf der Seite. Oder ich gucke mal, ob ich sie von Hugginface runterladen kann.
 
LTX2 kann eben super geil einzelne Leute. Aber wenn es mehrere werden wird es schwierig, Minions kann es nahezu gar nicht (wird oft dann ein Fiebertraum :-D). Wollte für die Tochter was machen aber dann warte ich noch ein bisschen. Lag jedenfalls weder am RAM noch an der Grafikkarte. Ist einfach das Modell an sich. Hatte überlegt, dass vielleicht ein dickeres Sprachmodell davorgeschaltet bisschen was bringen würde aber nein, liegt am LTX selbst. - Macht nix, hört sich undankbarer an als ich bin. Ich habe schon echt geniale und lustige und berührende Dinge mit LTX 2 gemacht.

Und Grafikkarte und RAM... LTX2 ist bei 21 Sekunden einfach Schluss, das ist einfach eine Begrenzung des Modells. Auch eigentlich... echt "wild"! Das ist schon ne Menge.

Thema Upscaling: habe laufende Workflows zu SeedVR2, Supersharp, Hat. Falls Interesse besteht lade ich die gern mal hier rein.
 

Anhänge

  • Drama.mp4
    1 MB
Interessante Entwicklung. Ist zwar immer noch als KI-Inhalt zu erkennen, insbesondere die Gesichtsanimation ist stellenweise ruckhaft und etwas zu ausgeprägt, aber zukünftige Modelle werden das vermutlich irgendwann nicht mehr haben.
 
Ist halt das allererste lokal laufende Modell mit Video und Ton. Dafür mehr als beeindruckend. Und wenn man ein Video Richtung Provinztheater macht... großartig :-D
 

Anhänge

  • LTX-2_00011_.mp4
    1,9 MB
  • LTX-2_00031_.mp4
    1,1 MB
  • Gefällt mir
Reaktionen: blubberbirne, Tr8or und Maviapril2
Krik schrieb:
Swin2SR 2x habe ich auf CivitAI gefunden. Ich werde den bei Gelegenheit mal testen.
Vielen Dank für den Screenshot. Vielleicht finde ich die anderen Upscaler auch auf der Seite. Oder ich gucke mal, ob ich sie von Hugginface runterladen kann.
So weit ich weiß, sind das ja alles offene Modelle. Die müssten bei Github und Co egentlich zu finden zu sein.
Wenn du eines nicht finden solltest melde dich. Im Modelmanger in Amuse ist eigentlich immer der Link zur Seite des Modells dabei.
 
FluxKlein9B hat manchmal Probleme mit Anatomie. Anstatt dann mit Inpainting zu arbeiten oder auf einen anderen Seed zu wechseln, bietet sich der Einsatz dieser LORA an. Funktioniert in den meisten Fällen und fixt die Fehler. (LORA wirkt generell bereits ab 0.5, in dem Beispiel hat es 1.5 gebraucht um neben des 3. Arms, der bereits bei 0.5 verschwunden ist, auch noch einen Finger dazu zu geben.)
 

Anhänge

  • fluxKlein_anatomy_slider_LORA.png
    fluxKlein_anatomy_slider_LORA.png
    3,2 MB · Aufrufe: 16
Würde meine Issues mit Flux 2 Klein lösen. Allerdings bin ich da gerade auf das große Modell gegangen, das find ich im Gegensatz zum kleinen gerade richtig gut.
Flux2_00035_.png
 
Keuleman schrieb:
TX2 ist bei 21 Sekunden einfach Schluss, das ist einfach eine Begrenzung des Modells. Auch eigentlich... echt "wild"! Das ist schon ne Menge.

Das ist eine Begrenzung von deinen System. Ich kann mit LTX2 in 720p 30 Sekunden Videos generieren.
 
Zurück
Oben