[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

Es gibt Leute, die das fp32 Modell verwenden von Z-Image ^^ Man muss dann comfyui mit einem Starparameter starten, damit das auch entsprechend geladen wird.

Ich habe mittlerweile noch herausgefunden, dass eine höhere Start-Auflösung direkt bessere Ergebnisse bringt bei z-image. Bei Sampler Scheduler die üblichen Euler, Res2_s mit z.B. normal, simple, beta. Steps ~35. (Ah und sage-attention verträgt sich wohl nicht mit z-image, falls das aktiviert ist, mal ohne testen.)
 
Zuletzt bearbeitet:
MechanimaL schrieb:
Es gibt Leute, die das fp32 Modell verwenden von Z-Image ^^
Den unterschied will ich sehn 🤔
Bei Flux 2 hab ich alle Quantisierungen getestet. Nur beim niedrigsten Model is mir was aufgefallen wobei die Qualität ebenfalls hoch war.
Man muss auch bedenken, das die großen Modelle eben auch die Hartware fordern. Das heißt konkret: mehr Strom aus der Dose ziehn. Ich hab beschlossen, das sich das nicht lohnt.

---

Ich sprach davon, die Unterschiedlichen Stärken und Stile der Modelle zu nutzen:
Das ist mit CyberRealistic gemacht. Schaut nicht schlecht aus, guter Seed
playground-generated-20260129-210129-0-woman sensual daydreaming expression d-3.png

Gleicher Text bei Flux natürlich anderes Ergebnis. Kann man mögen.
playground-generated-20260129-210217-0-woman sensual daydreaming expression d.png

Schöner finde ich das Ergebnis:
playground-generated-20260129-210800-0-woman sensual daydreaming expression d.png
 
  • Gefällt mir
Reaktionen: Dennis_BW und MechanimaL
Mal noch 2 Z-image bilder vom sampler testen.. 35 steps, cfg 6. 1344x1728

A close-up photographic portrait of a young adult Scandinavian woman with light copper-red hair, clear fair skin, bright blue eyes, and a natural scattering of soft freckles across her nose and cheeks, framed from the shoulders up with her face filling most of the frame. Her hair is a pale redhead tone with subtle golden undertones, fine and straight with a slight natural wave, parted slightly off-center and falling loosely around her face, individual strands softly illuminated. Her blue eyes are crisp and luminous with sharp focus on the near eye, relaxed eyelids, and a calm, neutral expression that feels intimate and unposed. The freckles are delicate and realistic, varying in size and density, visible without overpowering the skin texture, with natural pores and faint imperfections preserved for authenticity. The lighting is soft northern daylight coming from a large window at a 45-degree angle, creating gentle highlights on the cheekbones and bridge of the nose with smooth shadow falloff and no harsh contrast. Shot on a full-frame DSLR with an 85mm portrait lens at shallow depth of field, creamy background blur, true-to-life skin tones, minimal makeup, natural lips, understated styling, and a clean muted background in cool gray tones. The overall mood is quiet, elegant, and realistic, with high-resolution photographic detail, cinematic softness, and precise focus on facial features.

1769726235338.png

1769726342272.png

1769726496274.png
 
  • Gefällt mir
Reaktionen: Tr8or und Meta.Morph
Ok Leute, da ja die Frage nach LTX2 Workflows schon öfter aufkam, hier mal eine Quelle für solche und noch eine weitere. Da ist alles dabei, was bisher Thema war und ihr könnt solche schönen Videos wie hier erstellen (siehe auch weiteren Link im Post).

Bin zufällig auf den hf-Link gestoßen durch dieses Video mit First/Middle/Last-Frame für LTX2: (@Tr8or vll auch was für dein Teddybär Projekt?)

 
  • Gefällt mir
Reaktionen: Keuleman, Tr8or und Dennis_BW
MechanimaL schrieb:
First/Middle/Last-Frame
Oh, das war mir komplett unbekannt. Da lässt sich was mit machen.

Muss mich insgesamt aber wohl mal mehr damit befassen, würde schon gern eine Lora odgl erstellen, wo ich den Teddy in 3D oder zumindest aus allen Ansichten abgelegt habe.
 
mal eine Frage, ihr sagt ja ich soll die fp8 datei laden. Aber comfyui hat nur die datein zum starten: run_nvidia_gpu.bat UND run_nvidia_gpu_fast_fp16_accumulation.bat
Welche muss ich denn dann nehmen?^^
 
Die "noch eine weitere Quelle" von dem RuneXX rockt. Geniale Workflows. Bin ganz baff. Immer noch den "Potato" PC mit RTX 4070 aufgebaut und... klappt! Danke, @MechanimaL
 
ChatGehPeeTee schrieb:
muss ich von beiden links files laden oder nur vom 2.?
Wenn Du über 12GB VRAM hast, würd ich zunächst das bf16 Modell probieren. Bei 12GB mal probieren, ob es einen großen Unterschied macht. (Generell gibts bei Nvidia 40/50 Series mit fp8 einen Geschwindigkeitsvorteil, der bei 20/30 Series nicht vorliegt, dann ist halt noch die Frage inwiefern man evtl nur kleine Qualitätsunterschiede ggü. Geschwindigkeit persönlich aufwiegt.)

Es gibt noch spezielle NVfp8 Modelle von z-image, die besonders optimiert auf kleinere Größe sind und auch unter 8GB gut laufen sollen. Das Max Modell ist an fp32 und das andere an bf16 orientiert.

Desweiteren gibt es speziell an z-image angepasste Textencoder (ZEngineer).

Wie immer gilt fröhliches Testen :) und Erkenntnisse gerne hier teilen.
 
Zuletzt bearbeitet:
Wie kann man EasyDiffusion unter Windows neu installieren?

Hallo, habe folgendes Problem mit EasyDiffusion: zunächst war die Version 3.0.9 installiert und lief problemlos auf dem Windows 11-Rechner. Um sie durch die neue Version zu ersetzen, habe ich den Rat auf Github befolgt, die alte Version zunächst durch Löschen des gesamten Programmverzeichnisses deinstalliert.

Aber: nach dem Download und der Installation der aktuellen Version bricht der Start jedesmal mit Fehlermeldungen ab. Sie scheinen sich auf Überbleibsel des alten Version von Python zu beziehen. Wie kann ich eine komplette Deinstallation und saubere Neuinstallation erreichen?
 
Zurück
Oben