[Sammelthread] AI - Bildgenerierung (Stable Diffusion, Midjourney & Co)

@MechanimaL @painomatic

Nochmals vielen Dank für die Antworten, und die Mühe der Auflistung!

Da steht fast eine unüberschaubare Menge an Programmen zur Verfügung, die ich in der nächsten Zeit mal an testen möchte, um zu sehen in welche Richtung dies für mich gehen könnte., als Zusatz oder gar als Alternative zur bisherigen Arbeit in einem herkömmlichen CGI- Programm.

Beides scheint Vor- und Nachteile zu haben, eine Verknüpfung beider Macharten erscheint vielleicht zukunftsweisend, und eröffnet gleichzeitig auch eine neue Phase der Kreativität, und vor allem wieder frischen Spaß an der Sache.

Verblüffend natürlich auch die technischen Fortschritte der AI- Programme, die gefühlt alle paar Monate einen deutlichen Schub an Leistungsfähigkeit mit sich bringen.

Sobald ein halbwegs vorzeigbares Ergebnis meinerseits vorliegt, werde ich es hier mal posten, dies kann aber ein wenig dauern.

EM
 
  • Gefällt mir
Reaktionen: MechanimaL
Hallo,

an bei der allererste Versuch meinerseits auf diesem Gebiet, für den semiprofessionellen KI- Nutzer natürlich ernüchternd, für mich vielleicht ein neues Kapitel im Buch des Lebens.

Ein vorhandenes Bild (1) mit der Beschreibung- tiny giraffes coming out of the blob-wird bei ChatGPT zu- schimmernde Giraffen unter zerbrechender Kuppel- aber erst nach mehr als 10 Stunden der Verarbeitung aufgrund der hohen Nachfrage.

Bild(2) zeigt das Konstrukt, mit Veränderungen, die selbstständig vorgenommen wurden. Das Schimmern war keine Vorgabe, auch wurde die Geometrie geglättet, und einige Kugeln dazu gedichtet. Die Ausrichtung der Giraffen der Form folgend gefällt mir, da liegt ein großes Potential verborgen.

Insgesamt bin ich schon ziemlich angetan von der Perspektive die geboten wird, auch wenn dieser Erstling noch viele Wünsche offen lässt.

EG
 

Anhänge

  • 2.png
    2.png
    2,1 MB · Aufrufe: 113
  • 1.png
    1.png
    3,3 MB · Aufrufe: 101
  • Gefällt mir
Reaktionen: Schwachkopp und Tr8or
Irgendwie niedlich :) (Dein Prompt mit fooocus)

2025-05-30_17-11-54_1423.jpg2025-05-30_17-11-40_4585.jpg
 
  • Gefällt mir
Reaktionen: Emil Galotti und MaverickM
Hier mal die Ergebnisse aus Midjourney mit dem Model v7

1000056062.png1000056061.png
 
  • Gefällt mir
Reaktionen: Emil Galotti und Tr8or
@Emil Galotti: Also Du hast links das Bild als Input genutzt, korrekt? Das hier:

https://bfl.ai/models/flux-kontext

könntest Du auch mal probieren (auf der Seite gibt es 200 Credits zum Start), man kann per Prompt Bilder editieren. Während ich den Launch vor ein paar Tagen zwar mitbekommen habe, hatte ich übersehen, dass auch ein Dev (kostenloses)-Modell angekündigt wurde :) -->

1748811494355.png
 
Benutzt hier jemand Wan Vace 14B? Ich komm da zu keinem Ergebnis. Ich benutze Wan über Pinokio, vielleicht ist das das Problem?! Causevid Lora kann ich auch nicht mehr benutzen. Aber alles andere funktioniert bestens. 🤔
 
@Ghosa benutze es in ComfyUI. Hast Du mal ein Update innerhalb von Pinokio probiert?
 
  • Gefällt mir
Reaktionen: Ghosa
Hier mal ein paar Beispiele vom Video Model V1 aus Midjourney. Beim generieren mit eigenen Bildern bekommt man immer 4 Beispiele, wobei es keine Option zum Upscale gibt. Man hat zwei Modi: Automatic and Manuel mit den Stufen Low and High Motion. Meine Videos sind alle mit dem Automatic Mode entstanden. Kostet auch ordentlich Credits 🤘








 
  • Gefällt mir
Reaktionen: MechanimaL
Du hast also image2video gemacht in dem Fall? Die lokalen Video Modelle (insb. Wan2.1, aber auch LTX) haben in den letzten Wochen auch große Fortschritte gemacht. Es gibt etliche Loras, die nicht nur die Qualität verbessern, sondern auch die Geschwindigkeit beim Generieren deutlich erhöhen (bei Wan aktuell zwischen 2-8 Steps möglich). Die folgenden beiden Clips sind nach Prompts eines Users des FusionX Discord Servers (Fusion X ist ein Finetune (mittels Loras) des WAN Models.) Die Zeit zum Generieren betrug etwas über 2 Minuten für 5 Sekunden. Auf besagtem Server ist auch ein chatGPT verlinkt, das man verwenden kann, um cineastische Prompts zu erhalten, sehr nützlich! (wan2.1 optimiert).

Was neben text2image auch geht ist image2video, startframe-endframe, Videos verlängern (extend), reference2video (2-3 Personen/objekte), lippensyncro usw. :)


Close-up on a fish underwater, light shafts penetrating from above. Suddenly, a large hairy hand plunges in and grabs it. Camera whip-pans up (slowly for Wan compatibility) to show Bigfoot emerging from the river, soaked and triumphant. He lumbers toward shore with the catch in hand, steam rising off his fur in the chilly air. The atmosphere is primal and exhilarating, set in cool, earthy tones.


A soft-focus close-up of the little girl’s wide, curious eyes as she watches something fluttering near her cheek. The camera slowly dollies out to reveal a glowing, thumb-sized Tinkerbell hovering beside her face, wings buzzing with golden light. The girl giggles and holds out her pinky finger, which Tinkerbell lands on gracefully. Warm rim lighting and pastel colors create a cozy, enchanted atmosphere.
 
Zuletzt bearbeitet:
Flux Kontext (gabs bisher nur gegen $ in der Pro-Version) ist als DEV Model für lokale Nutzung erschienen! Es ist ein Modell, das ähnlich wie Hidream Edit promptbasiertes Editing erlaubt. Ähnlich dessen wonach @Emil Galotti weiter oben gefragt hatte.
1750969863762.png

In Swarm UI+ComfyUI wird es bereits unterstützt. (andere GUIs evtl auch bzw. werden folgen, sofern sie FLUX Modelle unterstützen).
Download: Full Model, FP-8

Möglicherweise war der kürzlich erfolgte Release des ähnlich arbeitenden - ebenfalls kostenlosen - Omnigen2 der Auslöser, das BL-Labs nun (endlich) auch die Dev-Variante von Kontext veröffentlicht haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Uzer1510
Beschäftigt sich hier zufällig jemand sehr intensiv mit ComfyUI und komplexer Bildgenerierung?
Video ist nicht so meins, konzentriere mich primär auf die Bilder (Flux, früher SDXL) und versuche da gerade meinen workflow zu verbessern.

Es gibt unzählige Tutorials, aber die kratzen gefühlt alle an der Oberfläche und zeigen nur die basics.
Gerade was die Möglichkeiten zum qualitativ hochwertigem upscaling angeht (wo ich aktuell echt nicht weiter komme).

Mein Vorbild ist z.B. dieses Bild: https://civitai.com/images/83034783
Ich habe keine Ahnung, wie man so hochauflösende Bilder generiert. Bei 100% zoom sieht alles super scharf aus, z.B. beim Fell des Bären.

Ich hab natürlich nachgefragt, ob sie mir sagen kann, wie sie arbeitet, oder was für einen workflow sie verwendet.
Sie hat ihn von einem anderen Creator erhalten und versprochen, den workflow nicht weiter zu geben -.-

Nur den groben Ablauf hat sie mir mitgeteilt: Bildgenerierung mit Flux -> Upscaling mit SDXL und detailer LoRAs -> Face detailer mit SD1.5

Meine Bilder beschränken sich bisher auf: Bildgenerierung mit Flux -> "highres-fix" mit Flux.
Damit erreiche ich scharfe Bilder mit 1328x1944 Pixeln, aber eben nicht mehr. (z.B.: https://civitai.com/images/49125713)
Habe dann anschließend noch rumexperimentiert mit Tiled Upscaling per Flux/SDXL, aber die Ergebnisse sind immer 'mäh'. Die Bilder werden bei mir größer, aber nicht wirklich detailreicher (also bei 100% zoom dann eher unscharf).

Online finde ich dazu wie gesagt auch nur wenig Infos. Nichts was auch nur annähernd in die Richtung von obigen Bild geht.

Vielleicht habt ihr ja ein paar Tipps, oder kennt Seiten, auf denen man solche Infos findet :)

edit: okay, hab jetzt was gefunden '.'
 
Zuletzt bearbeitet:
MechanimaL schrieb:
Du hast also image2video gemacht in dem Fall?
Jup, das bietet Midjourney direkt unter den generierten Bildern als Menüpunkt an.
 
zidius schrieb:
Habe dann anschließend noch rumexperimentiert mit Tiled Upscaling per Flux/SDXL, aber die Ergebnisse sind immer 'mäh'. Die Bilder werden bei mir größer, aber nicht wirklich detailreicher (also bei 100% zoom dann eher unscharf).
Also mit Ultimate SD Upscale oder wie hast Du es angewendet? Das ist in der Regel schon eine gute Wahl und gängige Methode. Vieles hängt dann von den verwendeten Einstellungen (von Base Model, über Upscaler bis zu Denoising Einstellungen) ab.

zidius schrieb:
Bildgenerierung mit Flux -> Upscaling mit SDXL und detailer LoRAs -> Face detailer mit SD1.5

Ok, also Bilderstellung mit Flux (ggf. hiresfix) -> Ultimate SD mit einem SDXL Model (und/oder SUPIR (ist glaub ich immer mit SDXL Model unter comfy) unter Einbindung von Detailer LORA(s) und am Ende ein Facedetailer mit einem SD1.5 Model (wobei man da wsl einfach das zuvor verwendete SDXL Model nutzen könnte). Wie gut der mir bekannte Facedetailer für comfy bei sehr hohen Auflösungen funktioniert müsste ich mal selbst testen.

Hier mal ein Beispiel Deines Bildes mit diesem Workflow. (ohne den Facedetailer Part, der ist dort auch im Ablauf vor dem Upscale). Ob es nötig oder sinnvoll ist da mit Flux zu arbeiten (beim SD Upscale ,wie in diesem Workflow) muss ich selbst mal vs SDXL gegenchecken, denn das dauert auch deutlich länger.

Supir würde ich empfehlen zu testen ggf. auch ohne Upscalefunktion, um weitere Details zu bringen oder zu
verschönern. Ich habe zwar aktuell kein Bild, das ich so hochskalieren möchte, aber wollte auch mal einen optimierten Workflow für Upscaling haben (in meinem Fall img2img, da ich bis hiresfix im SwarmUI erzeuge), also können wir uns da gerne weiter austauschen :) (Was alles reinkommt ist die eine Sache, die Reihenfolge die andere und dann die besten Settings.) Neben den genannten Dingen könnten Controlnet(s) auch noch eine Rolle spielen.
 
  • Gefällt mir
Reaktionen: zidius
Weiter austauschen klingt super 👍

Habe gestern den ganzen Tag rumprobiert und bin tatsächlich gut weiter gekommen.
Bin dabei auf den gleichen Weg wie auch von dir beschrieben gekommen: Flux Generierung + hiresfix -> Ultimate SD Upscale (<-- damit habe ich vorher auch gearbeitet, aber bisher nur schlechte Ergebnisse erzielt) mit SDXL + einem Detail-LoRA -> SDXL Facedetailer
Und beim Facedetailer hatte ich die gleiche Frage im Kopf wie auch du: Warum der zusätzliche Rückgriff auf SD1.5? Habe mit 1.5 nie gearbeitet und hätte mir nur vorstellen können, dass der Facedetailer dort eine bessere Implementierung hat, oder es fürs Face bessere LoRAs gibt(?)

Den SDXL Facedetailer muss ich mir heute aber noch genauer angucken. Hatte da gestern keine Zeit mehr für. Ergebnisse sind schon nett, aber da geht noch mehr.

Zu deinem Upscale von meinem Bild:
Hier sehe ich eigentlich wieder genau das von mir beschriebene Verhalten: Das Bild wird größer, aber nicht wirklich detailreicher und die Artefakte werden ebenfalls mit vergrößert.
Das hier ist mein aktuelles Ergebnis inkl. "Facelift": https://civitai.com/images/85203733
Im direkten Vergleich eines Ausschnitts unserer beiden Ergebnisse:
Vergleich.jpg


Meine Version wirkt sehr "clean". Da ist der (ich nenn es mal) staubige Wüsteneffekt verschwunden. Bräuchte dafür vielleicht noch zusätzliche Effekt-LoRAs für SDXL beim upscale.

Aber von den ganzen eingebauten Details bin ich beeindruckt. Alleine die Ledergürtelelemente mit den kleinen Verzierungen :o

Zu SUPIR:
wow, super mächtig! Das oben verlinkte Video ist schon fast das perfekte Tutorial dafür. An unterschiedlichen Beispielen erklärt er, warum man welche Parameter wie setzen sollte.
Leider gerate ich da mit meinen 16GB VRAM schnell an die Grenze des möglichen.
Ein Upscale mit Faktor 2 bei meinem 1328x1944 klappt schon nicht mehr.
Daher muss ich hier etwas kleiner starten, aber die Ergebnisse sind richtig stark!: https://civitai.com/images/85208032
Das Auge war vorher schon (leider leider) extrem unscharf (Der Rest sah nur so gut aus, dass ich weiter mit dem Ergebnis arbeiten wollte). Aber selbst das hat SUPIR schon deutlich verbessert.
 
Also mal soweit ich mich erinnere: Schon unter 1.5 konnte man sehr hoch upscalen und zwar mit tiled upscaling. Am Ende führt daran kein Weg dran vorbei, da der VRAM sonst limitiert. Nachteil jeweils, dass das Upscaling immer nur einzelne Tiles also Kacheln sieht und entsprechend bei höherem denoising insb. anfängt dort Dinge reinzuintpretieren, die garnicht zum Gesamtbild passen. Entsprechend kamen Controlnets auch speziell für Upscaling, die dafür sorgen, dass das Originalbild mehr erhalten werden kann und trotzdem genügend Raum für Details ist. Das ganze gibts mittlerweile für 1.5/SDXL/Flux. Was davon an welcher Stufe für was besser ist, wäre eine Frage.

SUPIR unter comfy hat auch eine tile-Funktion (im Sampler), hast Du die benutzt? Damit blieb es bei mir unter 16GB VRam Nutzung bei 2x Upscale (~11,5).

Welchen Workflow hast Du jetzt benutzt? Habe gesehen, dass ich den Workflow von dem von Dir geposteten Video auch noch gespeichert habe, falls Du den probieren möchtest (der Link im YT Video ist ja nicht mehr abrufbar). Bei Deinem Ergebnis-Beispiel, würde sich der Facedetailer definitv noch lohnen, bzw. inpainting im Gesicht /Augen.

ComfyUI: Fix Your faces with the Face Detailer Node - A Simple and Easy Workflow! - YouTube

Hier noch ein Supir Video, das ich - neben dem von Dir geposteten - in meine Lesezeichen aufgenommen hatte.
 
Zuletzt bearbeitet:
Aktuell nutze und modifiziere ich meinen eigenen workflow. Ich gucke mir alle komplexen workflows an, die ich finden kann (überwiegend auf civitai), aber erstaunlicherweise habe ich dieses Idee mit "Ultimate SD Upscale + detail LoRA" noch bei keinem gesehen. Dabei geht das definitiv in die richtige Richtung.

Die Probleme mit tiled upscaling haben auch mir immer zu schaffen gemacht:
Entweder mein denoise Wert war zu gering -> Bild wird nur größer/unscharf, aber nicht detaillierter
oder der Wert war zu hoch -> Man sieht die Kachelstruktur oder die KI interpretiert komplett neue Sachen hinzu.
Welche controlnets speziell für upscaling meinst du? In SUPIR ist wohl einer eingebaut, aber z.B. für Ultimate SD Upscale kenne ich diese Option nicht.

Tile-Fuktion bei SUPIR ist ein guter Hinweis. Habe ich gestern Abend auch entdeckt und damit läufts 👍
Schade nur, dass es die nicht auch beim FaceDetailer gibt.
Und danke für den extra yt-link.

Wenn du mir den workflow aus dem ersten Video geben könntest, wäre das sehr hilfreich. Super, dass du den gesichert hast.

Hier noch mein aktueller Versuch mit Ultimate SD Upscale + LoRAs -> FaceDetailer: https://civitai.com/images/85460177
Habe das Gesicht sogar extra noch per SUPIR mit Faktor 2 vergrößert und dann wieder verkleinert, weil es zuerst leicht unscharf wirkte.

Entscheidend sind hier echt die checkpoints und die detail-LoRAs. Hast du da zufällig auch ein paar Favoriten?
Die besten Ergebnisse erreiche ich mit:
https://civitai.com/models/229213/e...trigger-slidersntcaixyz?modelVersionId=383563
https://civitai.com/models/122359/d
in Kombination.
 
  • Gefällt mir
Reaktionen: Ghosa
Im Anhang schon mal der besagte Workflow aus dem Video.

Die controlnets für tiled-upscaling sind:
  • Flux (gibt auch fp8 Versionen)
  • bei SD 1.5 heißt es controlnet tile 1.1 (das hab ich damals nachgemacht und das war (damals!) beeindruckend
  • bei SDXL gibt es zwei: 1 und 2 (wie gut die sind- keine Ahnung)

Ob sie Dir helfen, kann ich nicht sagen, die Beispiele geben ja eher nicht soviel her. Bei civit gibts jeweils auch workflows.

Bzgl. LORAs im Upscaling Prozess kann ich jetzt leider keine persönlichen Empfehlungen aussprechen bin aber gespannt, was Du herausfindest. Es gibt ja schon Upscaler Workflows mit LORA drin, oder? z.B. den ich oben bei dem kurzen Test von mir verwendet hatte.

Ich befasse mich jetzt grad eher mit FLUX KONTEXT - das lohnt sich definitiv zu testen :)
 

Anhänge

  • Gefällt mir
Reaktionen: Ghosa und zidius
Du hast absolut recht, in dem von dir verlinktem workflow ist tatsächlich ein LoRA-Node für den Ultimate SD Upscaler drin. Habe ich übersehen und bisher sonst noch bei keinem anderen workflow gesehen.

Meine Tests gestalten sich als langwierig. Ich probiere jetzt mit 2,5x Upscale (um auf die Auflösung von meinem Vorbild-Pic [Bärenreiterin] zu kommen), was pro Bild bei mir sehr lange dauert.
Da hätte ich jetzt gerne deine 5090 :D

Es scheint auch keine "goldene-LoRA-Kombination" zu geben. Bei jedem Bild scheinen andere LoRA Kombinationen mal besser / mal schlechter zu klappen.

Flux Kontext sieht auch sehr spannend aus.... da fehlt mir aber gerade die Zeit zu.
Auch den supir-v2-plugandplay workflow habe ich mir noch nicht angucken können (aber danke für den upload 👍)


Bin auch gerade noch zusätzlich an was anderem dran: Sicherheit gegen pythen-Dateien in comfyui.
Man kann ja nie 100% sicher sein, dass die Dateien safe sind.
Auch Dateien wie .ph oder .pt können Pickle-Objekte enthalten, die beim Laden beliebigen Python-Code ausführen.
Und von denen gibt es in comfyui viele. Modelle kommen auch oft in .ph daher.

Wie schützt du/ihr euch davor?
Virtuelle Maschinen / sandbox sind schwierig wegen der ungünstigen Anbindung an die Hardware... entweder sehr schlechte performance oder es läuft gar nicht, weil es keine Treiber gibt, oder es von nvidia direkt geblockt wird.
(so habe ich das zumindest bisher verstanden bei meiner Recherche)

Versuche gerade, ein Ubuntu unter WSL aufzusetzen, um ComfyUI sicher zu betreiben. 100% sicher ist das aber wohl nicht, weil ich den Zugriff auf meine Windows-Laufwerke nur innerhalb von Linux (WSL) unterbinden kann. Solange ein potenzieller Schadcode keine Root- (sudo-)Rechte bekommt, ist das noch okay, aber falls diese Hürde überwunden wird, wäre wieder alles möglich :skull_alt::skull_alt::skull_alt:
Ideal wäre es, wenn ich von Windows aus den Zugriff auf meine Laufwerke für WSL komplett sperren könnte, aber so eine Funktion scheint es im WSL leider nicht zu geben... (zugegeben: WSL ist dafür eigentlich auch nicht gedacht)
 
Zuletzt bearbeitet:
Das Upscale Thema ist eines das dauerhaft interessant bleiben wird, jedenfalls sobald man ein Bild hat, das man im A2 Format (oder ähnlich) ausdrucken will und auf eine entsprechende Größe bringen möchte oder klar, einfach der Reiz der hohen Detailreichen Auflösung zum sich dran Erfreuen ;)

Weiß nicht genau, ob der Gedanke jetzt abwegig ist, aber Du könntest auch den Fokus auf das Verfahren bis zum Ende des Hiresfix legen, dass das Bild dort möglichst viel an Schärfe, Tiefe und Details hat und dann ein Upscaler das ganze "nur" noch auf die gewünschte höhere Auflösung bringt, ohne viel Änderung/Detaillierung usw. machen zu müssen? Also so oder so hängt das Endergebnis mit den Vorergebnissen zusammen, sozusagen, dass man in jedem Schritt soviel Prozent rausholt wie möglich, wäre auch ein Gedanke.

Andererseits könnte es je nach Upscale Methode auch sinnvoll sein, nicht die größte Schärfe und Detaillierung zu haben, damit der Upscaler nicht zuviele Details verfremden kann sondern eher grade wieder das reinbringt, was nötig ist. ^^ Da geht echt nix über Probieren und Experimentieren und es ist wahrscheinlich für verschiedene Styles (Foto vs Painting) auch nochmal anders zu betrachten, auch diese x4 Upscaler, von denen es ja einige gibt, arbeiten zum Teil besser mit Kunst vs Foto.

Zum Sicherheitsthema, wegen der 50er Serie muss ich sowieso mit Pytorch 2.7+ arbeiten. Ab 2.6 wurde einige Sicherheitsmaßnahmen hinzugefügt, ich hoffe es ist ok, wenn ich als Spoiler eine gpt Zusammenfassung dazu reinstelle, als Übersicht. Das wäre z.B. ein Schritt, neben der Vorsicht, keine Modelle aus fragwürdigen Quellen und am besten nur im safetensors-Format zu benutzen.

In Kurzfassung: PyTorch hat mit Version 2.6.0 (bzw. 2.7.x) entscheidende Security‑Härtungen eingeführt, um das Ausführen von beliebigem Code über .pt/.pth-Modelle zu verhindern:

🚨 1. Fix des RCE-Bugs beim weights_only=True-Modus​

  • Bis einschließlich Version 2.5.1 war es möglich, über speziell präparierte .pt/.pth-Dateien selbst bei torch.load(..., weights_only=True) Code‑Ausführung zu erreichen – ein kritisches Remote‐Code‐Execution-Problem (CVE‑2025‑32434, CVSS 9.3) pytorch.org+6github.com+6kaspersky.com+6.
  • Ab Version 2.6.0 wurde dieser Bug geschlossen. Anwender werden dringend zum Update auf v2.6.0 oder höher eingewiesen .

🔧 2. Strengere Sicherheitsregeln bei torch.load()

  • PyTorch führt nun im weights_only=True-Modus noch strengere Prüfungen ein: nur noch Tensoren, primitive Typen und über add_safe_globals() explizit freigegebene Klasse/Module dürfen deserialisiert werden msspalert.com+3pytorch.org+3cyberpress.org+3.
  • Das Dokument zu torch.load weist jetzt deutlich auf die Risiken von Pickle hin und empfiehlt, nur vertrauenswürdige Daten zu laden github.com+3pytorch.org+3snyk.io+3.

🛡️ 3. Empfehlung hin zur Nutzung von safetensors

  • safetensors speichert ausschließlich rohe Tensoren ohne Pickle‑Format und ist daher immun gegen Code‑Injection‑Gefahren.
  • Auch wenn es nicht direkt mit 2.6/2.7 ausgeliefert wird – die Community empfiehlt mittlerweile stark, Modelle mit safetensors statt .pt/.pth zu verteilen.

🔐 4. Sicherheits-Best Practices / allgemeine Hardening‑Maßnahmen​

🏁 Fazit​

MaßnahmeWirkung
Update auf PyTorch 2.6+Schließt Crit‑RCE bei weights_only=True
Strikte torch.load‑ChecksNur sichere Objekte werden geladen
safetensors nutzenPickle‑frei und daher sicher
Sandbox + ProvenanceZusätzlicher Schutz vor Supply‑Chain‑Attacks
 
Zurück
Oben