Foocus Bildgenerierung - Wieso klappt das auf meiner schwachen Hardware?

Mondgesang

Lt. Commander
Registriert
Dez. 2023
Beiträge
1.210
Liebe Freunde,

ich bin etwas verwirrt. Ich bin auf das GitHub-Projekt Foocus von Nass-works gestoßen. Hier ist das Projekt: https://github.com/Nass-works/Fooocus-fixed-crash.

Die Beschreibung besagt, dass eine Grafikkarte mit mindestens 4GB VRAM benötigt wird, um dieses Programm auszuführen. Nebst Installation gibt es noch die Funktion "Open in Google Colab". Dort lässt sich dieses Programm ausführen und auch Bilder generieren. Nun ist meine Frage, warum das geht. Also jetzt wirklich. Irgendwie muss ich ja gerade scheinbar fremde Ressourcen benutzen oder?

Mein PC hat nämlich nicht mal eine Grafikkarte. Ich habe eine AMD Ryzen 5 4600G APU und sollte dieses Programm eigentlich nicht mal ausführen können.

Ich bin deshalb verdutzt, weil ich normalerweise alle Bildgeneratoren so kenne, dass sie nur ganz wenige Funktionen ohne Login und kostenlos anbieten und schon nach dem ersten Bild um einen Account bitten.

Übersehe ich hier also etwas?
 
Der Grafikchip ist in der CPU drin und der bekommt seine 4GB "VRAM" vom RAM, was auf Mainboard verbaut ist.
 
Mondgesang schrieb:
dass eine Grafikkarte mit mindestens 4GB VRAM benötigt wird
Mondgesang schrieb:
Ich habe eine AMD Ryzen 5 4600G APU und sollte dieses Programm eigentlich nicht mal ausführen können.
Wieso? Hast du weniger als 4G RAM?
 
Hast du das jetzt installiert oder in Colab laufen lassen?

Mondgesang schrieb:
Mein PC hat nämlich nicht mal eine Grafikkarte. Ich habe eine AMD Ryzen 5 4600G APU und sollte dieses Programm eigentlich nicht mal ausführen können.
Solange du genügend RAM hast, kann davon ein signifikanter Teil als VRAM genutzt werden.

Das ist halt ziemlich langsam, aber funktional.

Mondgesang schrieb:
Übersehe ich hier also etwas?
Naja, vermutlich Performance?

Mit welchen Modell renderst du, welche Auflösung nutzt du und wie lange dauert es, ein Bild zu generieren?
 
  • Gefällt mir
Reaktionen: Mondgesang
rollmoped schrieb:
Wie lange hat die Generation gebraucht?
Das geht ratzfatz. Erstaunlich schnell. Etwa 10 Sekunden und es sind 2 Bilder in der Auflösung 704x1408 fertig. Ja ich weiß es gibt irgendwelche RTX 4080 die 4K Bilder in Millisekunden erzeugen, aber für mich ist das hier sehr schnell.

rollmoped schrieb:
Wenn du es aber auf Google Colab benutzt, benutzt du die Hardware von Google.
Kostenlos? Das kann doch nicht.

LeahpaR schrieb:
Der Grafikchip ist in der CPU drin und der bekommt seine 4GB "VRAM" vom RAM, was auf Mainboard verbaut ist.
Oha, das kriegt mein kleiner Office-PC hin?
Ergänzung ()

Rickmer schrieb:
Hast du das jetzt installiert oder in Colab laufen lassen?
Bislang nur Colab. Hatte das mit der Installation eigentlich erst ad acta gelegt, als ich las dass eine Grafikkarte mit 4GB VRAM benötigt wurde. Aber jetzt wo ich eure Erläuterungen lese sollte ich es vielleicht einfach lokal installieren.
 
Ich würde es lokal auf jeden Fall mal ausprobieren.

Aber die Google Colab Umgebung wird deutlich schneller sein.
 
Mondgesang schrieb:
Das geht ratzfatz. Erstaunlich schnell. Etwa 10 Sekunden und es sind 2 Bilder in der Auflösung 704x1408 fertig. Ja ich weiß es gibt irgendwelche RTX 4080 die 4K Bilder in Millisekunden erzeugen, aber für mich ist das hier sehr schnell.
Du generierst über Colab. Die etwa 10 Sekunden sprechen für ein Lighning Model (LCM), was nur 4-8 Steps für die generierung braucht.
Eine 5090 kann auch keine 512x512px Bilder in Millisekunden generieren.
 
  • Gefällt mir
Reaktionen: Tr8or
rollmoped schrieb:
Doch, Colab ist kostenlos und selbst auf GPUs kann man den Code kostenlos ausführen.
Klingt für mich gerade ein wenig zu schön um wahr zu sein, denn wie gesagt, normalerweise alles an AI Websites da erstellst du ein halbherziges Bild und das wars. Login, Account, Bezahlmethode, usw. Daher war ich erstmal sehr skeptisch und vorsichtig.
 
Gleich mal als Vorwarnung, die iGPU im 4600G hat keine offizielle unterstützung für GPU Beschleunigung per ROCm und es müssten ggf. ein paar Umgebungsvariablen angepasst werden (Keine unüberwindbare Hürde, aber sei mal erwähnt). Und insgesamt läuft ROCm unter Windows afaik immer noch überhaupt nicht außerhalb von WSL.
 
Zuletzt bearbeitet:
Mondgesang schrieb:
Klingt für mich gerade ein wenig zu schön um wahr zu sein,
Ich denke, Google benutzt den eingegebenen Code um selbst seine KI zu trainieren und die Infos, die man auf Colab erstellt, sind meistens sehr hochwertig und technisch wertvoll.

Also anders ausgedrückt: Du bezahlst vermutlich mit den eingegebenen Daten, bzw. der Modellersteller mit seinem Code.
 
Mondgesang schrieb:
Oha, das kriegt mein kleiner Office-PC hin?
Ja klar. Wieviel RAM ist denn im PC verbaut?

Je nach Mainboard, kann man der iGPU ein definiertes RAM Volumen zuweisen. Standard sind bei z.B. 512MB zugewiesen und werden nach Bedarf erhöht.
Mit meinem 5600G ist z.B. das Spielen, mit fest zugewiesenen 4GB, viel besser.
 
Habe das gleiche Mainboard, für meinen Media-PC.

Im Bios unter dem Reiter:
Advanced -> NBIO Common Options -> GFX Cofiguration -> UMA Frame buffer Size
Hier können bis zu 16GB vom RAM für die GPU reserviert werden.
 
  • Gefällt mir
Reaktionen: Mondgesang
Zurück
Oben