Welches Notebook für AI Art (stable diffusion)?

bickid

Cadet 4th Year
Registriert
Mai 2013
Beiträge
88
Keine akute Kaufangelegenheit, aber: falls ich einen Laptop will, der primär für AI Art benutzt werden soll, welchen würdet ihr da empfehlen? Alles andere ist egal, nur Preis sagen wir mal bis 2000 Euro.

Danke
 
Geizhals Filter auf dickste GPU für 2k stellen, wahrscheinlich 4070 (8GB) oder 3080 Ti (16GB VRam).
 
  • Gefällt mir
Reaktionen: bickid
Du willst das Maximum an VRAM, den du für das Geld bekommen kannst. Alles andere ist erstmal sekundär.
Und vermutlich ne Nvidia-GPU, einfach weil CUDA besser unterstützt wird
 
  • Gefällt mir
Reaktionen: bickid
Model schrieb:
Geizhals Filter auf dickste GPU für 2k stellen, wahrscheinlich 4070 (8GB) oder 3080 Ti (16GB VRam).
Soweit ich mich eingelesen hab, wäre die 3080 Ti hier besser, weil mehr VRAM entscheidender ist. Oder.
 
bickid schrieb:
weil mehr VRAM entscheidender ist. Oder.
die A6000 mobile gibts mit bis zu 24gb.
16GB ist extrem knapp. Dabei geht es gern nicht um "schneller oder langsamer" sondern schlicht darum, ob etwas generell geht oder nicht.

Ich halte nichts davon Laptops mit dem Usecase auszusuchen. Wenn man so etwas mobil machen will, hat man einen entsprechenden Desktop PC, mit dem man sich daheim verbindet, oder lässt die Anwendung auf Minutenweise gemieteter Hardware laufen
 
madmax2010 schrieb:
Dabei geht es gern nicht um "schneller oder langsamer" sondern schlicht darum, ob etwas generell geht oder nicht.
Genau das. Die Geschindigkeit der GPU sagt etwas darüber aus, wie schnell ein Projekt gerechnet wird. Die Menge an VRAM sagt aus, ob das Projekt überhaupt gerechnet wird.

Einen dicker Desktop mit einer 24 GB VRAM GPU (kann auch AMD sein), auf dem z.B. Easy Diffusion mit Netzwerkfreigabe läuft, wäre auch meine präferierte Lösung. Zugreifen kannst du dann über den Browser von jedem Gerät, das sich im (oder wenn du willst auch außerhalb) des Netzwerks befindet
 
Je nach dem was du machst funktioniert es auch mit nur 8GB.
Solltest du wirklich mit einem Laptop SD darauf betreiben wollen, ist die 3080ti mit 16GB schon sehr gut.
Wenn du damit LORA#s oder Checkpoints trainieren möchtest, würde ich direkt zur 4090 im Desktop greifen. Darunter macht es wenig Sinn sein Geld zu investieren.
 
Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop. Wenn da ne 3080Ti das beste bis 2000 Euro ist, ist das gut zu wissen. Laut Geizhals kostet ein Gigabyte-Laptop damit sogar nur knapp 1500 Euro.
NameHere schrieb:
Je nach dem was du machst funktioniert es auch mit nur 8GB.
Solltest du wirklich mit einem Laptop SD darauf betreiben wollen, ist die 3080ti mit 16GB schon sehr gut.
Wenn du damit LORA#s oder Checkpoints trainieren möchtest, würde ich direkt zur 4090 im Desktop greifen. Darunter macht es wenig Sinn sein Geld zu investieren.
Da du in der Materie drin bist: was sind den Checkpoints im Kontext von Stable Diffusion? Loras sind wohl individuell trainierte KIs, richtig?
 
bickid schrieb:
Checkpoints im Kontext von Stable Diffusion?
Das was sie in jedem ML Kontext sind. Bis zu einem besteimmten Punkt trainierte Modelle.
bickid schrieb:
oras sind wohl individuell trainierte KIs, richtig?
Fintuning / Low-Rank Adaptation
bickid schrieb:
Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop.
Mit einem solchen Laptop bist du aber weniger mobil
 
bickid schrieb:
Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop. Wenn da ne 3080Ti das beste bis 2000 Euro ist, ist das gut zu wissen. Laut Geizhals kostet ein Gigabyte-Laptop damit sogar nur knapp 1500 Euro.
Du meinst dieses https://geizhals.de/gigabyte-aorus-15-ye5-54deb34sh-a2917261.html ?
bickid schrieb:
Da du in der Materie drin bist: was sind den Checkpoints im Kontext von Stable Diffusion? Loras sind wohl individuell trainierte KIs, richtig?
Im Grunde sind beides Modelle, die trainiert wurden. Die LORA's sind meist spezifische wie "natürlich hängende Brüste" und werden als Ergänzungen zu den Checkpoints genutzt. Die Checkpoints sind Ausgewachsene Modelle die das meiste abdecken.
 
Ich sehe gerade, die mobile 3080 ohne TI hat auch 16GB VRam. Gibt aber anscheinend keine sinnvollen Geräte mehr damit, sind alle abverkauft (das HP Omen für 1700€ hat weniger Multicore-Leistung, lohnt wahrscheinlich nicht):
https://geizhals.de/?cat=nb&xf=7436_16384

Das Gigaybe ist für 1500€ schon sehr sexy, hat aber "nur" 4 echte Kerne (+8 kleine). Keine Ahnung, wie sehr das die Daten hin und her Schaufelei verlangsamt. Eine bessere CPU gibts aber dann erst ab 2100€ mit dem Acer Predator Triton (+2 normale Kerne), Ram ist leichter aufrüstbar, Bildschirm sehr viel besser, usw. aber das wird dich wahrscheinlich nicht interessieren.
https://geizhals.de/acer-predator-t...kx-nh-qfrev-006-a2713808.html?hloc=at&hloc=de

Die Kernfrage ist wahrscheinlich wie lange du für 1500-2000€ auf irgendwelchen Servern auf welcher Hardware rechnen lassen kannst - wie oben schon angesprochen wurde.
 
Warum Server? Der Punkt von Stable Diffusion ist, dass man es autark und offline verwenden kann.

2100 Euro wäre sicher auch ok, nur hat sich bei mir "Acer = Schrott marke" ins Hirn gebrannt, ist dem nicht mehr so?
 
bickid schrieb:
Warum Server? Der Punkt von Stable Diffusion ist, dass man es autark und offline verwenden kann.
du nutzt es dann doch autark. Ob der Server nun auf deinem laptop läuft, oder auf Hardware irgendwo anders, ist relativ egal in der Nutzung. Kannst es installieren wo du willst, auf dem laptop ist nur die teuerste und langsamste Lösung. Das taugt zum ein wenig herum spielen


bickid schrieb:
2100 Euro wäre sicher auch ok, nur hat sich bei mir "Acer = Schrott marke" ins Hirn gebrannt, ist dem nicht mehr so?
Dein Budget ist halt eher knapp fuer die Anforderungen. Da gibt es nicht viel Auswahl
 
Hier mal ein Vergleich inkl. Google Colab (Server)


@madmax2010 eine 3080ti Mobile dürfte fast doppelt so schnell sein wie eine RTX 3060 Desktop und hat 4GB mehr.

Cuda-Kerne 7.424 vs 3.584
 
  • Gefällt mir
Reaktionen: bickid
Das klingt doch gut. Die Zeiten der 3060 finde ich völlig akzeptabel.
 
@bickid ich bin selbst mit einer 3060 auf SD unterwegs und es reicht für das meiste was ich bist jetzt gemacht habe aus. Sollte mehr Bedarf und Nutzen entstehen, würde ich dann direkt auf die 4090 umsteigen.
 
  • Gefällt mir
Reaktionen: bickid
Zurück
Oben