Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Welches Notebook für AI Art (stable diffusion)?
- Ersteller bickid
- Erstellt am
mortiferus93
Cadet 3rd Year
- Registriert
- Dez. 2022
- Beiträge
- 46
Du willst das Maximum an VRAM, den du für das Geld bekommen kannst. Alles andere ist erstmal sekundär.
Und vermutlich ne Nvidia-GPU, einfach weil CUDA besser unterstützt wird
Und vermutlich ne Nvidia-GPU, einfach weil CUDA besser unterstützt wird
Soweit ich mich eingelesen hab, wäre die 3080 Ti hier besser, weil mehr VRAM entscheidender ist. Oder.Model schrieb:Geizhals Filter auf dickste GPU für 2k stellen, wahrscheinlich 4070 (8GB) oder 3080 Ti (16GB VRam).
madmax2010
Fleet Admiral
- Registriert
- Juni 2018
- Beiträge
- 28.875
die A6000 mobile gibts mit bis zu 24gb.bickid schrieb:weil mehr VRAM entscheidender ist. Oder.
16GB ist extrem knapp. Dabei geht es gern nicht um "schneller oder langsamer" sondern schlicht darum, ob etwas generell geht oder nicht.
Ich halte nichts davon Laptops mit dem Usecase auszusuchen. Wenn man so etwas mobil machen will, hat man einen entsprechenden Desktop PC, mit dem man sich daheim verbindet, oder lässt die Anwendung auf Minutenweise gemieteter Hardware laufen
mortiferus93
Cadet 3rd Year
- Registriert
- Dez. 2022
- Beiträge
- 46
Genau das. Die Geschindigkeit der GPU sagt etwas darüber aus, wie schnell ein Projekt gerechnet wird. Die Menge an VRAM sagt aus, ob das Projekt überhaupt gerechnet wird.madmax2010 schrieb:Dabei geht es gern nicht um "schneller oder langsamer" sondern schlicht darum, ob etwas generell geht oder nicht.
Einen dicker Desktop mit einer 24 GB VRAM GPU (kann auch AMD sein), auf dem z.B. Easy Diffusion mit Netzwerkfreigabe läuft, wäre auch meine präferierte Lösung. Zugreifen kannst du dann über den Browser von jedem Gerät, das sich im (oder wenn du willst auch außerhalb) des Netzwerks befindet
NameHere
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 7.141
Je nach dem was du machst funktioniert es auch mit nur 8GB.
Solltest du wirklich mit einem Laptop SD darauf betreiben wollen, ist die 3080ti mit 16GB schon sehr gut.
Wenn du damit LORA#s oder Checkpoints trainieren möchtest, würde ich direkt zur 4090 im Desktop greifen. Darunter macht es wenig Sinn sein Geld zu investieren.
Solltest du wirklich mit einem Laptop SD darauf betreiben wollen, ist die 3080ti mit 16GB schon sehr gut.
Wenn du damit LORA#s oder Checkpoints trainieren möchtest, würde ich direkt zur 4090 im Desktop greifen. Darunter macht es wenig Sinn sein Geld zu investieren.
Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop. Wenn da ne 3080Ti das beste bis 2000 Euro ist, ist das gut zu wissen. Laut Geizhals kostet ein Gigabyte-Laptop damit sogar nur knapp 1500 Euro.
Da du in der Materie drin bist: was sind den Checkpoints im Kontext von Stable Diffusion? Loras sind wohl individuell trainierte KIs, richtig?NameHere schrieb:Je nach dem was du machst funktioniert es auch mit nur 8GB.
Solltest du wirklich mit einem Laptop SD darauf betreiben wollen, ist die 3080ti mit 16GB schon sehr gut.
Wenn du damit LORA#s oder Checkpoints trainieren möchtest, würde ich direkt zur 4090 im Desktop greifen. Darunter macht es wenig Sinn sein Geld zu investieren.
madmax2010
Fleet Admiral
- Registriert
- Juni 2018
- Beiträge
- 28.875
Das was sie in jedem ML Kontext sind. Bis zu einem besteimmten Punkt trainierte Modelle.bickid schrieb:Checkpoints im Kontext von Stable Diffusion?
Fintuning / Low-Rank Adaptationbickid schrieb:oras sind wohl individuell trainierte KIs, richtig?
Mit einem solchen Laptop bist du aber weniger mobilbickid schrieb:Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop.
NameHere
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 7.141
Du meinst dieses https://geizhals.de/gigabyte-aorus-15-ye5-54deb34sh-a2917261.html ?bickid schrieb:Dass ein Desktop noch besser wäre, ist mir schon klar. Ich hab aber seit Jahren das Bedürfnis, komplett unabhängig von der Location zu sein, daher Laptop. Wenn da ne 3080Ti das beste bis 2000 Euro ist, ist das gut zu wissen. Laut Geizhals kostet ein Gigabyte-Laptop damit sogar nur knapp 1500 Euro.
Im Grunde sind beides Modelle, die trainiert wurden. Die LORA's sind meist spezifische wie "natürlich hängende Brüste" und werden als Ergänzungen zu den Checkpoints genutzt. Die Checkpoints sind Ausgewachsene Modelle die das meiste abdecken.bickid schrieb:Da du in der Materie drin bist: was sind den Checkpoints im Kontext von Stable Diffusion? Loras sind wohl individuell trainierte KIs, richtig?
Model
Rear Admiral
- Registriert
- Dez. 2014
- Beiträge
- 5.934
Ich sehe gerade, die mobile 3080 ohne TI hat auch 16GB VRam. Gibt aber anscheinend keine sinnvollen Geräte mehr damit, sind alle abverkauft (das HP Omen für 1700€ hat weniger Multicore-Leistung, lohnt wahrscheinlich nicht):
https://geizhals.de/?cat=nb&xf=7436_16384
Das Gigaybe ist für 1500€ schon sehr sexy, hat aber "nur" 4 echte Kerne (+8 kleine). Keine Ahnung, wie sehr das die Daten hin und her Schaufelei verlangsamt. Eine bessere CPU gibts aber dann erst ab 2100€ mit dem Acer Predator Triton (+2 normale Kerne), Ram ist leichter aufrüstbar, Bildschirm sehr viel besser, usw. aber das wird dich wahrscheinlich nicht interessieren.
https://geizhals.de/acer-predator-t...kx-nh-qfrev-006-a2713808.html?hloc=at&hloc=de
Die Kernfrage ist wahrscheinlich wie lange du für 1500-2000€ auf irgendwelchen Servern auf welcher Hardware rechnen lassen kannst - wie oben schon angesprochen wurde.
https://geizhals.de/?cat=nb&xf=7436_16384
Das Gigaybe ist für 1500€ schon sehr sexy, hat aber "nur" 4 echte Kerne (+8 kleine). Keine Ahnung, wie sehr das die Daten hin und her Schaufelei verlangsamt. Eine bessere CPU gibts aber dann erst ab 2100€ mit dem Acer Predator Triton (+2 normale Kerne), Ram ist leichter aufrüstbar, Bildschirm sehr viel besser, usw. aber das wird dich wahrscheinlich nicht interessieren.
https://geizhals.de/acer-predator-t...kx-nh-qfrev-006-a2713808.html?hloc=at&hloc=de
Die Kernfrage ist wahrscheinlich wie lange du für 1500-2000€ auf irgendwelchen Servern auf welcher Hardware rechnen lassen kannst - wie oben schon angesprochen wurde.
madmax2010
Fleet Admiral
- Registriert
- Juni 2018
- Beiträge
- 28.875
du nutzt es dann doch autark. Ob der Server nun auf deinem laptop läuft, oder auf Hardware irgendwo anders, ist relativ egal in der Nutzung. Kannst es installieren wo du willst, auf dem laptop ist nur die teuerste und langsamste Lösung. Das taugt zum ein wenig herum spielenbickid schrieb:Warum Server? Der Punkt von Stable Diffusion ist, dass man es autark und offline verwenden kann.
Dein Budget ist halt eher knapp fuer die Anforderungen. Da gibt es nicht viel Auswahlbickid schrieb:2100 Euro wäre sicher auch ok, nur hat sich bei mir "Acer = Schrott marke" ins Hirn gebrannt, ist dem nicht mehr so?
NameHere
Vice Admiral
- Registriert
- Sep. 2013
- Beiträge
- 7.141
Hier mal ein Vergleich inkl. Google Colab (Server)
@madmax2010 eine 3080ti Mobile dürfte fast doppelt so schnell sein wie eine RTX 3060 Desktop und hat 4GB mehr.
Cuda-Kerne 7.424 vs 3.584
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
@madmax2010 eine 3080ti Mobile dürfte fast doppelt so schnell sein wie eine RTX 3060 Desktop und hat 4GB mehr.
Cuda-Kerne 7.424 vs 3.584
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 785
- Antworten
- 27
- Aufrufe
- 8.041
- Antworten
- 35
- Aufrufe
- 2.745
- Antworten
- 7
- Aufrufe
- 735