Text to Picture AIs

Status
Für weitere Antworten geschlossen.

Pyrukar

Captain
Registriert
Jan. 2013
Beiträge
3.480
Hallo zusammen,

ich habe gerade etwas Urlaub und habe kürzlich gehört, dass inzwischen ein AI Generiertes Bild (nach nachbearbeitung) sogar einen Kunstpreis gewonnen hat und wollte mir das mal anschauen. Das ist ja soweit ich das verstanden habe irgend eine AI die die eingegebenen Begriffe bei Google Bilder sucht und daraus dann versucht ein möglichst gutes Bild zusammen zu setzen. Also müsste das ja Webbasiert sein. Jetzt meine Frage: Welche Websites gibts da und sind die Services 1. Kostenpflichtig, 2. Anmeldepflichtig oder 3. Komplett offen zu nutzen?

Am liebsten wären mir ja natürlich 3. aber 2. wäre auch möglich falls es komplett offen nicht gibt :). ich würde gerne sowohl Personen als auch Landschaften gerne mal ausprobieren falls es spezialisierte AIs für diese Zwecke gibt :)

Und gleich noch eine Anschlussfrage: Wie verält es sich eigentlich mit dem Urheberrecht bei solchen AIs. Mal angenommen ich erstelle damit ein Bild und möchte es ggf. Gedruckt Verkaufen, erreiche Ich durch die Eingabe der Texte die Schöpfungshöhe oder macht das ggf die AI? Muss ich das Bild nachträglich in einem Grafikprogramm noch nachbearbeiten um wirklich Urheber zu sein oder muss ich egal was ich mit dem Bild mache klarstellen dass es von der AI auf Website xyz erstellt wurde?
Oder steht das letztlich in den AGB der einzelnen Websites weils eben noch keine Einheitliche Rechtsprechung gibt?

gruß
Pyrukar
 
Midjourney ist die derzeit wohl bekannteste Variante und liefert beeindruckende Ergebnisse.
Ausprobieren ist kostenlos.

1663697936623.png


"Milky way, Cthulhu rises from the dark universe"
 
Okay und gibt es auch welche die wie gewünscht in die Kategorie "ohne Anmeldung" fallen. Ich habe nix wirklich gegen einen Kostenlosen Account, aber wenn es auch ohne geht nehme ich lieber diese Alternative :)
 
bin ich nur zu doof oder kann man Midjourney nur mit einem Discord account nutzen? ich bin leider kein Fan, davon Accounts zu verknüpfen und würde lieber einfach einen Account nur dafür erstellen, ohne Discord da mit reinzuwerfen. Des Weiteren wurde in einem Video das ich mir angeschaut habe erwähnt, dass man dafür Credits benötigt ... heist das letztlich ist das Programm Kostenpflichtig sobald man mal ein bisschen rumprobieren will und nicht nur 1-2 Eingaben pro Tag machen möchte?
 
Pyrukar schrieb:
nicht nur 1-2 Eingaben pro Tag machen möchte?
du hast 25 min GPU zeit im free tier. alle weiteren infos bei midjourney
https://midjourney.gitbook.io/docs/billing

Das ding ist halt: so bilder zu rechnen ist verflucht teuer. Bei den großen modellen kannst du dir sicher sein, mit jedem Bild generieren ein paar Cent kosten zu verursachen.
Kommen nun ein paar millionen user zum einfach mal spielen -> Insolvenz
Darum zugangsbeschränkungen und die Bitte um Münzeinwurft. Die Infrastruktur um so etwas herum gibts auch nicht gratis.
Also: entweder traineirte modelle herunterladen und daheim laufen lassen, oder huggingface dafuer geld geben, oder die nicht offenen Dienste nutzen.
 
  • Gefällt mir
Reaktionen: Maviapril2
Pyrukar schrieb:
Wie verält es sich eigentlich mit dem Urheberrecht bei solchen AIs.
Ist rechtlich noch eine Grauzone, für die es keine breit vertretene Regelung gibt. Theoretisch liegen die Rechte aber dem klassischen Verständnis folgend bei den beteiligten Programmierern und zuvorderst den Betreibern der Plattform, über die dieser Code ausgeführt wird und über die du das Bild letztlich herunterlädst.

Pyrukar schrieb:
oder muss ich egal was ich mit dem Bild mache klarstellen dass es von der AI auf Website xyz erstellt wurde?
Sofern es nicht grundlegend abgewandelt wurde, würde ich vorerst von "ja" ausgehen.

Pyrukar schrieb:
Das ist ja soweit ich das verstanden habe irgend eine AI die die eingegebenen Begriffe bei Google Bilder sucht und daraus dann versucht ein möglichst gutes Bild zusammen zu setzen.
Die Bilddaten werden der KI normalerweise offline als Trainingsdaten zur Verfügung gestellt, sodass sie ihre Mustererkennung trainieren und Objekte identifizieren kann. Wo der Code am Ende ausgeführt wird, spielt dafür erst mal keine Rolle. Die Bezugsdaten liegen letzten Endes jedoch als antrainierte Muster im Code selbst.
 
Zuletzt bearbeitet:
ich hab mir gestern mal die sache mit stable-diffusion angeschaut ... soweit ich das sehe ist das hauptsächlich für Nvidea GPUs gebaut und es scheint ein recht komplexes unterfangen zu sein, das mit AMD GPUs zum laufen zu bringen ... macht das überhaupt sinn mit meiner alten RX570? gibts dafür überhaupt treiber? auf anhieb habe ich nur konfigs für Vega GPUs gefunden.

gruß
Pyrukar
 
Machine Learning ist viel auf CUDA ausgelegt, nVidia ist da eben Marktführer, und das nicht ohne Grund (AMD bringt da keine sinnvolle Software raus und scheint eher nur für Gaming gedacht zu sein). Alternativ kannst du eventuell die CPU nutzen?
 
hmmm, also ich fürchte es wird zeit für eine neue GPU, aber diesmal wohl tatsächlich von Team Green, vielleicht lässt sich ja was günstiges finden sobald die neuen rauskommen, das sollte ja in den kommenden wochen noch passieren ...

btw. für stable diffusion wäre wohl dieser link besser gewesen. ist recht neu, aber eben ein automatischer installer ohne manuelle Konfig und docker etc :)
 
Alternativ gibt es evtl. auch schon vortrainierte Modelle, auf die du zurückgreifen könntest?

Dann bräuchtest du vermutlich keine neue GPU, könntest aber dann nicht mit eigenen Trainingsdaten Modelle anfüttern. Aber zum Rumspielen/Ergebnisse bekommen würde es reichen und dir somit auch die Möglichkeiten solcher ML-Frameworks/Modelle vermitteln.
 
na ja ich habe jetzt stable-diffussion-ui zum laufen gebracht (zumindest auf CPU basis) aber um das zu beschleunigen bräuchte ich wohl mehr GPU Power mit deutlich mehr VRAM.
Wenn ich es jetzt richtig verstanden habe, trainiere ich mit stable diffussion nicht meine eigenen modelle sondern greife nur auf vorgefertigte zurück.

Ich wollte sowieso eine neue GPU, nur nehme ich vermutlich jetzt etwas mehr geld in die Hand. Vielleicht will ja bald jemand eine gebrauchte Wakü-Fullcover GPU verkaufen sobald die neuen raus kommen :D aber das wäre wohl am Marktplatz zu erfragen :D
 
Ohne mir jetzt Infos zu stable-diffusion-ui angesehen zu haben:
Trainieren kann man von 0 an, dann lernt man die Basics (Ecken/Kanten) bis zu den Feinheiten (Farben/komplexe Strukturen), oder man nimmt ein Modell, das schon bis zu einem gewissen Level antrainiert wurde.

Warum nutzt man vorgefertigte Modelle? Wenn schon jemand ein Modell trainiert hat, muss man selbst nicht mehr das Modell dazu bringen, z.B. Ecken und Kanten, bis hin zu Körperteilen oder Objektstrukturen zu erkennen. Dafür hat es vielleicht einen Fokus auf bestimmte Arten von Daten, die für einen selbst nicht relevant sind. Und allgemein: Trainieren ist teuer: hohe Anschaffungskosten/braucht viel Strom/braucht viel Zeit.

Wenn man aber nur ein Modell nutzen will, um sich Bilder auszugeben - oft einfach "Testen" genannt, da man hiermit das Modell testet, muss man nichts mehr trainieren, und benötigt verhältnismäßig nur noch wenig Leistung

Deswegen meine Frage an dich, willst du wirklich eigene Modelle mit Trainingdaten trainieren, diese Modelle bzw. den Trainingsprozess (das "Lernen") anpassen etc., oder dir einfach nur etwas ausgeben lassen?
 
ich will bilder aus Text generieren :) ergo soweit ich das sehe, nutze ich ein fertig trainiertes Modell das mir eben die dinge ausgibt. aber mit der CPU alleine dauert eben jedes bild selbst in mäßiger qualität mehrere minuten.
 
  • Gefällt mir
Reaktionen: Maviapril2
Oha, ich habe nicht erwartet, dass es so lange dauert :D
 
Es gibt einen Hinweis auf AMD Nutzung unter LINUX und evtl. auch Windows: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs

Kann aber leider nichts weiter dazu sagen. Mit 3070 läuft das auf dem eigenen PC sehr gut. Allerdings würde ich jetzt aktuell beim Neukauf auf mehr RAM achten. Benutze bis dato das oben verlinkte GUI, wollte aber auch noch weitere testen. Hier mal ein paar Links zum Thema Stable Diffusion :love:

Websites (von den Machern von SD) für's Testen online:
https://huggingface.co/spaces/stabilityai/stable-diffusion

Liste mit weiteren Websites
https://www.reddit.com/r/StableDiff...urce=share&utm_medium=ios_app&utm_name=iossmf

Umfängliche Seite mit Infos und Links:
https://github.com/awesome-stable-diffusion/awesome-stable-diffusion
 
  • Gefällt mir
Reaktionen: madmax2010
auf einer 6700XT dauert es so 5 Sekunden:) hab das darauf laufen. Das Github Tutorial passt gut und mit ein paar Reddit threads lief das dann auch
TBH.. ROCm macht auf den AMD Consumer Karten wenig Spass.

MechanimaL schrieb:
Allerdings würde ich jetzt aktuell beim Neukauf auf mehr RAM achten
joa, wir haben im Peak auf unserer Nvidia A100 60GB VRAM verbraucht:)

Maviapril2 schrieb:
Oha, ich habe nicht erwartet, dass es so lange dauert :D
Imagen brauchte fast 20 Minuten auf CPUs. Auf GPUs sind es wenige Sekunden
 
  • Gefällt mir
Reaktionen: jb_alvarado
na ja meine rx570 hat zwar auch 8gb vram, aber ist warscheinlich schlicht zu alt um noch ordentlich unterstützt zu werden. ich halte mal nach einer 3080 12gb ausschau sobald die 4000er serie verfügbar ist :) ich glaube nicht das sich der Aufpreis zu einer 3090 wirklich lohnt (ja ich weis dass die deutlich mehr VRAM hat) aber ich will das hier als hobby und nicht beruflich :D
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben