News Teenagerinnen verklagen xAI: Bilder von sexu­ellem Kindes­missbrauch durch Grok AI

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
@Dr. Chaos Hast du recht, sehe ich ein, zumindest bei CSAM. Denn sonst kannst du eigentlich direkt die komplette KI verbieten, es gibt ja auch nicht CSAM Material was dort generiert werden kann und Strafbar ist. Ich bin allerdings trotzdem der Meinung, dass man das ganze nicht mehr Regulieren kann, zumindest nicht mit den Lokal Modellen, wie ComfyUI usw.
Für den one click user der ein prompt eingibt bei den großen KIs sollte es aber wirklich unterbunden werden, das stimmt.
 
Das war aber irgendwie auch selten dämlich das so zugänglich zu machen.
Hätten sie ne Funktion gemacht die die Bilder generiert und derln Nutzer bestätigen lassen dass die Bilder nicht gegen AGBs verstoßen. Also die Haftung auf die Nutzer abwälzen
 
Krik schrieb:
Na da macht man das, was man jetzt auch schon macht: Man schätzt ab. Bilder von fiktiven Menschen gibt es nicht erst, seit es generative KI gibt.

Also nochmal: Was sollen zusätzliche Gesetze bewirken? Was willst du überhaupt zusätzlich regulieren? Alles, was man mit generativer KI heutzutage macht, unterliegt den gleichen Gesetzen, denen auch z. B. die klassische Bildkunst unterliegt.

Diese Gesetze greifen natürlich, aber unsere Behörden können mit der Geschwindigkeit von generativer KI überhaupt nicht mithalten.
Wir haben schon beim Jugendschutz auf social media ziemlich schlecht ausgesehen, siehe z.B. hier

"Früher" konnten Bilder von echt aussehenden Menschen nicht in dieser Geschwindigkeit und schon gar nicht so einfach und realitätsnah erstellt werden.
Gleichzeitig sind manche Verbraucher unbedarft im Umgang mit solchen Tools und glauben es wären nur legale Dinge möglich, deswegen auch meine sehr spezifische 17 vs. 18 Frage.

Deine Lösung ist sehr nett gemeint, aber für das, was aktuell stattfindet nicht wirklich praxistauglich.

Die Überlastung des Systems stieg schon vor generativer KI von Jahr zu Jahr.

Es gibt zudem bereits Gesetze die aktiv/teilweise aktiv sind (z.B. DSA und EU AI Act), aber die Verankerung in nationalen Gesetzen dauert zu lange, das Produkthaftungsgesetz soll z.B. "bald" Software als Produkt einstufen.

Ich habe ursprünglich gefragt, warum xAI haftbar sein soll und genau dort müsste man was weitere Gesetze angeht auch ansetzen.
Es geht mir explizit auch nicht nur um Geldstrafen.
Sind die Trainingsdaten nicht sauber, muss das meiner Meinung nach mehr Konsequenzen haben.

Leider ist das ein wenig wie die Büchse der Pandora, die bereits geöffnet wurde.

Dr. Chaos schrieb:
Beihilfe (§ 27 StGB): Wer als „Gehilfe“ vorsätzlich einem anderen zu dessen vorsätzlich begangener rechtswidriger Tat Hilfe leistet, wird bestraft.
Die "Ki" selbst kann natürlich nicht bestraft werden, aber eben der Inhaber, weil dieser wusste bereits seit langem das seine "Ki" genutzt wird um illegal Pornos und ähnliche zu erschaffen und hat trotzdem nichts dagegen getan.

Die Hürden dafür dürften zu hoch sein, ist aber nur meine Einschätzung.

Zudem, wen genau willst du belangen? Wie soll die Person in z.B. Deutschland verurteilt werden?
Strafen gegen Firmen sind ja nett (siehe aktuell X), aber eben auch nicht wirklich genug.
 
wern001 schrieb:
Eine Strafe würde ich beführworten und zwar in der höhe deutlich höher als die "portokasse"
Vorallem für denjenigen der das Prompt geschrieben hat.
Die AIs wissen ja nicht wie alt der/diejenige auf dem. Bild ist welches zum bearbeiten bereitgestellt wird.
 
Dr. Chaos schrieb:
Die "Ki" ist ein Erfüllungsgehilfe!

Beihilfe (§ 27 StGB): Wer als „Gehilfe“ vorsätzlich einem anderen zu dessen vorsätzlich begangener rechtswidriger Tat Hilfe leistet, wird bestraft.
Die "Ki" selbst kann natürlich nicht bestraft werden, aber eben der Inhaber, weil dieser wusste bereits seit langem das seine "Ki" genutzt wird um illegal Pornos und ähnliche zu erschaffen und hat trotzdem nichts dagegen getan.
Dazu müsste das Programm aber bei jedem Bild/Film wissen ob es demjenigen der das Prompt schreibt gehört.
Das Problem bzgl. Der Bildbearbeitung haben auch Google, OpenAi oder andere, denn beiballen ist das gleiche wie vei xAI möglich.
 
ProfessorJump schrieb:
Es wurden hier Bildbearbeitungstools genannt, diese zählen für dich nicht, weil es nur am Ersteller hängt, richtig?

Wie sieht es dann Offline mit StableDiffusion aus, haftet dann zusätzlich der Coder des Programms, der Trainer des Modells (wo alle Trainingsdaten legal sind) oder doch der Ersteller, welcher in dieses Modell seinen illegalen Input einfügt?
Hier würde ich die Schuld einzig beim Ersteller suchen.

Einen Ansatzpunkt bei Grok würde ich wenn bei den Trainingsdaten sehen (keine Ahnung, ob man da rankommt) und scheinbar wird Grok ja auch auf dem Output der Nutzer weitertrainiert.
Wenn ich das richtig verstehe ist diese Option nur opt-out, wodurch wohl illegale Daten ins System gelangen könnten.
Ist das dein Argument?

Wenn ich einen Denkfehler mache, sag es mir gerne und die Frage oben (an Krik) darfst du auch gerne beantworten.

Und dies ist auch der Grund, weswegen ich eine Gesetzgebung speziell für KI für zwingend notwendig halte, momentan läuft alles aus dem Ruder und es wird munter Catfishing betrieben, gescammt (Verkaufsportale), geklaut (Content jeglicher Art fürs Training) und sogar Kriegspropaganda mit bekannten Marken erstellt (siehe USA).

Ja, viele dieser Taten sind von alten Gesetzen abgedeckt, aber einiges sind eben auch Grenzfälle (siehe Frage oben oder Shrimp Jesus).
Also ich versuche es mal anders zu erklären.

Wenn jemand ein Offline‑Tool verwendet, z. B. Gimp oder ähnliches, dann liegt die Verantwortung ausschließlich beim Ersteller. Ich bezweifle aber stark, dass ein normaler Anwender damit Deepfakes erzeugen kann, die nicht mehr vom Original zu unterscheiden sind. Diese Art von Missbrauch wurde für Laien meiner Meinung nach erst durch generative KI möglich.

Ähnlich sehe ich es bei lokal gehosteten LLMs. Auch hier liegt die Verantwortung beim Ersteller. Wobei ich trotzdem hinterfragen würde, ob es sich um ein selbst erstelltes Modell handelt (was sehr unwahrscheinlich ist) oder um ein Modell aus dem Internet, egal ob kostenlos oder gekauft. Wenn es Modelle im Web gibt, die es ermöglichen, strafrechtlich relevanten Content zu erzeugen, dann sollte man auch hier die Legalität prüfen. Und natürlich unterscheide ich zwischen legalem Erwachsenen Content, der mit Einwilligung erstellt wurde, und Inhalten, die strafrechtlich relevant sind, weil sie ohne Erlaubnis oder sogar mit Minderjährigen erzeugt wurden.

Außerdem sehe ich die Schwelle der Machbarkeit bei lokalen Modellen deutlich höher. Nicht jeder hat die Hardware, die Zeit oder das Know‑how, so etwas selbst zu hosten und korrekt einzurichten.

Wobei ich aber auch der Meinung bin, dass vermutlich 90 % der aktuell frei verfügbaren Modelle mit illegalen Daten trainiert wurden. Deshalb steht für mich die Frage nach Regulierung auch hier im Raum.

Dann kommen wir zur dritten Variante, die hier auf den Artikel zutrifft, denn Grok war meines erachtens ein Sonderfall.

Es war ein öffentlich zugängliches KI‑Modell, das strafrechtlich relevante Inhalte erzeugen konnte. Mit X (Twitter) eine Plattform, die diese Inhalte anschließend verbreitet hat. Ein Unternehmen, das das Feature monetarisiert hat. Und ein Opt‑out‑Training, das sogar illegale Nutzerdaten wieder ins Modell zurückführen konnte.

Das ist meiner Meinung nach eine völlig andere Verantwortungsebene als bei einem Offline‑Tool.

Ich sage nicht, dass der Prompt‑Ersteller keine Hauptverantwortung trägt, im Gegenteil. Aber wenn ein Unternehmen ein solches System bereitstellt, ohne ausreichende Schutzmechanismen, und es jedem ohne Fachwissen ermöglicht, strafbare Inhalte zu erzeugen, dann trägt es ebenfalls Mitverantwortung.

Das ist für mich auch keine Verschiebung von „Verantwortung“ oder „Schuld“, sondern eine Frage von Sorgfaltspflichten, die jedes Unternehmen hat, das solche Systeme der Öffentlichkeit zur Verfügung stellt.

Und wenn diese Sorgfaltspflichten nicht eingehalten werden, trägt das Unternehmen eben eine Mitverantwortung. Das gilt für mich auch für jedes andere Unternehmen, das generative KI anbietet und damit bei einer sehr niedrigen Machbarkeitsschwelle die Erstellung strafrechtlich relevanter Inhalte für jeden ermöglicht.

Genau deshalb brauchen wir meiner Meinung nach dringend klare gesetzliche Rahmenbedingungen für KI.
Da sind wir uns doch hoffentlich einig.

Kadett_Pirx schrieb:
Da kannst du noch so auf die Emotions- und Tränendrüse drücken, verantwortlich ist der Ersteller und nicht das Tool, solange es keine echte künstliche Intelligenz gibt.

Es geht nicht darum, „auf die Tränendrüse zu drücken“, sondern darum, dass Grok nicht einfach ein neutrales Werkzeug wie ein Offline‑Programm ist. Das hat nichts mit „echter KI“ zu tun, sondern mit Sorgfaltspflichten.

Der Ersteller trägt die Hauptverantwortung, da sind wir uns völlig einig. Aber sobald ein Unternehmen ein KI‑System öffentlich bereitstellt, es monetarisiert, weitertrainiert und in eine öffentliche Plattform integriert, entsteht automatisch eine zusätzliche Verantwortungsebene.

Wenn dieses System dann noch strafrechtlich relevante Inhalte erzeugen kann und diese Inhalte anschließend auf derselben Plattform verbreitet werden, dann kann man nicht mehr so tun, als hätte der Betreiber keinerlei Mitverantwortung.

So funktioniert Verantwortung im digitalen Raum einfach nicht. Das ist keine Frage von Emotionen, sondern wie bereits gesagt eine Frage von Sorgfaltspflichten. Wobei ich ehrlich gesagt von manchen Usern hier ein bisschen mehr Empathie erwarten würde, immerhin geht es um reale Menschen, die durch solche Inhalte langfristig geschädigt werden können.

banditone schrieb:
Ja, der Ersteller ist ganz allein schuldig. Oder sind demnächst die Tools Bleistift und Papier schuldig, wenn damit CSAM-Material erstellt wird? Oder ist das Tool des Vergewaltigers mitschuldig (sein Geschlechtsteil, seine Finger oder ein Gegenstand), wenn eine Vergewaltigung stattfindet?
All diese Tools sind übrigens öffentlich zugänglich bzw. werden vom Täter jederzeit mit sich geführt und sind wie die KI sehr einfach zu bedienen.

Der Vergleich mit Bleistift, Papier oder Körperteilen hinkt an allen Ecken. Diese Dinge sind passive Werkzeuge, die keinerlei eigene Funktionalität besitzen, keine Inhalte erzeugen und nicht in eine Plattform eingebettet sind, die diese Inhalte anschließend verbreitet.

Grok war und ist aber kein neutrales Werkzeug, sondern ein öffentlich bereitgestelltes KI‑System, das strafrechtlich relevante Inhalte erzeugen konnte und auch noch monetarisiert wurde bevor man das feature deaktiviert hat. Und das konnte direkt auf der gleichen Social‑Media‑Plattform verbreitet werden.

Das ist eine völlig andere Verantwortungsebene.

Der Prompt‑Ersteller bleibt der Haupttäter, da gibt es keinen Widerspruch.
Aber wenn ein Unternehmen ein System bereitstellt, das ohne ausreichende Schutzmechanismen funktioniert und es jedem ermöglicht, strafbare Inhalte zu erzeugen und zu verbreiten, dann trägt dieses Unternehmen ebenfalls eine Mitverantwortung.

Das hat was mit Sorgfaltspflichten zu tun und diese gelten immer dann, wenn ein Anbieter ein System der Öffentlichkeit zugänglich macht, das Missbrauch in großem Stil ermöglicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leap, aspro und Incanus
Dr. Chaos schrieb:
Die "Ki" ist ein Erfüllungsgehilfe!

Beihilfe (§ 27 StGB): Wer als „Gehilfe“ vorsätzlich einem anderen zu dessen vorsätzlich begangener rechtswidriger Tat Hilfe leistet, wird bestraft.

Ki ist keine juristische/natürliche Person eine KI kann kein Gehilfe sein
 
  • Gefällt mir
Reaktionen: Kadett_Pirx
"Also Atze ich hab hier Malware und Verschlüsselungstrojaner, die kannste haben. Aber bitte nur zum prvaten Gebrauch"

Würde ich mich jetzt mitschuldig machen, oder verkaufe/verschenke ich hier einfach nur ein Werkzeug?
Wahrscheinlich säße ich schneller in der Kiste als ich Entschlüsselungstool sagen könnte.

Diese Messer und Photoshop vergleiche...:freak:

ProfessorJump schrieb:
Es wurden hier Bildbearbeitungstools genannt, diese zählen für dich nicht, weil es nur am Ersteller hängt, richtig?
"Hey Grok, erstelle mir ein Bild von @ProfessorJump in einem Mankini"
"Hallo Eisenarsch, ich hab dir ein Bild von @ProfessorJump im Mankini als Tweet erstellt, dass die ganze Welt an deiner tollen Idee teilhaben kann"
vs
Ich zeichne, male, schnitze, haue mir das gewünschte Motiv in welches Medium auch immer, in meinem Keller!!!
 
  • Gefällt mir
Reaktionen: Alphanerd, Volvo480 und Incanus
Khaotik schrieb:
Aber in dem Fall dient die KI als Werkzeug dazu und hatte keinen Einfluss darauf, was der Täter mit den Inhalten macht. Für mich ist das in etwa so, als würde man Ford anzeigen, weil jemand mit ihrem SUV mein Kind umgefahren oder meinen Anhänger geklaut hat.
Ich bin immer wieder überrascht, wie krass daneben Menschen liegen können.
Dir sind nicht die vielen gesetzlichen Vorgaben für Autobauer bekannt, die in Deutschland und der EU gelten? Wenn Du ein Auto rausbringst, ohne Crash-Tests, Knautschzonen, Gurte (auch z.B. für Kinder), etc ... wird das ziemlich teuer.
Nein - bestimmte Situationen lassen sich damit nicht verhindern. Manch andere dagegen schon.

Und nun schau Dir mal an, wie sehr LLMs aktuell reguliert werden. Genau. Quasi gar nicht. Man versucht die allgemeinen Gesetze darauf anzuwenden. Das reicht bei vielen Technologien nicht aus.
Und bei LLMs ganz sicher auch nicht.
Dein eigenes Beispiel minimal abgewandelt zeigt, wie sehr hier der Gesetzgeber, aber auch die Medien völlig versagen, weil kaum Ideen für gute und sinnvolle Regularien diskutiert werden.

Mit dieser Einstellung in den 70ern bzgl. Autos und wir hätten heute mind. soviel Verkehrstote wir damals (ende der 70er knapp 20.000 allein in West-Deutschland) ... vermutlich noch deutlich mehr.
 
Bildmanipulation (auch mit böswilliger Absicht) ist nun nicht neu. Und verfälschte Darstellungen gab es schon zu Zeiten der alten Meister - und ich bin mir auch fast sicher, dass selbst in der Antike nicht jede Muse gefragt wurde, bevor sie zum Motiv einer nackten Statue o.ä. wurde. Wenn man verhindern möchte, dass Bilder manipuliert oder gefälscht werden oder irreführende Inhalte in Bilder oder Werke gegossen, muss man alle Werkzeuge dafür verbieten. Ki, Photoshop, Bildbearbeitung, Malerei etc. am besten Literatur auch gleich.

Die besondere Qualität (im negativen Sinne) entsteht bei grok aus meiner Sicht in der Tat dadurch, dass Nutzer ja grade mit dem Versprechen gelockt werden, dass diese Plattform nicht "woke-verseucht" ist und alles erlaubt ist, was zumindest nicht links ist. Das kombiniert mit der Einfachheit illegales Material zu erstellen, ist das eigentliche Problem. Ich denke, man sollte das in der Diskussion vom reinen Bildgenierung per AI Thema trennen. Es gab genug Hinweise, in welche Richtung die Platform missbraucht wird, es wurde anscheinend schon fast demonstrativ nichts sinnvolles dagegen unternommen. Achja, es sollte sich jeder Fragen, ob man solche Plattformen wirklich durch Nutzung unterstützen möchte. Also unabhängig von der Klage. Ich finde es z.B. bedauerlich, dass auch CB noch auf X aktiv ist (zumindest ist X noch im Footer der Seiten verlinkt)
 
Ich bin zwar dafür, dass man Sicherheitsmechanismen einbauen sollte um sowas zu unterbinden. Andererseits kommt es mir so vor als wolle jemand Heckler&koch dafür verklagen, dass mit ihren Waffen unschuldige Menschen getötet wurden.
Was ich damit sagen will... Obwohl die Technologie der Lage dazu ist, braucht es immernoch einen Verstand der die dafür missbraucht.
 
@Rainbowprincess

Ich bin genau derselben Meinung. Solche Bilder hätten auch mit Photoshop und co. gemacht werden können, und da würde ja auch niemand gegen Adobe vorgehen, sondern gegen die Täter selbst.
 
Ist doch immer das gleiche. Neue Technologie mit unglaublichen Möglichkeiten für Forschung, Wissenschaft etc. wird erfunden und den Leuten zugänglich gemacht: Der Bodensatz nutzt es für sexuellen Content weil denen nichts besseres einfällt.

Wie beim Internet etc. pp.
 
  • Gefällt mir
Reaktionen: Dorimil
so sehr ich denke das der release von Groks bildgeneration schiefgelaufen ist und Twitter da nicht genügend safe guards eingebaut hat um missbrauch von vornherein auszuschließen (bzw keine ausreichenden gesetzlichen regeln existieren die firmen dazu verpflichten das vor einem öffentlichen release sicher zu stellen) - Grok/Twitter zu verklagen ist wie den hersteller eines hammers zu verklagen wenn damit jemand erschlagen wurde.
Grok ist nur ein werkzeug, nicht der täter. Ohne die creeps die gezielt kinderbilder gefüttert und verlangt haben diese nackt zu machen wäre es nie dazu gekommen.

Man sollte mMn also vor allem die Täter finden, statt den Programm/Werkzeughersteller. Denn wäre es nicht grok gewesen hätten diese leute halt etwas anderes benutzt.
 
Ja, der Thread hat mittlerweile sechs Seiten, es dauert ein wenig alles zu lesen. Dennoch bin ich immer wieder erstaunt oder eher erschrocken, wie viele hier kommentieren, ohne auch nur einen Beitrag oder auch den Artikel selber gelesen haben.
Anders kann ich mir die immer wiederkehrenden Beiträge, dass doch der Ersteller der Bilder belangt werden solle oder die Vergleiche mit Bildbearbeitungsprogrammen. Messern, Hämmern etc. beim besten Willen nicht erklären.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd, Dorimil und CountSero
M@tze schrieb:
Also wenn ich mit Gimp ein Bild bearbeite, lege ich neue Ebenen an und ändere das Bild bewusst nach meinen Vorstellungen um.

Bei Grok hat der Ersteller des Bildes aber nicht selbst mit irgendwelchen Ebenen gearbeitet, er hat der KI per Prompt die Anweisung gegeben "Nimm das Social Media Bild XYZ, mach die Kleine nackig und lass sie in einer lasziven Pose dastehen" (oder ähnliches) und die KI hat das umgesetzt. Die KI hat also "verstanden" was der User wollte und hat den Prompt nicht als unethisch abgelehnt, da keine Sperren eingebaut waren, sondern genauso umgesetzt.

Das ist ja der Unterschied zwischen einer normalen SW und einem LLM Modell - es "versteht" was Du willst und versucht es so umzusetzen, aber die Idee was gemacht werden soll, kommt vom User.

Das Verständnis einer AI ist 3827823489234783284 und 873927832987382832 sind gelabelt mit der Tokenreihe 3732792378 also gehört die Zahlenreihen 38321890329018723889 evtl auch dazu. Das ist ALLES. Und sonst "versteht" die AI NICHTS.

Die AI kann natürlich trotzdem über Emegrenz Intelligenz entwicklen aber nur innerhalb ihrer 1-dimensionalen Welt - das "Konzept", dass es mehr gibt als Zahlenreihen, das wird prinzipbedingt nie Teil ihrer Intelligenz sein sie kann eben nur solche Konzepte abbilden.

Es ist halt nicht möglich aus einen N dimensionalen Welt Objekte und Gesetze einer n+1 dimensionalen Welt zu verstehen - wie soll das denn gehen?

Dass AI das nicht verstehen dafür reicht es per back reverse egineering (wenn man Zugriff auf das Modell hat) einen einzigen Pixel zu ändern - sprich man macht villeicht 1 Pixel von 100.000.000 ganz aussen 0,0000000001% dunkler und die AI erkennt statt einem Hund mit 99% Sicherheit einen Apfel. Dass dies in der Praxis heute seltener auftritt liegt lediglich an der Grösse der Modelle aber das ist trotzdem in jeder AI drin, weil die nicht das (Teil-)Bild als die abgebildeten "Objekte" versteht sondern nur die Zahlen wie die Pixel in rechnerischer Beziehung zueinander stehen.
 
Zuletzt bearbeitet:
Rainbowprincess schrieb:
als wolle jemand Heckler&koch dafür verklagen, dass mit ihren Waffen unschuldige Menschen getötet wurden.
"Guten Tag, eine H&K G3 bitte."
"Gerne! Sammeln sie Payback Punkte?"

Wenn man solche doofen Vergleiche anstellt, dann aber bitte auch einen amtlichen Ki-Schein fordern, den man für die Nutzung braucht. :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mischaef
GOOFY71 schrieb:
Die Sammelklage ist berechtigt und absolut nachvollziehbar!
Find ich gut , aber eigentlich müsste man ja nur die Privatperson die dies macht Anklagen :/

"Denn man verklagt ja z.b. auch nicht Sig Sauer, wenn mit deren Werkzeug indem Fall keine KI sondern Waffe jemand erschossen wird :/"

Ich weis Seltsames Beispiel ^^

(Ich vermute Hauptsächlich geht es da eh nur um den Schadensersatz, wäre meine Meinung
 
Ich war der Meinung, dass die Firma hinter Groks nichts dafür kann wenn jemand die Software missbraucht.

Heute habe ich meinen 13jährigen Sohn nach seiner Meinung gefragt und den Vergleich zu Hammer und Messer gebracht.
Seine Antwort: "Papa sei mal nicht so naiv. Der Hersteller von Hammer und Messer kann nicht verhindern, dass es als Gewalt-Werkzeug Missbraucht wird. Der Entwickler der AI hätte solche Sachen aber verhindern und vorhersehen müssen. Es war doch klar, dass es missbraucht wird UND wäre zu verhindern gewesen."

Ich musste erst ein wenig nachdenken und habe dann das Beispiel von Photoshop gebracht.

Antwort "Das sind aber Bilder die schon existierten und nicht durch die AI erstellt / selber zusammengefügt wurden. Da kann die Firma welche die Software entwickelt hat nichts dafür.

Nochmal nachdenken meinerseits und Antwort: "Junge, gut habe ich Dir beigebracht Dir immer Deine eigene Meinung zu bilden. Hast mich überzeugt mit Deinen Argumenten." :D
 
  • Gefällt mir
Reaktionen: mischaef und Ironbutt
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben