• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Urheberrecht ungeklärt: Valve untersagt Spiele mit KI-generierten Inhalten

@Krausetablette Zeig uns doch bitte mal, wie man ohne Programmierkenntnisse komplexe Software mit KI baut, Danke!
Oder war das doch nur laut gebrüllt?
 
  • Gefällt mir
Reaktionen: TomH22
Wie will Valve das überhaupt feststellen? Und wo fängt KI an? Wenn ich Texturen per KI vergrößere oder Fotos mache und die per KI entrausche, ist das dann auch schon verboten? KI ist nunmal nicht gleich KI.

Meiner Meinung nach verstößt KI auch nicht gegen das Urheberrecht, da kein Originalmaterial verwendet wird, sondern nur gelernte Eindrücke. Also genauso wie es ein Mensch macht, der sich Bilder ansieht und dann daraus etwas neues nachbaut. Und das Ansehen von Bildern als Urheberrechtsverstoß zu bezeichnen ist eher unhaltbar.
 
Shio schrieb:
Nein das ist keine "Inspiration holen" wenn du einfach nur Grafiken kopierst, das sagt man gerne umgangssprachlich und dann auch mit Hochkommata.
Inspiration hat nichts mit Kopieren zutun, die Medien die du nutzt um dich zu inspirieren geben dir neue Ideen.
Die können natürlich in Stil und Stimming angelehnt sein.

Ich rede nicht von Kopien im Sinne von "dasselbe möglichst 100 % nochmals machen".
Eine KI kopiert die Kunst beim Erstellen ja auch nicht.

Aber um es mit dem Wort "kopieren" zu erklären:
Der Mensch kopiert viele Bilder ins Gedächtnis und eignet sich eine Sammlung an.
Beim Erstellen eines neuen Bildes kombiniert er Teile aus seiner Sammlung und erschafft ein neues Bild, welches zuvor nicht existiert hat.

Die KI macht exakt dasselbe.
Bei der KI spricht man nur nicht vom Gedächtnis, sondern von einer Datenbank.
In dieser Datenbank werden wie beim Menschen diese Bilder gesammelt.
Beim Erstellen eines neuen Bildes kombiniert die KI Teile aus seiner Sammlung und erschafft ein neues Bild, welches zuvor nicht existiert hat.

Praktisches Beispiel:
Mein Profilbild hat eine KI erstellt. Sie hat auf Basis ihrer Datenbank und meiner Kreativität etwas erschaffen, was noch niemals ein Mensch zuvor erstellt hat.
Vielleicht hat ein Mensch mal etwas Ähnliches, aber nicht dasselbe.
Und wenn es dieses ähnliche Bild gibt, muss der Mensch es auch auf Basis von anderen Bildern erschaffen haben, die er als "Kopie" in seinem Gedächtnis hatte oder eine Vorlage nutzte.

Das zählt auch für Kunst wie diese hier, welche noch nie ein Mensch zuvor erschaffen hat, sondern nur die KI alleine.

Der Mensch muss sich einfach eingestehen, dass es nun auch Maschinen gibt, welche Kunst erschaffen können, basierend auf derselben Datenbasis. Egal ob in einer Datenbank oder einer Erinnerung.
Der Mensch hat einfach wie immer Angst vor dem Unbekannten und sobald er sich irgendwie bedroht fühlt, möchte er entweder wegrennen oder es vernichten.
Der Mensch möchte sich weiter als etwas Besonderes und Unerreichbares sehen können. Am Ende ist der Mensch auf seinem Planeten genauso besonders wie eine Mikrobe 20 Meter unter der Erde, die nichts als sich selbst kennt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sophisto
MalWiederIch schrieb:
Eher muss man den Code der KI korrigieren :rolleyes:
(ich beziehe mich nur auf ChatGPT)
Genau das, also alles was über einfachen Code hinaus geht ist einfach zu oft fehlerhaft oder schlecht optimiert.
Mit ChatGPT kann man super Texte verfassen oder einfachen Code generieren lassen oder auch z.B. JSON aus einer unformatierten Liste von Text generieren lassen. Für solche Sachen funktioniert es sehr gut.

Das Problem ist nur das es bei nicht banalen Sachen aktuell noch oft zu falschen Antworten kommt z.B. zu diversen Linux tools z.B. iptables oder auch bei allgemeinen Programmieraufgaben.

Oft erfindet ChatGPT einfach etwas dazu was gar nicht existiert oder es liefert eine funktionierende aber schlecht optimierte Implementierung eines eigentlich einfachen Problems.
Ein weiteres Problem ist die extreme Unsicherheit welche ChatGPT selbst an den Tag legt.
Egal ob die vorherige Antwort richtig war oder nicht, es besteht immer die Möglichkeit das ChatGPT selbst die vorherige Lösung verschlimbessert.

Also entweder muss man selbst den Code zu 100% verstehen und sehen können wenn etwas falsch oder schlicht schlecht optimiert ist und ja ChatGPT kann dann diesen Code auch optimieren und verbessern mit entsprechenden hinweisen. Das braucht aktuell aber noch so viele hinweise bzw. Iterationen, dass ich es in dieser Zeit schneller selbst hätte schreiben können und dank moderner Entwicklungsumgebungen wird auch jetzt schon viel code auto generiert.

Inzwischen verwende ich es nur noch wenn ich sonst nirgends etwas finde oder einfach für shell scripting weil dieser einfach zu testen ist.

Natürlich wird das besser werden in den nächsten Jahren aber nach dem Hype bin ich etwas enttäuscht und ich persöhnlich würde nicht banalen Code welcher von einer KI generiert wurde nicht verwenden solange die Copyright Frage nicht juristisch geklärt ist.
Ergänzung ()

pseudopseudonym schrieb:
@Krausetablette Zeig uns doch bitte mal, wie man ohne Programmierkenntnisse komplexe Software mit KI baut, Danke!
Oder war das doch nur laut gebrüllt?
Ein paar unserer Kunden haben angefangen ChatGPT bei technischen Problemen zu fragen oder auch einfache Programmieraufgaben damit umzusetzen.

Nur bringt diesen Kunden das nichts weil sie die Antwort von ChatGPT nicht verstehen und/oder nicht in der Lage sind diesen Code dann in das System zu integrieren (ich rede hier wirklich von einfachem coding für eine low-code Platform) oder ChatGPT liefert falsche Antworten (gut okay, teilweise auch weil die Frage schon nicht richtig war ...).

Mit diesen Problemen kommen die Kunden dann irgendwann zu uns weil nichts mehr geht ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Niyu schrieb:
Diese Art von Ironie ist total deplatziert. Wer nicht mit der Zeit geht - geht mit der Zeit.

Richtig, dieser Asset-Dump-Schmutz geht einfach. So etwas hat nix im Marktplatz verloren. KI-generiert ist nur die neue Spitze des Eisbergs.
 
Turrican101 schrieb:
Wie will Valve das überhaupt feststellen? Und wo fängt KI an? Wenn ich Texturen per KI vergrößere oder Fotos mache und die per KI entrausche, ist das dann auch schon verboten? KI ist nunmal nicht gleich KI.
Für valve geht es doch offensichtlich darum sich bei generativer KI nicht dem Risiko auszusetzen vom Urheber der Bilder welche im Trainingsdatenset stecken verklagt zu werden, weil die generierten Inhalte zu sehr den Stil oder auch die Trainingsbilder imitieren. Wenn man es für das upscaling und entrauschen der eigenen Bilder nutzt, läuft man die Gefahr garnicht.
DieRenteEnte schrieb:
Die KI macht exakt dasselbe.
Bei der KI spricht man nur nicht vom Gedächtnis, sondern von einer Datenbank.
Auch dort spricht man eher vom Gedächtnis da diese Bilder so wie deren annotations nur zum Zeitpunkt des Trainings für die KI in der Datenbank zugänglich sind. Danach ist Information in den Gewichten des NNs, sprich in dessen Gedächtnis.
 
  • Gefällt mir
Reaktionen: BeBur
Valve will ahlt nicht riskieren, für ein popliges Indie-Spiel viel rechtlichen Ärger zu bekommen. Da sie Hausrecht haben, müssen sie im Zweifel den Ausschluss wahrscheinlich ncithmal begründen (Vertragsfreiheit)
 
Man fragt sich ja immer, wie große Zivilisationen untergehen können. Bei uns wird das Urheberrecht dafür sorgen. China lacht sich kaputt 😂 und wird die Welt dominieren. Dort gelten Kopien als Ehrung des Original-Urhebers. Wir werden dann vorschriftsmäßig zurück bleiben und über diese pösen Chinesen schimpfen.
 
Sophisto schrieb:
Es geht doch darum, dass Valve KI-generierte Inhalte untersagt!?
Wozu benötige ich beim "einfach nur Grafiken kopieren" eine KI?

Warum ging es nicht in meinem Kommentar.
Wenn du schon antwortest, bitte auch den Kommentare lesen auf den ich antworte.

lorpel schrieb:
Man fragt sich ja immer, wie große Zivilisationen untergehen können. Bei uns wird das Urheberrecht dafür sorgen. China lacht sich kaputt 😂 und wird die Welt dominieren.

Lächerliches Mindset. Wie in der Foxconn News gesagt wurde, China erreicht nichts weil die einfach schlechtes R&D haben.
Die können außer kopieren nichts, deshalb kriegen dies auch nicht gebacken in irgendeiner Technologie führend zu sein.
 
  • Gefällt mir
Reaktionen: Kuristina
Als damals der Skyrim Workshop die Paymods eingeführt hat, war Valve‘s ursprüngliche Position genau das Gegenteil.
„Erstmal klauen und verwenden, vielleicht fällt es nicht auf.“
 
Shio schrieb:
Lächerliches Mindset. Wie in der Foxconn News gesagt wurde, China erreicht nichts weil die einfach schlechtes R&D haben.
Die können außer kopieren nichts, deshalb kriegen dies auch nicht gebacken in irgendeiner Technologie führend zu sein.
Urheberrecht und verwandte Rechte/Gesetze sind halt keine Bremse, sondern notwendig für Innovation.

Gewuerzwiesel schrieb:
Auch dort spricht man eher vom Gedächtnis da diese Bilder so wie deren annotations nur zum Zeitpunkt des Trainings für die KI in der Datenbank zugänglich sind. Danach ist Information in den Gewichten des NNs, sprich in dessen Gedächtnis.
Da offenbar manchmal nehezu 1:1 Kopien vom Input teilweise als Output gegeben wird kann man auch von einem (evtl. verlustbehafteten) abspeichern des Inputs sprechen. D.h. die Inputdaten werden heruntergeladen, abgespeichert und/oder verarbeitet und dann für kommerzielle Zwecke verwendet.
 
  • Gefällt mir
Reaktionen: Shio
Verhindert erstmal eine Schwemme an Ramsch-Games... auf Dauer wird es vermutlich nicht zu verhindern sein.
 
Selber schrieb:
Welche wir selbst geschrieben und trainiert haben. Mit den Stimmen unserer Entwickler.

Steam verbietet KI-Content nur wenn man nicht nachweisen kann wo die Daten zum Training des Algorithmus herkommen. Hier wurde vom Entwickler extra ausführlich geschrieben wie Funktion entwickelt wurde. Die sind sich der Problematik mit dem Urheberrecht bewusst.
Danke, einer der wenigen hier der das Problem verstanden hat. Valve hat überhaupt kein Problem mit automatisierten oder auch KI Tools. Valve hat ein Problem damit wenn jemand diese Tools mit Inhalten von Dritten anlernt und daraus dann die Assets für sein Spiel erstellt.
Wenn Ubisoft und Co für ihre Open Worlds KI oder sonstiges verwenden und dabei nur die eigenen Assets oder lizensiertes verwenden (was sie sicherlich schon machen), dann hat Valve da auch kein Problem mit. Weiß nicht was so schwer daran zu verstehen ist.
 
BeBur schrieb:
Da offenbar manchmal nehezu 1:1 Kopien vom Input teilweise als Output gegeben wird kann man auch von einem (evtl. verlustbehafteten) abspeichern des Inputs sprechen. D.h. die Inputdaten werden heruntergeladen, abgespeichert und/oder verarbeitet und dann für kommerzielle Zwecke verwendet.
Da CLIP und Latent Diffusion Modelle Bilder und Sprache simultan zum Lernen verwenden und es in einem gemeinsamen Kontextraum projizieren um anschließend aus diesem Kontextraum ein Bild oder dessen Beschreibung zu generieren kann man das Modell natürlich auch dazu bewegen ein nahe dem Original aussehende Kopie eines Bild aus der Trainingsdatenmenge zu generieren, wenn man den passenden prompt wählt.
 
Nur in dem Punkt dass es hier eigentlich einer Mutwilligkeit bedarf um urheberrechtrechtlich geschütztes Material zu generieren. Solang dieses aber Teil der Trainingsdaten ist wird man diese Bilder gut generieren können. Ist eine normale Eigenschaft aller Machine Learning Modelle, dass sie die Trainingsdaten gut abbilden können.
 
Gewuerzwiesel schrieb:
Nur in dem Punkt dass es hier eigentlich einer Mutwilligkeit bedarf um urheberrechtrechtlich geschütztes Material zu generieren.
Die Notwendigkeit von Mutwilligkeit bezweifel ich siehe z.B. hier für ein Beispiel. Copilot druckt auch gerne Lizenzinformationen zusammen mit dem Code aus... nur die Namen sind dann falsch (Link finde ich grad leider nicht).

Wieso bist du der Meinung, die Reproduzierung der Traingsdaten impliziert nicht ein (ggf. verlustbehaftetes) Speichern dieser Daten?
 
Copilot basiert auf einem LLM dessen Aufgabe es ist Text zu vervollständigen, auch hier wird ein entsprechender prompt etwas urheberrechtrechtlich geschütztes replizieren können, aufgrund des eingeschränkten Lösungsraumes (z. B. Will man idr funktionierenden Code) wird das hier wahrscheinlicher.
Ist eben eine Grauzone könnte man so oder so interpretieren. Aus der Funktion von CLIP und Latent Diffusion würde ich eben nur bei absichtlichem Replizieren davon sprechen, weil sonst die Wahrscheinlichkeit dazu viel zu gering ist. Bei generative AI kommt aber noch eine Zufallskomponente dazu die bestimmt wo im Kontextraum man startet, was die Situation mmn auch noch entschärft.
 
Zurück
Oben