News DeepSeek und Co.: Anthropic wirft chinesischen KI-Startups vor, Claude-Fähigkeiten zu stehlen

Kann mir jemand mit Detailwissen erklären wie man mit Destillation ein besseres Modell erzeugen soll ? Das kann doch maximal so gut sein wie das Modell dessen Daten destilliert werden mit dem Nachteil das man die ganzen Fehler vom destillierten Model noch mit einbaut?
 
  • Gefällt mir
Reaktionen: Ceberus
M-X schrieb:
Kann mir jemand mit Detailwissen erklären wie man mit Destillation ein besseres Modell erzeugen soll ?
Der Gedanke ist, dass man den Output von größeren Modellen nutzt um kleinere Modelle zu trainieren, wodurch die kleineren Modelle die Fähigkeiten der größeren Modelle adaptieren sollen.
Wie ich in dem anderen Posting dargelegt habe, ist die Qualität von Distillation Attacks bestenfalls umstritten, weil nicht wirklich klar ist, ob damit bessere Modelle produziert werden können oder ob kleinere Modelle bei einfacheren Fragen dann besser wirkende Ausgaben erzeugen.

Kann auch einfach sein, dass Anthropic die "Attacke" als Vorwand nimmt um zu sagen, dass DeepSeek und co einfach nur synthetische Daten mit den Modellen haben produzieren lassen, womit sie ihre Modelle trainierten.
 
tomgit schrieb:
Qualität von Distillation Attacks bestenfalls umstritten, weil nicht wirklich klar ist, ob damit bessere Modelle produziert werden können oder ob kleinere Modelle bei einfacheren Fragen dann besser wirkende Ausgaben erzeugen.
Genau das war die Frage, leider hast du auch keine Antwort.
 
@M-X Wie gesagt, in der Literatur gibt es dafür auch keine eindeutige Antwort
 
  • Gefällt mir
Reaktionen: M-X
An die ganzen KI Firmen....

IMG_3250.jpeg
 
  • Gefällt mir
Reaktionen: sioh und Ben99
Wer im Glashaus sitzt, sollte lieber im Keller onanieren.

Ich bin zwar nicht der erste der das hier sagt, aber es ist schon zynisch wenn man erst im großen Maßstab urheberrechtlich geschütztes Material stiehlt und sich dann beschwert wenn die liebevoll geklauten Daten einfach von anderen übernommen werden.
 
  • Gefällt mir
Reaktionen: knoxxi
Also irgendwo hab ich mal aufgeschnappt, dass Anthropic selbst die robots.txt ignoriert.

Unabhängig davon wundert mich diese "News" irgendwie. Ich dachte das war damals beim DeepSeek Hype schon klar, dass das mit einer der Hauptgründe für die geringen Entwicklungskosten war.
 
Elverado schrieb:
"verschärfte Urheberrechts- und Handelsvorgaben"...
Wie war das denn nochmal mit den Trainingsdaten?

Bin absolut kein Freund von der chinesichen Methode Wissen anzueignen, aber wer im Glashaus sitzt...

Habe mal gehört das es eine Ehre in China ist Sachen zu kopieren. Nach dem Motto "Nur was sich lohnt (gut ist), wird kopiert." Keine Ahnung ob das stimmt aber würde die Mentalitätsunterschiede bei dem Thema Kopieren in Bezug zur westlichen Welt erklären.
 
  • Gefällt mir
Reaktionen: Quantität
Mal sollte nicht auf das Narrativ der amerikanischen KI-Firmen reinfallen, dass der Erfolg der chinesischen Modelle vornehmlich durch Nachahmen kommt. GLM 5 in OpenCode ist extrem beeindruckend.
 
  • Gefällt mir
Reaktionen: Quantität
Was?! Ich bin ja völlig fassungslos. Das machen die Chinesen doch sonst nicht.
 
Zurück
Oben