ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 4.037
Der grundsätzlichen Logik zufolge wäre ich normal ganz bei dir.Stahlseele schrieb:Quatsch, schön wärs.
Wisst Ihr, was passiert, wenn die Modelle weniger Speicher brauchen?
ES WERDEN GRÖßERE MODELLE IN DENSELBEN SPEICHER GEQUETSCHT!
Sache ist aber, dass egal welche Modelle wir aktuell nutzen diese kaum noch skalieren über Größe sondern viel, viel mehr über Kuration (bessere Bilder im Training die detaillierter und besser und fehlerfreier getaggt sind in Stable Diffusion zB).
Wir haben einfach einen Punkt erreicht wo die aktuelle Technologie mit einer weiteren 100% Verdoppelung der Modellgröße nur noch vielleicht weitere 5% an Qualität gewinnt. Googles Techdocs zu Nano Banana sind hier zB ganz interessant. Viel kleiner als manch andere Modelle bei viel höherer Qualität.
Nur weil du noch mehr Abfall aus dem Web in ein LLM packen kannst wirds halt nicht mehr besser in der Breite skalieren und mehr Daten bedeuten ebenfalls nochmals weit mehr Kurations-Aufwand.