nur mal so ne überlegeung.
es müsste doch eiugentlich möglich sein jede beliebig große information auf verhältnismässig minimalstem raum zu übertragen.
in dem man nicht die information an sich überträgt, sondern einen Algorythmus, der die Information über haupt erst generiert.
ich sage nur:
.kkrieger von .theprodukkt aka .farbrausch
Die ein oder anderen werde es kennen, damals vor zwei drei jahren hatten nen paar leute aus der demo-szene nen shooter gecoded, der zwar nicht auf dem selben niveau wie damalige kommerzielle konkurrenz spielte, aber dennoch ein wirklich ansehnliches teil wurde. in 96kb!! Die 96k große exe erzeugte das komplette, gigabytegroße Spiel inklusive aller Graphik und Sound-dateien.
Bin ich der einzige oder denkt ihr auch man sollte solche Methoden mal gezielter einsetzten?
Bei dem Spiel hat es damals gut 2 Minuten oder so gedauert, bis die daten erzeugt waren. Daher (ich persönlich sowieso, da dsl lite) wäre es doch eher wünschenswert anstatt 1 Gig zu loaden einfach verschwindent geringgroße "Content-Generatoren" zu laden, und dann einfach den Rechner mal 10 Minuten bruzeln zu lassen - zumal in zeiten von dual und quadcores.
Verbessert mich, wenn einer ausreichend technischen Hintergrund hat und mir sagen kann, dass das so pauschal nicht zu machen ist und es ein riesen aufwand bedeuten würde das für alle produkte zu machen. Aber auch in soclhen Fällen sollte es doch denkbar sein ein gewisse standard algorythmen zu schreiben, die dann mit diversen Parametern gefüttert, das gewünschte Ergebnis liefern?
Da würde doch ein Riesen Markt dahinter stecken?