Hallo !
Ich habe mal ein einfaches Kopierprogramm in BASIC geschrieben, mit dem man Dateien kopieren kann.
Habe spasseshalber mal ein Video kopiert, und nur ein paar Bytes mitten in der Datei verändert, und was soll man sagen:
Bei einem 10MB Video reicht schon ein einziges Byte, um sichtbare Fehler zu produzieren, manchmal sind ganze Blöcke des Videos zerschossen, oder die Farben stimmen über Sekunden nicht mehr.
Bei JPG-Bildern reicht auch schon ein falsches Byte, um das ganze Bild nicht mehr anzeigen zu können.
Da verwundert es schon, dass die Daten so 100% bleiben wie sie sind.
Wenn ich z.B. meine Bildersammlung zwecks Backupsicherung gezippt und verschlüsselt auf einen Webserver auf der anderen Seite der Kugel hochlade, und später wieder downloade, dann sind diese absolut fehlerfrei.
(Bei einer ZIP-Datei reicht ein falsches Bit, und die ganze Datei ist unbrauchbar)
Wie wird eine so unglaubliche Fehlerfreiheit ermöglicht?
Ich habe mal ein einfaches Kopierprogramm in BASIC geschrieben, mit dem man Dateien kopieren kann.
Habe spasseshalber mal ein Video kopiert, und nur ein paar Bytes mitten in der Datei verändert, und was soll man sagen:
Bei einem 10MB Video reicht schon ein einziges Byte, um sichtbare Fehler zu produzieren, manchmal sind ganze Blöcke des Videos zerschossen, oder die Farben stimmen über Sekunden nicht mehr.
Bei JPG-Bildern reicht auch schon ein falsches Byte, um das ganze Bild nicht mehr anzeigen zu können.
Da verwundert es schon, dass die Daten so 100% bleiben wie sie sind.
Wenn ich z.B. meine Bildersammlung zwecks Backupsicherung gezippt und verschlüsselt auf einen Webserver auf der anderen Seite der Kugel hochlade, und später wieder downloade, dann sind diese absolut fehlerfrei.
(Bei einer ZIP-Datei reicht ein falsches Bit, und die ganze Datei ist unbrauchbar)
Wie wird eine so unglaubliche Fehlerfreiheit ermöglicht?