Die Unfehlbarkeit des Computers

SSD1TB

Ensign
Registriert
Okt. 2010
Beiträge
245
Hallo !


Ich habe mal ein einfaches Kopierprogramm in BASIC geschrieben, mit dem man Dateien kopieren kann.
Habe spasseshalber mal ein Video kopiert, und nur ein paar Bytes mitten in der Datei verändert, und was soll man sagen:
Bei einem 10MB Video reicht schon ein einziges Byte, um sichtbare Fehler zu produzieren, manchmal sind ganze Blöcke des Videos zerschossen, oder die Farben stimmen über Sekunden nicht mehr.

Bei JPG-Bildern reicht auch schon ein falsches Byte, um das ganze Bild nicht mehr anzeigen zu können.

Da verwundert es schon, dass die Daten so 100% bleiben wie sie sind.
Wenn ich z.B. meine Bildersammlung zwecks Backupsicherung gezippt und verschlüsselt auf einen Webserver auf der anderen Seite der Kugel hochlade, und später wieder downloade, dann sind diese absolut fehlerfrei.
(Bei einer ZIP-Datei reicht ein falsches Bit, und die ganze Datei ist unbrauchbar)

Wie wird eine so unglaubliche Fehlerfreiheit ermöglicht?
 
:) Ja, ist schon klar 0 und 1

Deshalb kann eine digitale Kopie auch "besser" sein als das Original.

Bei einer alten CD-ROM z.B. ,wo die Bits schon leicht "verschwommen" sind, aber noch lesbar sind ist das der Fall.
Eine 0 wird als 0 und eine 1 als 1 gelesen, beim kopieren werden wieder
Strahlemänner bzw. saubere Einsen und Nullen daraus :)

Aber trotzdem treten Übertragungsfehler auf, welche irgendwie durch Prüfsummen rausgerechnet werden
 
Na da gibts schon viele Schutzmaßnahmen um gekippte Bits zu lokalisieren und reparieren.
Guck dich da mal bei der Netzwerktechnik um.
Um das zu erklären kann man ganze Semester ausfüllen ;)
Wenn da zB ein paket fehlerhaft ankommt wird dies einfach nochmal angefordert.
Deshalb musste ich so lachen als eine bekannte Musikzeitschrift LAN Kabel auf deren Klang untersuchte für Netzwerkplayer :freak:
 
kommt auf das Protokoll an ... ;)
 
SSD1TB schrieb:
Da verwundert es schon, dass die Daten so 100% bleiben wie sie sind.

Wem sagst du das?
Ich wundere mich auch immer, wenn ich eine jahrelang nicht genutzte Datei wiedeverwende.
Oder wenn ich was kopiere? Das soll nicht schlechter, ehr besser werden, wenn ich das schon 1000x kopiert hab? Wie soll das gehen?
Und am besten ist es ja wenn ich große Dateien verschiebe. Da wird dann mit 40MB die Sekunde auf meiner Festplatte geschrieben.

Nur mal zur Veranschaulichung: 1MB sind 1024KByte, 1KByte sind 1024Byte. Ein Byte wird untergeordnet in 8 Bits, also effektiv sind das da 8 Zeichen (einser und nuller) auf der Festplatte, welche geschrieben werden müssen.
Bei meinen oben erwähnten Schreibvorgang wären das dann: 40x1024x1024x8 = 8 388 608 Schreibvorgänge.

Na klar! Verarschen kann ich mich alleine. NIEMAND schaft 8 388 608 anschläge/Schreibvorgänge in der Sekunde. Das ist Hexerei. Und dann auch noch unfehlbar sein?
Sag mal, glaubt da echt irgendjemand daran?
 
Haudrauff schrieb:
NIEMAND schaft 8 388 608 anschläge/Schreibvorgänge in der Sekunde. Das ist Hexerei. Und dann auch noch unfehlbar sein?
Sag mal, glaubt da echt irgendjemand daran?

niemand ja aber etwas kann es: die festplatten :D

vie lustiger sind da doch aber große backbone server... da gehen mehrere 10gbit/s durch :D
 
Zuletzt bearbeitet:
Ja klar, selbst Festplatten können sowas nicht.
Was kommt noch?
Als nächstes behauptet einer er könne 3 Milliarden Transistoren auf ein 2€-Stück bauen.:freak:

Leute gibts...alle Geisteskrank in der IT-Branche...Größenwahnsinnig...dabei könnte man es mit Zauberrei ganz einfach erklären...unfehlbar ist außerdem nur der Papst....
 
Hab extra gegoogelt (auch son Hexenwerk)
3Mrd. sollen es bei der 480GTX sein.
 
Zuletzt bearbeitet:
Mr. Incredible schrieb:
Willkommen im digitalen Zeitalter! :)
Sorry aber diese Argumentation ist genau falsch herum. Analoge Daten sind wenig anfällig für kleine Fehler, Digitaltechnik ist sehr anfällig dafür, sollte ja auch logisch sein!

Ich glaube aber, vor allem wenn du mit Netzwerken oder Zip-Programmen arbeitest wird ständig auch mit Checksummen und Korrekturbits gearbeitet. Die Fehleranfälligkeit von Winzip war auch immer in der Kritik, WinRAR und 7Zip machen das einfach deutlich besser.
 
Zuletzt bearbeitet:
les dich mal bzgl Hammingverfahren ein, hier werden zbsp 7 bits statt 4 bits übertragen(eine spezielle Variante), die 7 bits können allerdings einen Fehler beinhalten, welcher vom Empfänger korrigiert werden kann. Gibt aber noch zahlreiche andere Verfahren, haben allerdings alle den Nachteil, das größere Datenmengen "verschoben" werden müssen für die gleiche Information.

edit: kleine Fehler drinne gehabt^^
 
Zuletzt bearbeitet:
.. naja, ist schon erstaunlich wie sich alles Weiterentwickelt hat.
Ich hab z.b. etwa 1990 mit DFü angefangen. Damals war ein 2400baud
Modem schon das schnellere. 14400er gab es zwar, waren aber unbezahlbar.
Heute quetscht man über die selbe besch*ssene Klingeldrahtleitung im Haus (die da u.U. auch schon seit 50 Jahren liegen) VDSL 50 Mbit für 69,- € (oder weniger) Flatpauschale durch.
Und wer sich die zwei fizzel-drähtchen am DSL-Splitter mal anschaut, weis
was ich meine...
 
Jau, gestern die Telefonbuchse zwecks Tapezieren auseinander genommen.
Und immer wieder staune ich, dass es echt nur 2 Drähte sind, durch die Unmengen
von Daten tagein tagaus durchjagen.
 
Nein, es ist noch schlimmer.
Ein Kabel für den download, das andere für den upload.:lol:
Kleiner Scherz...

Da kann man echt lange dran ziehen, locker mehrere 100m, bis man mal ein Stück Glasfaser in der Hand hat.
 
Will ich sehen wie du den DSLAM durch die Mauer bekommst. :D
 
Zurück
Oben