Digitale Kopie- Qualitätsverlust

de la Cruz schrieb:
Wie schon gesagt: Blauäugier Unsinn ! Auch digitaler Verschleiß lässt sich nicht vermeiden
Du nennt Checksummenbildung und Fehlerkorrektur blauäugigen Unsinn? Checksummenprüfung ist ja nun absolut nichts ungewöhnliches, wenn auch nur ein Bit sich ändert, passt der Hash nicht mehr.

Ein verändertes Bit in einem BMP-Bild merkt man vielleicht nicht, aber ein verändertes Bit in einem Code führt dazu, dass er oft schon gar nicht mehr startet. Und was nicht startet, kann auch nicht abstürzen.

Du überträgst fälschlicherweise die Irrelevanz von Fehlern in Bildern auf andere Bereiche.
 
Zuletzt bearbeitet:
de la Cruz schrieb:
Warum sollte Windows 95 auch nicht mehr funktionieren, wenn vielleicht in der Grafik des Logos beim Erscheinen auf dem Bidschirm in der "5" ein Pixel fehlt oder statt rot grün oder blau rüberkommt ! Das sieht kein Mensch, wenn er nicht mit extremer Vergrößerung dran geht, und stehen bleibt WIN 95 deshalb auch nicht ! Es sind ja nur ganz seltene Fälle, in denen sich der Verschleiß auch auf essentielle Befehle auswirkt - und wie schon mehrfach gesagt, ein Programm gelegentlich mal wieder neu installieren zu müssen kennt doch jeder !

Kenn ich von Windows XP. Immer wenn die Wiese auf dem Hintergrundbild gelb geworden war, hab ich neu installiert. Dann war die wieder saftig grün.
 
de la Cruz: du machst einen Denkfehler. es gehtn im Eröffnungspost um eine digitale KOPIE. Dein Ansatz bezieht sich darauf, was - durch Anwendungsprogramme - mit den digitalen Daten gemacht wird. HIER gibt es Abweichungen, Veränderungen, so dass eine "Kopie" nicht mehr dem "Original" entspricht. Aber das ist immer dann der Fall, wenn aus digitalen Daten analoge gemacht werden, die wir dann sehen, hören oder was auch immer.
Um es mit einem Beispiel zu illustrieren:
Eine *.wav-Datei eines Songs kann fehlerfrei hundert Mal digital kopiert werden und ist IMMER 1:1 dem Original entsprechend (wenn es nicht mehr so ist, liegt ein Kopier-Fehler vor).
Aber wird diese WAV-Datei abgespielt (völlig egal, ob das Original, die 10. oder die 100. Kopie), wird das neue "Original" (=analoges Signal) JEDES Mal ganz geringfügig anders klingen, weil bei der Signalbearbeitung mathematisch gerundet wird. Aber das hört man natürlich nicht.
Handelt es sich um ein Signal, das bereits bearbeitet gespichert worden ist (wie mp3), multiplizieren sich natürlich diese Ungenauigkeiten, teilweise bis in den hörbaren Bereich (beispielsweise mit einer 128 kB-Samplingrate).
 
Jesterfox schrieb:
Weil die Leute regelmäßig ihr System mit "Optimierungstools" schreddern.

Auf derart unsachliche Beiträge können wir hier eigentlich verzichten ! Optimierungstools erzeugen keine Speicherfehler bzw. falsch abgespeicherte Befehle; wenn das zuträfe, was Du den Tools hier mal wieder im Rundumschlag zu unterstellen versuchst, dann würden von den Tools korrekt gespeichert Befehle geschreddert oder eingefügt, nicht aber beschädigte Speicherzellen als solche erzeugt oder manipuliert !

Mit digitalem Verschleiß hätte das gar nix zu tun !
 
Zuletzt bearbeitet:
Genau das will ich damit sagen: diese Tools "breinigen" Registry usw. und löschen dabei essentielle Teile und deshalb entstehen Fehler und man muss neu installieren.

"Digitaler Verschleiß" (zumindest in diesem Ausmaß) existiert nur in deiner Fantasiewelt (und evtl. auf den Samsung 840Evo SSDs ;-)
 
de la Cruz schrieb:
Auch das ist Unsinn ! Auch in Programmen fehlen immer mehr Bits und Bytes, doch die meisten sind unerheblich ! Unsere Programme bestehen heutzutage in der Regel aus unendlich riesigen Datenmengen, die fast nur dazu dienen, Grafiken herzustellen
Totaler Mumpitz.
Nehmen wir mal die einfachste Form eines Programms: Ein Script, z.B. eine auf PHP basierende Webseite. Das Zeug wird üblicherweise als UTF-8 kodiert, also 2Byte pro Zeichen. Aber vereinfachen wir weiter, schreiben wir ein PHP-Script in ASCII. Das funktioniert auch wunderbar. Jedes Byte kodiert jetzt genau EIN Zeichen des Scripts.
Was passiert wohl, wenn jetzt plötzlich ein einzelnes Bit kippt und aus "str_replace()" plötzlich "scr_replace()" wird?

de la Cruz schrieb:
Umgekehrt ist die Frage richtig: Warum sollten die Windows 95 Maschinen heute nicht mehr laufen !
Aufgrund des sogenantes "Data rot", dem "Verrotten" von Daten. Datenträger sind nun einmal einem physischen Verfall unterlegen, schon allein durch die übliche Hintergrundstrahlung. Optische Datenträger oxidieren, magnetische können durch Strahlung und Magnetfelder gestört werden, Papier zerbröselt,...
Es kann also durchaus sein, dass du die Kiste vor 15 Jahren eingemottet hast und sie heute nicht mehr bootet.

Das ändert aber nichts daran, dass digitale Kopien in der Regel vollkommen fehlerfrei sind, da die verschiedenen Übertragungswege durchaus auch Prüfsummen verwenden oder zusätzliche Redundanzen hinzu gefügt werden, die Fehlererkennung oder -korrektur ermöglichen.
 
Jesterfox schrieb:
"Digitaler Verschleiß" (zumindest in diesem Ausmaß) existiert nur in deiner Fantasiewelt (und evtl. auf den Samsung 840Evo SSDs ;-)
Aber selbst dort wird es nur langsamer und nicht kaputt. ;)
 
Der Digitale Verschleiß von dem du sprichst hat aber nichts mit irgendwelchen Fehlerhaften Kopien zu tun, sondern passiert auch wenn du eine Festplatte z.b. 15 Jahre ins Regal legst. Dort wird einfach die Ladung schwächer und dadurch kippen Bits. Ab einer gewissen schwelle können dies die Checksummen nicht mehr ausbessern und du hast digitalen Verschleiß.

Die Fehler die bei XP usw. zur Beschädigung des Systems geführt haben waren meist schlecht programmierte Treiber, alte Programme die noch nicht auf die reine 32-Bit Umgebung angepasst waren und gelegentlich vielleicht wirklich gekippte Bits.
Diese Fehler treten wie beschrieben aber extrem selten auf und wenn dies häufiger wäre, wären High Performance Cluster usw. sinnlose unterfangen und würden außer Fehler nichts produzieren.

Die Techniken die du als zu kompliziert und Kostenintensiv abstempelst sind beides nicht und werden seit Jahrzehnten eingesetzt. Siehe Hamming Code, 8B10B, 128B130B, ECC, SHA und viele andere Coding und Checksum Methoden. Klassisches Beispiel sind hier Linux ISOs. Hier liegen auf den FTPs auch die dazu gehörenden SHA Checksummen mit denen man die ISOs nach dem Download verifizieren kann.

Die Optimierungstools die Jesterfox beschrieben hat waren zu XP Zeiten jedoch mit Abstand das größte Übel, da damit irgendwelche "unbenötigten" Treiber, Config oder sogar Systemdateien gelöscht wurden. Das summierte sich dann und irgendwann war es dann Schrott. Solche Fehler lassen sich durch, zu sehr Übertaktete CPU, RAM usw. leicht reproduzieren wenn das System alle paar Minuten mal abschmiert und der Cache auf den Festplatten und der RAM nicht mehr geleert werden kann.
 
Nicht mal mit google findet sich unter "digitaler Verschleiss" etwas, was de la Cruz beschreibt (also einfach ein veränderter Informationsinhalt in einer Datei).

Datenbanken wären nicht vertrauenswürdig, alles was mit Hashes geprüft wird, wäre nicht mehr funktionsfähig (signierter Code, Zertifikate). Wenn die Fehler eines Datenträgers nicht mehr korrigiert werden können, ist die Datei nicht mehr vertrauenswürdig.
 
Zuletzt bearbeitet:
Hallo Flo,
gut dass du das mit der demagnetisierung und dem umkippen der bits. Ansprichst. Ich hätte eine frage dazu. Passiert sowas echt erst nach 15 Jahren oder muss man vorsichtig sein. Ich habe im Internet tips gelesen, nachdem man 1x im Jahr die Daten neu aufspielen soll um die Konsistenz zu gewährleisten. Das halte ich aber für merkwürdig, dass das schon nach 1 Jahr passieren kann.

Und gilt das nur für externe oder auch interne platten?
 
Ach das mit 1x im Jahr ist schwachsinn. Hersteller sprechen im Mittel zwischen 10 - 15 Jahren. Je kleiner die Spur, umso kleiner die Ladung und damit auch die Haltedauer. Im Normalfall wechselt man die Platte aber bevor dieses Phänomen nur annähernd zum tragen kommt.

Es gilt für alle Datenträger. Bei Magnetischen reduziert sich die Ladung des magnetischen Feldes durch äußere Einwirkungen wie das Erdmagnetfeld, Induktive Ladungen und so ziemlich allen elektrischen Feldern mit der Zeit.
Bei SSDs, RAM, Flash und anderen auf Kondensatoren basierenden Speichern reduziert sich die elektrische Feldstärke.

In beiden Technologien gibt es entsprechende Grenzwerte die die Auswertelogiken entsprechend auswerten. Dann wird 1 und 0 daraus. Da es aber Trennabstände dazwischen gibt und alles was nicht 0 ist auch nicht gleich 1 ist. Entstehen dadurch undefinierte Zustände, kurz die Zelle, ist nicht auswertbar oder fehlerhaft. Dann greifen die Checksummen.

Sind zuviele dieser Zellen beschädigt, ist die Datei, Dateien nicht mehr lesbar und du hast einen Fehler.
 
Zuletzt bearbeitet:
Also kann ich ne Platte ruig 10 Jahre in den schrank legen ohne das was passiert? Dann bin ich beruigt.
 
OK ! Es ist also so: bei einer digitalen Kopie werden hunderte von Millionen oder Milliarden Daten von einer Stelle auf einem Datenträger durch hunderte von Millionen oder gar Milliarden Zugriffe eines mechanischen Schreib-Lesekopfes auf eine andere Stelle eines Datenträgers übertragen; zumindest bei den heute immer noch gebräuchlichen HDDs sogar auf mechanischem Wege !

Und ihr garantiert dabei, dass es bei diesen endlosen einzelnen Datezugriffen bei keinem einzigen Bit, das da an anderer Stelle neu abgespeichert wird, zu einem Fehler bei der (mechanischen) Anspeicherung kommen könnte ! Millionen und Milliarden mechanische Vorgänge immer absolut fehlerfrei funktionieren !

Man, man oder frau frau : Träumt weiter von Eurer schönen, neuen, heilen Datenwelt !


Frostborn schrieb:
Also kann ich ne Platte ruig 10 Jahre in den Schrank legen, ohne dass was passiert? Dann bin ich beruigt.

Im Prinzip kann man sagen ja, zumindest wenn Du in die Deine Ruhe auch noch das "h" einfügst ! Wahrscheinlich ist sogar, dass Du auch vielen Jahrzehnten noch brauchbare Daten auslesen kannst !
 
Zuletzt bearbeitet:
Ich hab hier 12 Jahre alte ATA Platten die Backups enthalten und zum testen im Schrank liegen. Ergebnis gerade eben: Die Videos darauf gehen wunderbar, die Daten aus der Schule sind Lesbar ( div. doc, xsl usw.) Ich konnte auch noch speichern darauf.

Das waren aber noch 80GB Platten also Vorsicht. Die Datendichte wurde massiv erhöht, aber es sollte trotzdem funktionieren.

@de la Cruz: Die durchschnittliche Fehlerrate bei Festplatten liegt bei 1x10 hoch 14 gelesenen Bits. Lesefehler selber treten viel öfters auf aber werden durch Checksummen bereinigt. Bei normalen Festplatten kann man also sagen, dass alle 12,5 TB ein Fehler auftritt. Da Kopieren läuft ohne viel Umweg übers OS von HDD zu HDD und dabei entstehen keine Fehler. Wenn du auf Nummer sicher gehen willst dann erstelle Checksummen und vergleiche das Ergebnis nachher.
 
Zuletzt bearbeitet:
de la Cruz schrieb:
OK ! Es ist also so: bei einer Digitalen Kopie werden hunderte von Millionen oder Milliarden Daten von einer Stelle auf einem Datenträger auf eine andere Stelle eines Datenträgers übertragen; zumindest bei den heute immer noch gebräuchlichen HDDs sogar auf mechanischem Wege !

Und ihr garantiert da bei, dass es bei keinem einzigen Bit, das da an anderer Stelle neu abgespeichert wird, zu einem Fehler bei der (mechanischen) Anspeicherung kommen könnte ! Millionen und Milliarden mechansiche Vorgänge immer absolut fehlerfrei funktionieren !
Die entsprechende Größe ist die Bit Error Rate. Bei SAS Disks ist es meist ein unkorrigierbarer Fehler pro 10 hoch 16 bits (10 Billiarden wenn ich mich nicht irre), bei normalen SATA-Disks aktuell im Bereich um 10 hoch 14. Die meisten Fehler sind aber korrigierbar, durch Checksummen oder Paritätsdaten.

Wenn ein Datenträger einen Fehler nicht korrigieren kann, meldet er es an das Betriebssystem, damit es dementsprechend die Daten als nicht lesbar klassifizieren kann. Das Betriebssystem oder der Datenträger würfelt nicht einfach ein neues Bit aus.
 
Zuletzt bearbeitet:
de la Cruz schrieb:
Und ihr garantiert da bei, dass es bei keinem einzigen Bit, das da an anderer Stelle neu abgespeichert wird, zu einem Fehler bei der (mechanischen) Anspeicherung kommen könnte ! Millionen und Milliarden mechansiche Vorgänge immer absolut fehlerfrei funktionieren !

Dafür gibt es ja die Prüfsummen und Prüfmechanismen. Wenn du eine 2 und eine 3 speichern willst, packst du eben als Prüfsumme noch die 5 dazu. Wenn dann einer der Werte (2, 3 und 5) verloren geht kannst du ihn aus den restlichen zwei Werten restaurieren. Ab dem Zeitpunkt wo zwei Werte verloren gehen ist Feierabend.

Eine digitale Kopie hat auch rein gar nichts mit mechanischen Fehlern zu tun. Die gibt es und wird es immer geben. Wenn bei einer digitalen Datei allerdings die Prüfsummen nicht mehr funktionieren ist Feierabend.

Oder wie weiter vorn beireits gesagt. TRUE bleibt immer TRUE und FALSE immer FALSE. Da gibt es keine digitalen Verschleiß, so dass da plötzlich ein VIELLEICHT rauskommt. In dem Moment wo nicht mehr klar ist ob ein Bit gesetzt oder gelöscht sein muss, sind deine Daten im Eimer.

Und um das zu verhindern macht man übrigens Backups.
 
@Atkatla
Ok, aber dies überpfüfung findest in nem normalen Desktop ja nicht statt. Der hat keinen ECC Ram und wenn müsste man Checksummen selber checken.

Weiss eigentlich einer was mit den 2% gemeinst ist, die der eine aus meinem Startpost meinte?
 
de la Cruz schrieb:
Und ihr garantiert dabei, dass es bei diesen endlosen einzelnen Datezugriffen bei keinem einzigen Bit, das da an anderer Stelle neu abgespeichert wird, zu einem Fehler bei der (mechanischen) Anspeicherung kommen könnte ! Millionen und Milliarden mechanische Vorgänge immer absolut fehlerfrei funktionieren !

Vor allem die Checksummen die dabei verwendet werden garantieren das. Wenn es naders wäre würde unsere Welt im Chaso versinken. Täglich werden Milliarden von Geld-Transaktionen digital getätigt (quasi ein verschieben von digitalen Daten). Versuch dir einfach mal vorzustellen was passieren würde wenn deine Annahme zur Fehlernafälligkeit richtig wäre. Wo sind denn die zig tausende von Aufschreien weil zu wenig Lohn überwiesen wurde? Ein gekipptes Bit und dir fehlen z.B. mal 1024€ von deinem Monatslohn...
 
Frostborn schrieb:
@Atkatla
Ok, aber dies überpfüfung findest in nem normalen Desktop ja nicht statt. Der hat keinen ECC Ram und wenn müsste man Checksummen selber checken.
ECC-RAM ist eine zusätzliche Prüfebene, aber nicht die einzig mögliche. Auch ohne ECC-Ram müssen Zertifikate bis aufs letzte Bit stimmen und können Prüfsummen ausgerechnet und geprüft werden. Wenn sich gespeicherte Datei oder die Prüfsummendatei ändert, gäbe es einen Mismatch, unabhängig davon ob ich beides auf ein und demselben System speichere oder nicht.
 
Atkatla schrieb:
Wenn ein Datenträger einen Fehler nicht korrigieren kann, meldet er es an das Betriebssystem, damit es dementsprechend die Daten als nicht lesbar klassifizieren kann.

Unsinn: Wenn ein Bit in einem Byte statt als 0 als 1 abgespeichert wird, dann kann das Betriebssystem das sehr wohl lesen und bemerkt keinen Fehler ! Das Resultat ist zum Beispiel, dass ein Pixel auf dem Bildschirm vielleicht rot statt grün abgebildet wird, um mal ein leicht verständliches Beispiel zu nennen !
 
Zurück
Oben