CrystalDiskInfo Gesamtzustand: Vorsicht

@jtsn: Das Hersteller wissen, was sie tun, steht außer Frage. Davon hat der Kunde aber noch kein zuverlässiges Produkt, sondern eines, dass den Vertriebsvorstellungen des Herstellers entspricht.
Das mit den defekten Sektoren hast du falsch verstanden, ich spreche von dem Zeitpunkt, wenn etwaige neue defekte Sektoren gefunden werden, gern beim Lesen oder Schreiben großer Datenmengen. Nach meiner Erfahrung schluckt eine Platte diesen Defekt mitnichten unmerklich.
Ich habe zudem defekte Bilder auf einer unauffälligen Platte gehabt, die im Backup noch heil gespeichert waren, ergo ist ein Oberflächenfehler verantwortlich gewesen, der von SMART nicht erkannt wurde.
Deshalb führe ich gar viertel- bis halbjährlich Byte-Vergleiche meiner Daten durch, z.B. mit Puresync.
Ich bin auch nicht dafür, dem TE unnötige Arbeit aufzubürden. Die Oberfläche einer produktiv genutzten Platte regelmäßig zu testen gehört für mich aber nicht mehr dazu, zu viele unnötige Ausfälle habe ich dafür gesehen.

EDIT: Die Garantiezeiten haben sich wieder entspannt, seit 2013 neu auf den Markt gebrachte Platten haben mind. 2 Jahre Garantie. Ich denke, die Phase war eher den Nachwehen von Thailand zuzuordnen.
 
Zuletzt bearbeitet:
Heen schrieb:
werden, gern beim Lesen oder Schreiben großer Datenmengen. Nach meiner Erfahrung schluckt eine Platte diesen Defekt mitnichten unmerklich.
Ich habe zudem defekte Bilder auf einer unauffälligen Platte gehabt, die im Backup noch heil gespeichert waren, ergo ist ein Oberflächenfehler verantwortlich gewesen, der von SMART nicht erkannt wurde.
Beim Lesen und Schreiben großer Datenmengen werden besonders oft RAM-Fehler sichtbar, also defekter Hauptspeicher im dem Rechner, der für die Kopieraktion verwendet wurde. Passiert besonders gern bei minderwertigem übertaktetem RAM mit bunten Kühlkörpern. Solltest du diesen Rechner noch haben, wird er das auch weiterhin tun.

In Servern wird deshalb fehlerkorrigierender ECC-Speicher verwendet, also ein Arbeitsspeicher mit integriertem Defektmanagement. Den gibt es natürlich nicht ohne Grund. Neu ist übrigens, daß man solche Speicherfehler auch absichtlich hervorrufen kann: http://www.heise.de/security/meldun...lationen-mit-dem-Vorschlaghammer-2571835.html

Als weitere typische Ursachen kommen defekte USB- oder SATA-Kabel, defekte USB-Brücken-Chips und natürlich allerlei Probleme mit diversen Kapazitäts-Grenzen (2 TB), wo Windows auch gern mal unangekündigt Daten zerstört.

Eine Festplatte, die selbst ECC verwendet, aber unbemerkt Daten von sich aus verfälscht, habe ich hingegen noch nie gesehen. Und ich habe schon viel Schrott auf dem Tisch gehabt.
 
Die RAM-Fehler führen aber nicht zu schwebenden Sektoren... Nein, im von mir beschriebenen Fall wurde eine neue Platte mit Daten vollgeschrieben >>keine Fehler. Als jedoch die Daten in derselben Woche wieder ausgelesen werden sollten, stockte der Vorgang und die Platte konnte 2 Dateien nicht mehr lesen >> Reklamation.

Ich beschreibe dir den Fall mit den defekten Bildern etwas genauer: Die Daten liegen auf einem internen Datengrab. Etwa 5 Jahre alte Bilder, seltener Zugriff. Dann wurde eine neue Platte besorgt, ein Backup erstellt. Beim Byte-Vergleich einige Monate später wurde dann dieser Missstand aufgedeckt: Das Backup ist in Ordnung, die intern gespeicherten Daten defekt. RAM-Fehler auch hier unmöglich, es wurden Daten lediglich gelesen, und das nach dem Byte-Vergleich wiederholt. Die Bilder waren defekt, die SMART-Werte völlig OK.
 
@jtsn
Die Tools sind nicht das Problem:

http://www.heise.de/newsticker/meldung/Google-Studie-zur-Ausfallursache-von-Festplatten-147178.html

... Eduardo Pinheiro, Wolf-Dietrich Weber und Luiz Andre Barroso haben dazu ein dreiviertel Jahr lang die SMART-Daten (Self-Monitoring Analysis and Reporting Technology) von mehr als 100.000 Festplatten ausgewertet, die bei Google-Diensten permanent im Einsatz sind.Eine statistisch gesehen besonders häufige Ausfallrate ermittelten die Wissenschaftler bei Platten, die zuvor per SMART Scanfehler meldeten. Die so genannten Scan Errors deuten auf eine Beschädigung der Medienoberfläche hin. Auch eine hohe Anzahl an belegten Reservesektoren (Reallocated Sector Count) führten früher oder später meist zum Festplattentod.

...

Nicht neu ist allerdings die Erkenntnis, das der SMART-Mechanismus allein nicht immer einen Plattenausfall vorhersagen kann. 36 Prozent der während der Datenerhebung ausgefallenen Laufwerke hatten zuvor keinerlei SMART-Fehler gemeldet. Trotz eines Frühwarnsystems wie SMART sollte man deshalb regelmäßig eine Datensicherung durchführen, um Datenverlusten vorzubeugen.

Ich würde da gar nicht lange abwägen.
Im Fall vom TE ist das jetzt nicht so schlimm, weil er meint, alle Daten gesichert zu haben, aber normalerweise steht schnellstmöglich der Austausch an. Wir beackern hier ja auch keine Server- sondern Desktopplatten.
 
Fried_Knight schrieb:
Die Google-Festplattenstudie taucht auch immer wieder auf wie ein Zombie. :lol: :D

Die Angaben in der Studie basieren auf den SMART-Daten von IDE- und SATA-Platten unterschiedlicher Hersteller mit 5400 und 7200 U/min in Kapazitäten von 80 bis 400 GByte, die ab 2001 in Betrieb genommen wurden.
Damals vor 14 Jahren (!) war noch nicht mal PMR (Perpendicular Magnetic Recording) - das heute verwendete Aufzeichnungsverfahren - erfunden. Mit einer Studie über Festplatten aus der Antike wirst du seriös keine Aussagen über heutige TB-Laufwerke ableiten können.
 
jtsn schrieb:
Falsch. Transparentes Defektmangement ersetzt Sektoren, bevor Datenverluste auftreten.

Das macht aber KEINE Festplatte. So funktioniert SMART nicht.

Eine Platte prüft zwar, ob Sektoren gelesen werden können und erhöht den "pending sector count", wenn es auf unlesbare Sektoren trifft, eine Austausch erfolgt aber erst, wenn beim Beschreiben des pending sector festgestellt wird, das das gerade geschrieben nicht wieder lesbar ist.

Tritt der Lesefehler auf einem Sektor auf, in dem Daten abgelegt sind, dann bedeutet das zwangsweise Datenverlust.
 
Fried_Knight schrieb:
Ab 2005 wurde PMR eingesetzt.
Aber solche Festplatten wurden nicht in die Studie aufgenommen.
Ergänzung ()

kisser schrieb:
Das macht aber KEINE Festplatte. So funktioniert SMART nicht.
Mit SMART hat das Verfahren gar nichts zu tun. Defektmanagement funktioniert auch bei abgeschaltetem SMART. Es wurde ohnehin ungefähr ein Jahrzehnt vor SMART eingeführt. (Davor hat man defekte Sektoren außen auf der Festplatte notiert).

Eine Platte prüft zwar, ob Sektoren gelesen werden können und erhöht den "pending sector count", wenn es auf unlesbare Sektoren trifft, eine Austausch erfolgt aber erst, wenn beim Beschreiben des pending sector festgestellt wird, das das gerade geschrieben nicht wieder lesbar ist.
Diese Behauptung wirst du nicht belegen können. Denn wie das Defektmanagement eines einzelnen Festplattenmodells genau arbeitet, ist Betriebsgeheimnis des Festplattenherstellers. Das ist nicht anders als bei SSDs, auch da wird dir niemand auf die Nase binden, wie das Wear Leveling genau arbeitet.

Es ist auch völlig unwichtig, wie es genau funktioniert (was auch modellabhängig ist), wenn das Endergebnis dem Industriestandard (defect free user area) entspricht. Das ist, was den Endnutzer letztlich interessiert.
 
Zuletzt bearbeitet:
jtsn schrieb:
Aber solche Festplatten wurden nicht in die Studie aufgenommen.

Steht wo? Es wurden einfach alle Platten ausgelesen, die in diesem Zeitraum da waren. PRM oder sonstwas war kein Ausschlusskriterium.
 
The data in this study are collected from a large num-
ber of disk drives, deployed in several types of systems
across all of Google’s services. More than one hundred
thousand disk drives were used for all the results pre-
sented here. The disks are a combination of serial and
parallel ATA consumer-grade hard disk drives, ranging
in speed from 5400 to 7200 rpm, and in size from 80 to
400 GB. All units in this study were put into production
in or after 2001. The population contains several models
from many of the largest disk drive manufacturers and
from at least nine different models. The data used for
this study were collected between December 2005 and
August 2006.
Die ersten 3.5"-SATA-Festplatten mit PMR hatten 750 GB (Seagate) und 1 TB (Hitachi) und kamen 2006 bzw. 2007 auf den Markt.
 
Gesetz dem Fall, die Info stimmt (ich google das jetzt nicht nach), in wie weit beeinflusst das die Auswertung und Interpretation der SMART-Werte?
 
Das_Biebo schrieb:
Also meine ganzen wichtigen Daten sind sowieso immer auf einer externen.
Hoffentlich nicht nur auf einer externen, denn nur Backups geben wirklich Datensicherheit. Stell Dir vor die externe fällt mal runter.....
Das_Biebo schrieb:
Übrigens, wenn ich in CrystalDiskInfo über die "Vorsicht" Anzeige fahre, zeigt er mir zusätzlich zu den 2 schwebenden Sektoren noch die Meldung: "Vorsicht [05] Anz. wiederzugewiesener Sektoren: 40
Deswegen steht da auch Vorsicht, was bedeutet, dass man die Werte gut im Auge behalten soll und nicht schlecht, was dann erscheint wenn der Aktuelle Wert oder ggf. der Schlechteste Wert die Grenzwerte erreicht bzw. unterschreitet.

jtsn schrieb:
Ein paar Dutzend Grown Defects sind nach fünf Jahren Dauerbetrieb ganz normal, das weiß der Autor der Software "CrystalDiskInfo" offenbar nicht.
Unsinn, die schreiben ja Vorsicht und das ist bei so einem Zustand auch angebracht. Lasse bitte Dein unsinnige Gebashe gegen CrystalDiskInfo sein, das brignt niemandem etwas.
jtsn schrieb:
Ausfallen tun die Teile immer ohne Vorankündigung.
Auch falsch, denn bei Fehlern auf dem Medium zeigen die S.M.R.T. Werte durchaus die erhöhte Gefahr eines Ausfalls an, auch bei SSDs. Schau Dir diese Plextor M5 Pro an, auch wenn der Controller entweder schamlos bei den Lese- und Programmfehlern lügt, so gibt er wenigstens an alle Reserveblöcke schon vebraucht zu haben. Eines von beiden kann eigentlich nicht stimmen, aber wer danach einen Ausfall erlebt, sollte nicht von einem Ausfall ohne Vorankündigung reden, er hat sie vielleicht nur nich gesehen oder ignoriert.

jtsn schrieb:
Reallocated Sectors (Grown Defects) sind längst durch Reserve-Sektoren ersetzt worden und beeinträchtigen den Betrieb nicht weiter, sie werden nur gezählt.
Das ist richtig, aber die geben einen Hinweis darauf, dass es bei der Oberfläche der HDD schon Probleme gab, was auch nicht ganz ohne Bedeutung ist und die Ursache oder die Folge dieser Oberflächenschäden können eine HDD auch mal schnell komplett killen, etwa wenn Staub oder Abrieb in der Platte sind.
jtsn schrieb:
Pending Sectors sind präventiv zum Ersetzen vorgemerkt, genau damit es eben keinen Datenverlust gibt.
Das ist Unsinn, die Pending Sectors können nicht mehr fehlerfrei gelesen werden und werden dann beim nächsten Beschreiben geprüft und ggf. ersetzt.
jtsn schrieb:
Das ganze nennt sich transparentes Defektmanagement und ist bei Festplatten seit ungefähr 30 Jahren im Einsatz.
Bei einige Platten kann, teilweise je nach Einstellung bestimmter Parameter, ein Ersetzen auch schon erfolgen, wenn die Platte Probleme hat einen Sektor zu lesen und es dann vor dem Timeout doch noch schafft, aber nur dann. Aber vor 30 Jahren musst man noch die Listen der Fehlerhaften Sektoren von Label der HDD ablesen und selbst eingeben, weil der Controller (MFM oder RLL) noch außerhalb der Platte war. Du hast diese Zeit sehr wahrscheinlich nicht erlebt, ich schon.
jtsn schrieb:
Wenn das Betriebsystem wegen defekter Sektoren einfriert, ist das Defektmanagement selbst ausgefallen (was sich mit einem Selbttest herausfinden läßt)
Wieder mal Unsnn, denn bei jedem schwebenden Sektor versuchen die Platten bis zum Timeout (TLER, ERC) diesen Sektor doch noch zu lesen (SAS/SCSI/FC an RAID Controller mal ausgenommen, wenn diese mit 520/528 Byte pro Sektor formatiert sind). Der Timeout ist ab Werk bei Desktopplatten schon spürbar lang, bei der WD Gren z.B. 14s, bei NAS und RAID Platten i.d.R. einstellbar (nichts anderes bedeutet das TLER was diese haben, denn einen Timeout haben alle Platten) und ab Werk kürzer voreingestellt, bei der WD Red 7s. Das ist eine spürbar Verzägerung und ein Windows wird solange wahrscheinlich einfrieren und bei Misserfolg einen Fehler melden.
jtsn schrieb:
und die Festplatte reif für den Austausch. Darauf gibt es hier aber keinerlei Anzeichen.
Da widersprichst Du Dir je selbst, denn Du sagst ja, dass die Platte nicht ausgetauscht werden muss, wo ich durchaus zustimmen kann, aber das die kein Einfrieren hervorrufen kann, ist falsch und ebenso, dass es dafür keine Anzeichen gibt, denn wenn jetzt schon schwebenden und wieder zugewiesene Sektoren da sind, werden es sehr wahrscheinlich auch noch mehr werden und dann kann das passieren.

jtsn schrieb:
Falsch. Transparentes Defektmangement ersetzt Sektoren, bevor Datenverluste auftreten.
Falsch liegst nur Du, denn so ein transparentes Defektmangement haben die meisten Consumer Platten gar nicht und die können auch nicht erkennen, wann ein Sektor Probleme macht, solange er gar nicht gelesen wird. Stöße könne die Köpfe aus der Spur bringen und beim Schreiben kann das reichen um so viele Bits auf der Nachbarspur zu überschreiben, dass deren Daten nicht mehr von der ECC wiederhergestellt werden können, da kann auch kein noch so tolles transparentes Defektmangement irgendwas machen. Dagegen hilft nur Redundanz im einem RAID und das Überprüfen der Daten, Srubbing genannt. Das ist dann ein transparentes Defektmangement für das RAID und dabei fallen solche Fehler auf und werden korrigiert, sofern das möglich ist. Aber hier geht es nicht um ein RAID.
jtsn schrieb:
80 % der Festplatten, die Festplattenhersteller zur RMA eingesendet bekommen, sind perfekt in Ordnung.
Belege? Und ab wann ist demnach eine Platte nicht mehr perfekt in Ordung?
jtsn schrieb:
Es ist durchaus solchen Kaffeesatzleser-Tools zuzurechnen, daß die Garantiefristen nun auf 1-2 Jahren verkürzt wurden.
So ein Blödsinn aber auch wieder, die Ausgaben von Tools wie CDI sind kein Kaffeesatzlesen und für die Garantie auch nicht relevant, da verlangt z.B. Seagate die Fehlernummer seines eigenen Tools um einen Garantiefall anzuerkennen.

jtsn schrieb:
In Servern wird deshalb fehlerkorrigierender ECC-Speicher verwendet, also ein Arbeitsspeicher mit integriertem Defektmanagement.
Wieder nur gefährliches Halbwissen: Die ECC RAMs haben kein integriertes Defektmanagement, das sitzt im Speicherkontroller, also heute meist in der CPU. Die ECC RAMs bieten einfach nur 9 statt 8 Bits Datenbreite und erlauben damit Prüfsumme um Fehler zu erkennen und ggf. zu beheben.

jtsn schrieb:
Als weitere typische Ursachen kommen defekte USB- oder SATA-Kabel
Noch mehr Blödsinn von Dir, lernst Du es nicht? Alle Übertragungen über SATA werden mit einer CRC pro FIS gesichert und da ein FIS maixmal 8k Daten enthält, ist das schon sehr sicher und vermeidet Fehler bei der Übertragung, ebenso ist es beim USB Bulk Protokoll, auch da gibt es genug Prüfsummen um Übertragungsfehler zu erkennen und dann eine Wiederholung der Übertragung zu veranlassen. UASP hat weniger Prüfsummen und weniger Sicherheit, aber soweit ich weiß ist auch dort etwas vorhanden.

Gefährlicher sind da schon die internen Datenpfade der Platte und auch des Host Controllers, die sind bei Consumer Platten oft nicht geschützt, im RAM Cache gekippte können dann nicht erkannt werden. Enterprise Platten haben da entsprechende Schutzmechanismen durch Prüfsummen, aber auch einige Consumer HDD erkennen offenbar inter Datenkorruption, denn die haben auch diese Ende-zu-Ende Fehler Attribut in den S.M.A.R.T. Werten, bei Seagate ist das meist der Fall, aber auch Samsung hier hat es (B8).
jtsn schrieb:
natürlich allerlei Probleme mit diversen Kapazitäts-Grenzen (2 TB), wo Windows auch gern mal unangekündigt Daten zerstört.
Da ist aber auch nicht Windows schuld, sondern i.d.R. die Treiber von den Chipsatz- bzw. SATA Host Controller Herstellern. Der Microsoft MSAHCI Treiber hat von Anfang an auch Platten über 2TB unterstützt, der RST von Intel z.B. erst der Version 10.1. Hier Windows die Schuld zu geben ist also nicht angebracht.

jtsn schrieb:
Eine Festplatte, die selbst ECC verwendet, aber unbemerkt Daten von sich aus verfälscht, habe ich hingegen noch nie gesehen.
Das sind dann aber auch meist Enterprise Platten die den oben beschriebenen Schutz der internen Datenpfade besitzen. Wer wert auf Datenintegrität legt, der achtet auch auf solche Features bei den HDDs und sollte dann eben ggf. mehr ausgeben um diese zu bekommen. Allerdings wäre das alles ohne ECC RAM im Rechner sowieso unsinnig, denn das RAM ist meist die größte Fehlerquelle im Rechner und da hilft nur ECC RAM, was bei allen Rechner Pflicht sein sollte, aber leider immer mehr nur auf Enterprise HW beschränkt bleibt. Die alten AMD AM3(+) Plattformen haben das ja noch unterstützt, wenn auch nur auf wenigen Board von ASUS und Gigabyte, aber die CPU konnten alle mit ECC RAM umgehen, die FM Plattformen können das nicht mehr.
jtsn schrieb:
Und ich habe schon viel Schrott auf dem Tisch gehabt.
Leg doch den Kopf nicht so oft auf die Tischplatte :evillol: Ernsthaft, Du schreibst eine Menge was am Thema total vorbei geht und die meisten TE dann einfach nur verwirrt, weil die eben nur eine einfach Consumer Platte haben und diese hat Probleme, kann noch lange halten, aber auch schon bald komplett kaputt sein. Wir können das alle nicht vorhersagen, S.M.A.R.T. Werte und Selbsttests hin oder her. Es hilft nur die Werte zu beobachten und wenn es einen recht starken Anstieg der schwebenden und/oder wieder zugewiesenen Sektoren gibt, dann ist ein baldiger Ausfall sehr wahrscheinlich, aber jeder neue schwebende Sektor ist mit dem Risiko von Datenverlust verbunden, jenachdem was dort liegt, kann es eine Datei, ein Verzeichnis oder auch die ganze Filesystemstruktur treffen.
 
Heen schrieb:
@jtsn: Au contraire, zumindest was die Größe betrifft.

http://www.heise.de/preisvergleich/seagate-barracuda-7200-10-400gb-st3400620a-a200513.html

Diese Platte hatte bereits PMR, habe zwei davon gehabt. Die Reihe begann bei 200GB, allerdings IDE.
Kein Wunder, mit der Barracuda 7200.10 wurde PMR eingeführt.

Gelistet seit: 11.05.2006, 07:46

Und damit ist eigentlich glasklar, daß die Barracuda 7200.10 nicht Bestandteil der Google-Festplattenstudie war.

Trotzdem sehe ich die Studie mittlerweile auch als gegessen an, wäre schön, wenn von Google oder FB mal was neues käme, und nicht nur was von Backblaze.
Naja, von Backblaze kommen ja nur Einzelstichproben, wo dann mal zwei, drei Modelle verrissen werden. ;) Google und Facebook möchten es sich evtl. nicht mehr mit den de facto zwei verbleibenden Festplattenherstellern verscherzen.
 
Hab mir gestern die Seagate ST1000DM003 bestellt. Für eine ssd oder sshd reicht die Kohle leider nicht.
Hoffe das war keine Fehlentscheidung. Die Barracudas sollen ja zu den besseren gehören.
Wollte mir zuerst eine WD Black bestellen, hab dann aber gelesen, dass der einzige Unterschied die Garantiezeit und eine minimal bessere performance wär.
 
Zuletzt bearbeitet:
Wichtig ist nicht, eine funktionierende Festplatte zu haben, sondern ein aktuelles Backup.
 
Zuletzt bearbeitet: (Beitrag wiederhergestellt)
Wie gesagt, alle meine wichtigen Sachen sind sowieso irgendwo anders gesichert. Aber das wüsstest du ja, wenn du wirklich den thread gelesen hättest. ;)

Immer diese drive-by posts...
 
Wenn Du das Geschriebene verstanden hättest, gäbe es diesen Thread erst gar nicht.
 
Zuletzt bearbeitet: (Beitrag wiederhergestellt)
Welches Geschriebene? Es gibt lediglich Leitfäden in sticky threads. Ich wollte nur wissen ob meine Festplatte vor dem abkacken steht bzw. ob ich vorsichtshalber auf eine neue ausweichen sollte, was ich dann letztenlich getan habe.
Warum erzählst du mir jetzt, dass ein backup wichtiger ist, obwohl ich schon auf der ersten Seite geschrieben hab, dass meine wichtigen Sachen alle bereits gesichert sind? Wo ist die Logik?

Und wenn es diese kleinen threads zu individuellen Problemen nicht geben würde wär das hier eine geschlossene informative Seite und kein offenes Forum.

Edit: Danke für die zahlreichen hilfreichen posts btw.
 
Zuletzt bearbeitet:
Warum gibt es eigentlich in Windows immer noch keine Überwachung der SMART-Werte?
Einen Alarm, am besten mehr als nur ein Popout rechts am Bildschirmrand.
Ein Fenster mit dickem Warnschild wo man einen Haken setzen muss dass es nicht erneuit kommt, aber es kommt neu, wenn es sich weiter verschlechtert.
Mit Hinweis alle Daten zu sichern, und dem Angebot gleich ein Systemcloning zu machen.



Jabdah schrieb:
Wenn Du mal 75 Jahre alt bist, gehst Du zu dem Arzt Deiner Wahl und sagst..... " Doc, mach mal alle meine Zellen wieder 50 Jahre jünger "

Was meinst Du wird er Dir sagen?


Grundsätzlich nicht unmöglich.
Mal abgesehen davon dass sich Zellen eine bestimmte Anzahl lang selbst ersetzen (waren es rund 50x?), weshalb auch irgendwann Wunden bei Alten wohl schlecht heilen, wird auch an der Umkehr des Alters und Verlängerung der Telomere etc. geforscht.
Es gibt auch eine Methode mit der Erwachsene Mäuse, vergleichbar mit evtl. 30 Jährigen Menschen die Lebenserwartung um evtl. ein Drittel erhöht werden konnte.
Da der Firma, Leiterin Menschenversuche (OK, das Ergebnis ließe auf sich warten) verwehrt wurde, testet sie es nun erst mal an sich selbst.
Ich würde es auch machen lassen.
Die Chance erhöhen in die "Technologische Singularität" zu gelangen, und ab dann evtl. sogar "ewig" zu leben", wenn man vorher keinen Unfall etc. hat.

Zellen verjüngen und Telomere immer wieder verlängern (nicht nur wie natürlich, eine bestimmte Zeit lang), fertig ist der Jüngere Mensch...
Theoretisch bis nach der Pubertät...


Und man fand noch einen Stoff/Mechanismus, welcher alte Zellen eher vernichten soll, was auch die Lebenserwartung deutlich steigern soll.
Im Labor wohl per Gentherapie, aber weil die Anwendung bei Gesunden als Umstritten gilt, will man es in eine Pille packen.
Damit lässt sich natürlich auch mehr und dauerhaft verdienen, statt einmal die Gene zu verändern...


Die Abschaffung des Alters:
http://www.deutschlandradiokultur.de/die-abschaffung-des-alters.950.de.html?dram:article_id=138965


ALTERNSFORSCHUNG
Die Abschaffung des Sterbens:
http://www.spiegel.de/spiegel/print/d-41179124.html


Forschern gelingt Durchbruch im Kampf gegen Alter:
https://www.welt.de/gesundheit/arti...-gelingt-Durchbruch-im-Kampf-gegen-Alter.html


Ärzte Zeitung, 05.12.2011
Zellen von 100-Jährigen lassen sich verjüngen:

http://www.aerztezeitung.de/medizin...9/zellen-100-jaehrigen-lassen-verjuengen.html


XMenMatrix schrieb:
Nein, das ist keine Low Level Formatierung, sondern eine Wiederherstellung von einem Image.
So ist es. Nicht zu 100% sicher bzw. nicht sicher was genau, aber doch mit hoher Wahrscheinlichkeit.
In letzter Konsequenz doch sicher eine sehr hohe Verlängerung auf Hunderte evt. tausende Jahre durch Gendesign (Designerbabys).
 
Zurück
Oben