News Forschung: Seagate arbeitet mit am DNA-Datenspeicher von CATALOG

Dann reicht deine Leitung zum beschreiben. Und es sind noch Reserven vorhanden... 😉
 
DNA from individual reservoirs is mixed to produce chemical reactions for a range of computing functions, including search and analytics, machine learning, and process optimization.
Klingt wie hardcore VLIW. Man schreibe ein paar EB an Daten auf DNS, den Algorithmus dazu, bringe die Enzyme/Bakterien zum rechnen und holt ein paar Minuten/Stunden spÀter das Ergebnis.
It's compiling transcribing!

Was fĂŒr MaßstĂ€be haben die an langzeitstabilitĂ€t und datensicherheit? Ich denke da sofort an Strahlenbedingte SchĂ€den die im lebenden Organismus laufend repariert werden mĂŒssen, sonst droht Zelltod ('freiwillig', vorbeugend, oder infolge der SchĂ€den selbst), oder Krebs.
Dazu der Antrieb der Evolution, Kopierfehler :)
Und all das trotz eigentlich erstaunlich effektiver Mechanismen zur Fehlerkorrektur. Da kann ich mir irgendwie nur schwer vorstellen dass 'tote' DNS ohne grĂ¶ĂŸeren Aufwand zum Schutz vor Strahlung, oder diesem fiesen Sauerstoff langzeitstabil ist.
Schnelle Suche findet Alterungsstudien ĂŒber Temperatur, doch 20 Jahre und ein paar kB sind jetzt nicht wirklich ĂŒberragend finde ich. Zu wenig Daten um sinnvoll Fehler zu messen und 20 Jahre dĂŒrften Archivorientierte CD/DVD/BluRay oder Magnetband auch problemlos schaffen was reine Temperaturbeschleunigte Alterung angeht. Strahlung ist da komplett außen vor und ich bin nicht so sicher ob man damit langfristige Effekte wie Gasdiffusion durch SchutzgehĂ€use abbilden kann.

alex22 schrieb:
Im Alltag wird das niemals relevant sein.
Das hies es zu vielen Dingen. BĂŒcher, Rechenmaschinen, Feuerwerk, vermutlich dem Feuer selbst XD
Ich meine mal ehrlich, wer stellt sich so einen Computer zuhause hin? Allein die 3 RĂ€ume die dafĂŒr draufgehen, die Unmengen Strom, die LautstĂ€rke! Egal ob mit Lochkarten, MagnetbĂ€ndern oder Trommelspeicher! Das ist nix fĂŒr zuhause.
So ein paar Bakterien auf einem 'Zusatzchip' fĂŒr AVXDNA2 sind da doch kein Problem. Alle 2 Jahre die NĂ€hrstofflösung nachfĂŒllen und den AbfallbehĂ€lter wechseln. Lagerung nicht ĂŒber 42° C und ab 5000m Höhe wird empfohlen einen DruckbehĂ€lter fĂŒr den PC zu verwenden.
 
Bigeagle schrieb:
Was fĂŒr MaßstĂ€be haben die an langzeitstabilitĂ€t und datensicherheit? Ich denke da sofort an Strahlenbedingte SchĂ€den die im lebenden Organismus laufend repariert werden mĂŒssen, sonst droht Zelltod ('freiwillig', vorbeugend, oder infolge der SchĂ€den selbst), oder Krebs.
Dazu der Antrieb der Evolution, Kopierfehler :)
Und all das trotz eigentlich erstaunlich effektiver Mechanismen zur Fehlerkorrektur. Da kann ich mir irgendwie nur schwer vorstellen dass 'tote' DNS ohne grĂ¶ĂŸeren Aufwand zum Schutz vor Strahlung, oder diesem fiesen Sauerstoff langzeitstabil ist.
die hier erzeugte dna repliziert sich aber nicht stĂ€ndig selbst, es treten also auch keine kopierfehler auf. ebenso ist sie in keiner lebenden zelle, die sauerstoff braucht, man kann sie also unter sauerstoffabschluss lagern. bleibt die strahlung, aber man stellt ja nicht nur ein molekĂŒl dna her, sondern viele. damit hat man ein hohes mass an redundanz, zudem lassen sich die daten auch fehlertolerant speichern.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Kitsune-Senpai
0x8100 schrieb:
die hier erzeugte dna repliziert sich aber nicht stÀndig selbst, es treten also auch keine kopierfehler auf.
Sie muss geschrieben und dann wieder ausgelesen werden, das sind zwei VorgÀnge bei denen Fehler auftreten können.
Das Lesen ist afaik ein Problem fĂŒr diese Betrachtung, denn meines begrenzten Wissens nach liest man DNS praktisch indem man sie aufspaltet und kopiert.
Ggf. kommt man auch nur mit dem aufspalten weiter. Doch soweit ich das sehe wird die DNS in jedem Fall zum auslesen verÀndert und ggf. kopiert, bzw zerstört.
Das ist anders als bei unseren aktuellen DatentrĂ€gern wo sich das Medium beim auslesen praktisch nicht verĂ€ndert. Bei einem Lesefehler probiert man es dann eben ein paar mal, vielleicht kommt ein Wert raus der zur PrĂŒfsumme passt.
Bei einem DNS Speicher hÀtte aber jeder Lesezugriff das potential die Daten zu verÀndern.
0x8100 schrieb:
man kann sie also unter sauerstoffabschluss lagern.
Was leicht klingt und auch bei optischen DatentrĂ€gern meist nötig ist. Haben HDDs wenn sie nicht gerade HeliumgefĂŒllt sind normale Luft drin, oder ein Schutzgas?
Bei langzeitstabilitÀt von Daten lohnt es schon zu wissen wie empfindlich der DatentrÀger an sich ist damit man einschÀtzen kann wie empfindlich er ist. GehÀuse altern, oder es treten diffusionseffekte auf.
Wenn der DatentrĂ€ger nur sicher ist wenn völlige Gasdichtigkeit gewĂ€hrleistet ist wird es irgendwie unpraktisch. Ggf. stören auch mit der Zeit von der OberflĂ€che des BehĂ€lters stammende MolekĂŒle.
0x8100 schrieb:
aber man stellt ja nicht nur ein molekĂŒl dna her, sondern viele. damit hat man ein hohes mass an redundanz.
Redundanz mag helfen, aber es wĂ€re schon nett zumindest in etwa die Rohfehlerrate zu kennen. Je nachdem muss man auch regelmĂ€ĂŸig auslesen und wieder korrekte Daten zurĂŒckschreiben. Warmer RAM ohne refresh kann noch so viel Redundanz haben, irgendwann ist nur noch rauschen drin. Das Problem betrifft alle DatentrĂ€ger, wenn auch in deutlich geringerem Maße. Deshalb gibts bei ZFS scrubbing.
 
0x8100 schrieb:
das ziel ist langzeitarchivierung grosser datenmengen und da hĂ€tte ein dna-basierter speicher doch ein paar vorteile gegenĂŒber magnetbĂ€ndern. braucht weniger platz, speichert mehr daten und ist stabiler. das wird nicht gleich morgen fertig sein, aber es funktioniert heute schon und muss "bloss" noch kleiner gemacht werden.
Ja das ist der use-case den ich mir vorstelle, (einmal schreibbarer) Langzeitspeicher, deswegen der Vergleich mit MagnetbÀndern. Aber MagnetbÀnder sind nicht Alltag.
Mit Alltag meine ich als Rechner/Speicher, den eine normale Person sich kaufen kann bzw auch kauft weil es sinnvoller ist als andere Technik, inkl. Cloud Lösungen.
Bigeagle schrieb:
Das hies es zu vielen Dingen. BĂŒcher, Rechenmaschinen, Feuerwerk, vermutlich dem Feuer selbst XD
Ich meine mal ehrlich, wer stellt sich so einen Computer zuhause hin? Allein die 3 RĂ€ume die dafĂŒr draufgehen, die Unmengen Strom, die LautstĂ€rke! Egal ob mit Lochkarten, MagnetbĂ€ndern oder Trommelspeicher! Das ist nix fĂŒr zuhause.
Keines der Beispiele ist auch vergleichbar. Alle diese die Dinge haben Nischen gefĂŒllt, fĂŒr die es zu der Zeit keine Alternative gab. In diesem Falle muss aber eine neue Technik gegen eine hochentwickelte bestehende Lösung antreten, mit nur sehr wenigen herausragenden einzigartigen Eigenschaften. Und da sehe ich eben außer in ganz bestimmten Nischen keinen Vorteil.
Auslesen von DNA StrÀngen funktioniert seriell (sowohl technisch als auch in den Zellen), indem man den DNA Strang durch ein LesegerÀt fÀdelt und dann wie ein Magnetband abliest. Die Geschwindigkeit mit der das passieren kann ist einfach physikalisch begrenzt, genauso wie du beim Magnetband das Band immer schneller bewegen kannst. Parallel ablesen ist einfach unrealistisch, da der Strang extrem flexibel ist. Stell dir Spaghetti in kochendem Wasser vor und wie du ein LesegerÀt an einen Strang dran hÀlst. Und wir sind hier nur beim lesen von Daten.
Desweiteren sind wir beim Transport von Daten oder bei chemischen Reaktionen durch die Diffusionsgeschwindigkeit von MolekĂŒlen begrenzt und da sie wir bei der Geschwindigkeit von Information in cm/s viele tausendfach langsamer als bei elektrischen Signalen, daher sehe ich nicht wie da eine realistische Rechenleistung bei rumkommen soll.
Bigeagle schrieb:
So ein paar Bakterien auf einem 'Zusatzchip' fĂŒr AVXDNA2 sind da doch kein Problem. Alle 2 Jahre die NĂ€hrstofflösung nachfĂŒllen und den AbfallbehĂ€lter wechseln. Lagerung nicht ĂŒber 42° C und ab 5000m Höhe wird empfohlen einen DruckbehĂ€lter fĂŒr den PC zu verwenden.
Mal abgesehen davon dass das Szenario nicht realistisch ist, das findest du echt eine akzeptable Lösung? NĂ€hrstofflösung nachfĂŒllen heißt auch wieder potential fĂŒr Kontamination, womöglich ist damit dann dein chip direkt Schrott. Außerdem musst du auch Abfallprodukte der Reaktion herausfiltern, wie auch immer das gehen soll. Wahrscheinlicher ist dass der chip regelmĂ€ĂŸig (evtl. alle paar Minuten bis Stunden) in einen Reinigungsmodus gehen muss.

Vielleicht kann man alle technischen HĂŒrden irgendwie ĂŒberwinden, aber ich sehe nicht wie sowas (wie gesagt außer ganz bestimmten Nischen) Fuß fassen soll.
ErgÀnzung ()

Bigeagle schrieb:
Das Lesen ist afaik ein Problem fĂŒr diese Betrachtung, denn meines begrenzten Wissens nach liest man DNS praktisch indem man sie aufspaltet und kopiert.
Ggf. kommt man auch nur mit dem aufspalten weiter. Doch soweit ich das sehe wird die DNS in jedem Fall zum auslesen verÀndert und ggf. kopiert, bzw zerstört.
Man kann DNA und RNA auch zerstörungsfrei lesen, dazu gibt es bereits Produkte zu kaufen die hierauf basieren: https://en.wikipedia.org/wiki/Nanopore_sequencing
Im Prinzip wir die DNA durch ein Loch gefÀdelt und dabei das sich Àndernde elektische Feld im Loch ausgemessen (analog zum Magnetfeld am Lesekopf beim Magnetband). Die verschiedenen Basenpaare erzeugen dabei jeweils eigene charakteristische Muster im Signal.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Kitsune-Senpai
Zarlak schrieb:
Kernfusionsreaktoren
Das hĂ€ngt davon ab, ob die Chinesen wirklich da forschen wollen. Die EuropĂ€er, mit ihrer Dekadenz und pathologischen Technikfeindlichkeit, wĂŒrden noch 100 Jahre beauchen.
Wenn die Chinesen ernst machen, steht die erste Anlage in 40 Jahren. Denn die Physik ist bereits gelöst; das sind "nur" noch praktische Probleme.
 
Schreibgeschwindigkeit eine Sache, aber wie siehts mit dem Lesen aus?

FĂŒr Privatanwender kann ich es mir höchstens in der Nische vorstellen, wenn man Dinge langfristig archivieren möchte (Bilder, Dokumente, Ă€hnliches). Aber glaube kaum, dass Latenzen und Geschwindigkeiten wirklich praktikabel werden, die Informationsdichte hat ja ihren Ursprung in den wirklich sehr kleinen Strukturen.
 
Hat jemand ein Paper dazu? Als Biotechnologe in der synthetischen Oligonukleotidsynthese bin ich schon sehr interessiert.
Verstehe nicht so Recht wie die DNA wirklich assembliert wird. Und das Vorallem kostengĂŒnstig. Transkription und Sequenzierung ist auf jedenfall kein Problem nur aber erst Mal das Template zu bekommen ist eine andere.
 
alex22 schrieb:
Keines der Beispiele ist auch vergleichbar. Alle diese die Dinge haben Nischen gefĂŒllt, fĂŒr die es zu der Zeit keine Alternative gab.
Naja, am Anfang der Rechenmaschinen waren menschliche Computer schneller. Ich dachte am Anfang der Elektrischen Rechenmaschinen waren auch mechanische schneller.
Vorrausgesetzt DNS Speicherung oder Berechnungen wĂŒrden gĂŒnstig und gut einsetzbar könnten sich schon neue Nischen auftun. Oder es bleibt eine interessante Nische fĂŒrs Labor und Langzeitspeicher in Archiven gut ausgestatteter Einrichtungen. Ich wollte nur deutlich machen dass man manches schlecht vorher wissen kann.
alex22 schrieb:
Mal abgesehen davon dass das Szenario nicht realistisch ist, das findest du echt eine akzeptable Lösung?
Ich glaube ich muss mehr Smileys nutzen wenn ich etwas nicht ganz ernst meine ;)
Wobei ich mir eine durch den Nutzer zu wartende Variante schon vorstellen kann wenn man das technisch richtig anstellt und Laiensicher macht. Wir reden ja nicht von heute. SterilitÀt der Verbindungsstellen lÀsst sich doch sicher machen.
Ich wĂŒrde allerdings autarke Einheiten fĂŒr wahrscheinlicher halten die ggf. einfach nicht zu lang vom Strom getrennt werden dĂŒrfen damit Licht, Temperatursteuerung und Abfallfilter nicht zu lange wegfallen.
Letztere sollten doch wohl kein Problem sein wenn man RNA StrÀnge einzeln durch Poren schieben kann, oder? Ob das bezahlbar, miniaturisierbar und massenproduktionstauglich ist ist eine andere Frage.
Aber bei dem Thema sind wir doch im SciFiTalk.
Ob die Höhe ein Problem ist weiß ich garnicht, das war nur geraten falls die Bakterien wie Menschen auf höheren Sauerstoffpartialdruck angewiesen sind. Vielleicht fĂŒhlen die sich ja auf dem Everest noch wohl genug dass das keine Rolle spielt.

Die Lesetechnik ĂŒber Nanoporen hatte ich gesehen, doch das schien nur mit EinzelstrĂ€ngen zu funktionieren, womit eben die DNA vorher aufgetrennt werden muss. Wenn man die als ganzes durchschieben kann entfĂ€llt das natĂŒrlich.

Was die Lesegeschwindigkeit angeht muss man das wohl oder ĂŒbel irgendwie parallelisieren können. Wer wird denn ein paar Exabyte schreiben wollen wenn das lesen dann tausende Jahre dauert.
WORF - Write Once, Read Forever :D
man beachte den Smiley, es wĂŒrde pro Exabyte nur um die 70.000 Jahre dauern bei den rund 500 kB/s. Also nicht ewig, nur etwas lĂ€nger.
 
PSY-BORG schrieb:
Sehr gut, dass man nun in der Wissenschaft endlich aufgewacht ist und viele technologische Entwicklungen ĂŒber die AnsĂ€tze der Natur, die nun mal ĂŒber Jahrmillionen Zeit hatte in Sachen Effizienz & Struktur GrĂ¶ĂŸe alles bis ins kleinste Detail zu perfektionieren, zu lösen versucht.
Wenn man ehrlich ist, wir befinden uns eigentlich technologisch in einer Sackgasse, aus der wir mit den bisherigen konventionellen Methoden garantiert nicht rauskommen.
Dass man in DNA Daten speichern kann, ist schon lange bekannt. Ich sehe das Problem viel eher darin, wie man die Daten dort wieder herausbekommt. Als jemand, der in der Bioinformatik forscht, wird man alltĂ€glich mit den Problemen konfrontiert, die eigentlich nur deswegen existieren, weil wir nach wie vor NICHT in der Lage sind DNA akkurat auszulesen. Ein menschliches Genom besteht aus ca. 3 Gigabasen, was einem Informationsgehalt von 750MB entspricht. Die neuesten Sequenziermethoden (third generation sequencing) schaffen aber nur, zusammenhĂ€ngende DNA-Schnipsel von ca. 10 bis 100 Kilobasen zu generieren und das mit einer Pro-Basen-Fehlerrate von gut 10%. Allein um diese Lesefehler zu korrigieren muss man das Genom (im Durchschnitt) mindestens 30 mal lesen. Und dann muss man auch ĂŒberhaupt erst herausfinden zu welcher Position die Schnipsel gehören, denn das steht da logischerweise nicht dran.

Vielleicht wird die synthetische DNA irgendwie anders gelagert, sodass ein spĂ€teres Einlesen deutlich einfacher ist als bei der Gewebeprobe, wo man die DNA-MolekĂŒle erst aus irgendwelchen Zellen raustrennen muss und in irgendwelchen FlĂŒssigkeiten rumschwimmen. Aber ich sage es mal so: Mit einer Sequenziermethode, die ein DNA-MolekĂŒl in einem Zug mit 0,5MB/s (=2 Megabasen pro Sekunde) fehlerfrei (!!!) lesen kann, wĂŒrde man vermutlich die gesamte Krebs- und Erbkrankheitenforschung revolutionieren, weil das einfach so viel besser wĂ€re, als alles was man bisher in der Praxis verwendet, um die Genome einzelner Individuen zu assemblieren.
 
  • GefĂ€llt mir
Reaktionen: Purche
Erinnert mich an das (Wechsel)Laufwerk fĂŒr Tesafilm, mit selbigem als Speicher gigantischer Datenmengen. Das war Mitte bis Ende der 90er. Wer hat in den letzten 25 Jahren schon mal ein Laufwerk fĂŒr Tesafilm in seinem Computer verbaut?
 
ZurĂŒck
Oben