News Neuer Bandspeicher LTO-9: Speicherkapazität steigt um 50 statt 100 Prozent

Sieht so aus als käme LTO langsam an seine Grenzen...
Don_2020 schrieb:
LTO-Archiv als Pflichtmedium für Steuersachen machen. Dann werden viele in die LTO-Technik investieren müssen und die Preise für die Technik sinkt.
Die Cloud ist der Tod für die LTO-Technik.
In der Cloud sind die Daten nicht wirklich sicher.
Wieso sollte man "Steuersachen" auf LTO sichern? Bei der normalen Datenmenge die da anfällt kann man das selbst noch auf optische Datenträger schreiben idR... Die 7 Jahre Aufbewahrungszeit sind jetzt nicht die große Herausforderung. Selbst eine Nutzung redundanter NAS an 3 Standorten ist whs noch günstiger und effizienter als bei der geringen Datenmenge auf LTO zu setzen.
teufelernie schrieb:
Im Standard der meisten Clouds: 100% Agree.
Selbst mit verschlüsselten Containern ist man aber auch nicht wirklich sicher, da der Betreiber an den Raminhalt seiner Gäste herankommt. Da gibts auch hier und da noch Security on top, aber wie sicher das wirklich ist...
What? Wie kommt der Betreiber an den RAM-Inhalt deiner Verschlüsselungssoftware?
 
teufelernie schrieb:
Das 1000 statt 1024 als Faktor bei Festplatten ist nichts dagegen!
Wo ist das das Problem? Die HDD und SSD Hersteller geben die Kapazität in GB oder TB an, was im Internationalen Einheitensystem (SI) definierte Dezimal-Präfixe sind, also auf Basis 10. Windows verwendet aber eben diese Dezimal-Präfixe in der Anzeige, rechnet aber in Wahrheit mit Binärpräfixen, also auf Basis von Zweierpotenzen und müsste daher korrekterweise TiB als Einheit für Tebibyte verwenden, macht es aber nicht.
arktom schrieb:
ein Bandlaufwerk mit Hardwarekomprimierung erreicht diese Werte durchaus oft, bei mehreren unserer Kunden.
Das hängt doch immer von den Daten ab und wie gut diese komprimierbar sind.
Don_2020 schrieb:
Die Cloud ist sicher - bis ein gezielter Treffer die Infrastruktur lahmlegt.
Eben und schon alleine daher sehe ich diesen Trend alles in die Cloud zu verlagern, auch sehr kritisch.
wern001 schrieb:
Also wenn man viele Bilder und Videos hat wird die angegebene Komprimierung bei weitem nicht erreicht.
Das hängt vom Format ab, aber die gebräuchlichen Formate für Mediendateien sind schon komprimiert, meist sogar verlustbehaftet und daher nicht mehr verlustfrei weiter komprimierbar und natürlich darf eine generelle Komprimierung wie die Tapes oder auch Packer wie Zip, Rar oder 7z vornehmen, immer nur verlustfrei komprimieren.
SoDaTierchen schrieb:
Und Bilder liegen nicht immer in einem komprimierten Format vor, es werden auch gerne Roh-Formate verwendet, die sich wirklich sehr gut komprimieren lassen.
Auch bei Rohformaten kann man dies nicht pauschal sagen, denn es hängt vom Inhalt des Bildes ab. Du kannst ja mal sehr unterschiedliche Bilder in png speichern, dies ist ein verlustfreies Format, praktisch wie ein zip auf ein bmp und schauen wie gut die Datei komprimiert wurde, da gibt es dann schon deutliche Unterschiede zwischen unterschiedlichen Bildern.
Ramschladen schrieb:
Wir haben letztes Jahr erst auf LTO 7 migriert und das reicht in einem kleinen Unternehmen völlig aus.
Das kann man doch so pauschal nicht sagen, auch kleine Unternehmen können ja große Datenmengen haben, vor allem wenn sie im Medienbereich tätig sind.
Celinna schrieb:
Habe ich/meine Firma wichtige vertrauliche Daten z.B. Forschung von neuer Technik und möchte das Risiko nicht eingehen das die Daten gestohlen werden von einem Hack aus der Cloud
Eben, aber es gibt ja in Firmen viel mehr vertrauliche Daten als die meisten sich bewusst sind, es müssen ja nicht nur die Forschungsergebnisse sein, es ist ärgerlich genug wenn der Wettbewerber anfängt die Mitarbeiter oder Kunden abzuwerben oder seine Angebote immer ein wenig günstiger als die eigenen sind. Jedes Unternehmen sollte es sich gut überlegen welche Daten es der Cloud anvertraut und nicht nur auf die Kosten schauen, sondern auch darauf wie viel Schaden es anrichten würde, wenn die Wettbewerber diese Daten kennen würden.

Übrigens finde ich es optimistisch in Zukunft weiterhin von Verdoppelungen der Kapazität auszugehen, wenn man dies schon nur 50% mehr gebracht hat „um die Kosten und den Nutzen der Technologie innerhalb der Spezifikation auszugleichen“, was ja wohl bedeutet, dass eine Verdoppelung viel zu teuer gewesen wären.
 
HighTech-Freak schrieb:
What? Wie kommt der Betreiber an den RAM-Inhalt deiner Verschlüsselungssoftware?

Wird grade etwas offtopic zur News, aber:

Der Cloud-Betreiber stellt den Host, auf dem virtuelle Maschinen und oder Container laufen.
In diesen Subunits hat der Kunde eine Verschlüsselung eingesetzt die verhindern, dass ich als Cloudbetreiber die Platteninhalte in Nutzdatenform kopieren kann.
Soweit so sicher.
Aber wenn ich an die Daten ranwill, warte ich einfach, bis der Kunde seine Kisten in Betrieb setzt(also die Dateisysteme unlocked hat), mache nen full-snapshot seiner Kisten (inkl Ramzustand: unlocked) und resume die irgendwoanders in Kopie, um dann in Ruhe seinen Kram da zu kopieren.

Schon auf der Basis mit vmware, kvm VMs und nem Dockercontainer getestet...

Die großen wie google Cloud, AWS, ... bauen da Zeugs drum herum, aber das erhöht die Hürde nur etwas.


Es gibt keine Sicherheit. Es gibt nur Konzepte mit Lücken :evillol:
 
@teufelernie So eine Form der Verschlüsselung is aber für die Fisch... Der Verschlüsselungsclient muss auf dem Client laufen (zB Cryptomator oder ähnliches) und der Schlüssel darf nicht in die Cloud.
Das is genauso wie "Datenbankverschlüsselung" bei der das Datenbankfile einfach auf einem Bitlocker-Laufwerk liegt (statt dass der Content der DB encrypted is)... komplett umsonst und dient nur dem Marketing.
 
Die Jaguar Lösung von IBM bietet mit den TS1160 Laufwerken auch nicht wirklich besseres. - Es ist halt schon länger verfügbar, im Gegensatz zu LTO9.

Privat bin ich eher an einem externen Backuplaufwerk mit USB 3 bzw. 4 - statt SAS, FC oder Ethernet - Anschluss interessiert.
 
Was ich noch interessant finde als Anmerkung: Für die Langzeitarchivierung komprimiert man grundsätzlich gar nicht, also nur WAV, TIFF, usw. - weil sich da wenn nach 30 Jahren ein Bit irgendwo flippt, die Daten immer noch gut auslesen lassen. Wenn in einer hochkomprimierten Datei an der falschen Stelle was kaputt geht, ist evtl. schon gleich ein größerer Bereich nicht mehr lesbar.
 
Ein Service einzeln betrachtet, ist so gut wie immer deutlich teurer in der Cloud. Jedoch muss man immer die Gesamtkosten rechnen, bis ich mal eine völlig redundatnte VM Farm On-Prem habe, muss ich schon einige Euros springen lassen. Cloud rechnet sich daher bei Firmen, die einfach nur gezielt einzelne Dienste haben möchten und das möglichst unkompliziert einfach über Internet. Backup für kleine Kunden kann in der Cloud nett sein, aber sicher nicht für Firmen die 10 Jahre und länger die Daten aufbewahren müssen.
 
Das Problem mit der Cloud ist doch, das man teilweise richtig heftig latzen muss, wenn man seine Daten auch wiederhaben will :D
Einer meiner Kollegen hat sich vor einer Weile fuer eine Tocherfirma von uns mit diversen Microsoft offerten auseinandergesetzt. Darunter war auch etwas mit "unlimited" Speicher. Und es sieht schon geil aus wenn man sich das Laufwerk mappt und da freie Platz im dreistelligem Petabyte Bereich angezeigt wird.
Der witz an der Sache: Der Upload kostet nichts, aber der Download dann schon:
https://azure.microsoft.com/en-us/pricing/details/bandwidth/

Ein Terabye Download kostet dann mal eben 100 Dollar...
 
Ranayna schrieb:
Ein Terabye Download kostet dann mal eben 100 Dollar...
Nicht umsonst ist es auch bei Microsoft der üppige Gewinn aus dem Cloudgeschäft welcher den Aktienkurs treibt und der kommt nicht aus dem Nichts. Oder man schaue sich Amazon an, der Handel bringt kaum Geld aber mächtig Umsatz, richtig viel Geld wird aber mit den Cloudservices verdient.
 
Liest sich hier so als wäre Cloud viel unsicherer als on Premise. Woher kommt das? On Premise ist es doch viel aufwendiger einen solchen "Standard" aufzusetzen - mal ganz abgesehen von Verfügbarkeit und Skalierung, was in der Cloud unschlagbar ist.
 
Verfuegbarkeit? Erzaehl das mal Microsoft Kunden :p
Office 365 ist nicht umsonst schon als "Office 360" bekannt in gewissen Kreisen.
Ich kann nicht aus persoehnlicher Erfahrung sprechen, aber wenn ich mir den oben angesprochenen Kollegen anhoere wie er teils am schimpfen ist weil MS wieder mal was umgestellt hat...
Man ist da halt auf Gedei und Verderb dem Cloudanbieter ausgeliefert.

In meiner Firma laeuft seit ueber 10 Jahren eine vollstaendig eigenstaendige Infrastruktur, mit grosem SAN und einem Haufen virtueller Maschinen. Wir hatten in diesen mehr als 10 Jahren zweimal groessere ungeplante Downtimes die laenger als eine Stunde andauerten, einen unwiederherstellbaren Datenverlust hatten wir dabei nie. Klar, das eine einzelne Maschine oder ein Maschinencluster mal hustet kommt immer wieder mal vor, ist aber auch selten geworden.
Wenn ich ueberlege wie oft uns in der Zeit die Internetleitung abgeraucht ist...

Ich sehe ja auch ein das die Cloud durchaus ihren Sinn und Zweck hat. Grade bei kleineren Firmen ist es eine deutliche Erleichterung.
Spaetestens wenn man aber an Datensicherheit, bzw Datenhoheit denkt, wird es schon komplizierter.
Dann ist da noch die Tatsache das die typischen on-premise Workloads sich in der Regel schlecht eins zu eins in die Cloud transferieren lassen ohne diese zu Ueberarbeiten. Verschiebt man einfach seine VMs in die Cloud kommt die Rechnung schnell :p
Und denke mal an aktuelle Corona Zeiten. Wird der Geldbeutel klamm kann eine on-Premise Infrastruktur, wenn sie nicht vollkommen vernachlaessigt wurde, in der Regel eine ganze Weile laufen ohne das man da gross Geld hineinstecken muss. Das hat zB bei uns, trotz Kurzarbeit und Budget-Freeze in der IT ohne Ausfall funktioniert.
Kann man den Cloudanbieter nicht mehr bezahlen ist die Cloud im besten Fall "eingefroren", im schlimmsten Fall ist alles weg.
 
Ranayna schrieb:
Man ist da halt auf Gedei und Verderb dem Cloudanbieter ausgeliefert.
Eben und darauf das die Daten dort wirklich sicher sind, also weder verloren gehen noch in die falschen Hände geraten, was bei Daten die in den USA gespeichert sind schon mal problematisch, wenn man sich die Rechtslage dort ansieht. Dazu kommt, dass man auf die Internetverbindung angewiesen ist, legt die eines Tages mal jemand lahm, warum auch immer, geht nichts mehr. Letzteres ist zwar in Corona Zeiten mit Home Office ähnlich, aber es wird ja wohl nicht so bleiben und man sollte nicht so tun als wäre es undenkbar das mal irgendwer das Internet lahmlegt, z.B. mit einem Computervirus, es wäre vor einem Jahr auch genauso undenkbar was durch das Coronavirus in diesem Jahr alles passiert und an Grundrechten ausgehebelt wurde.
 
Holt schrieb:
Dazu kommt, dass man auf die Internetverbindung angewiesen ist, legt die eines Tages mal jemand lahm, . . . geht nichts mehr. . . . und man sollte nicht so tun als wäre es undenkbar das mal irgendwer das Internet lahmlegt, z.B. mit einem Computervirus, ...

Am "Alarmtag", also dem 10.09.2020 um 11 Uhr, hat man an den nichtheulenden Sirenen bzw. nichtfunktionierenden Alarmmeldungen allerorten bemerkt, was passiert, wenn Netzwerke nicht wie vorgesehen funktionieren. Wenn es schon an möglicherweise lebenswichtigen Funktionen hapert, die bewirken sollen, dass die Bevölkerung insgesamt vor Gefahren für Leib und Leben gewarnt wird, kann man eigentlich keinem Netzwerk vollständig vertrauen. Insofern ist dezentrale bzw. lokale Datensicherung zumindest auf grundlegenden Stufen m.E. unabdingbar.

Wenn es zu präzisen Treffern in Rechenzentren kommt, die die Cloud "beheimaten", ist ohnehin alles zu spät, Warnungen hin oder her. Hoffentlich befindet sich die "Cloud" in atombombensicheren Bunkern . . . es müssten dann ein paar Menschen übrig sein, die mit den Daten aus der Cloud etwas anfangen können.

Klar: das ist im Augenblick sehr weit hergeholt, aber man kann nicht wissen, was in der Zukunft passiert.
 
Wenn der Bunker in dem die Server stehen wirklich atomsicher sein muss, dann haben wir alle vermutlich andere Probleme als die Frage ob die Daten beim Anbieter überlebt haben, zumal dann die Internetverbindung dahin für längere Zeit unterbrochen sein dürfte. So schlimm muss es ja nicht kommen, ein Computervirus welches gezielt die Internetinfrastruktur angreift, würde ja schon reichen. U.a. aus Angst vor sowas wollen die USA ja auch nicht, dass Hardware von Huawei verbaut wird, denn da könnte so ein "Not-Aus Schalter" schon ab Werk verbaut sein.
 
Die Idee, Archive auf Band zu sichern, ist bestechend. Aber für Privatanwender sind die Preise der Laufwerke weit jenseits von Gut und Böse. 30 Euro für eine 6TB-Kaassette, ok! Aber 2.000 bis 4000 Euro für ein Laufwerk??
 
Klassikfan schrieb:
Aber 2.000 bis 4000 Euro für ein Laufwerk??
Die einzige Lösung dafür, die mir dazu einfällt:
1 externes Bandlaufwerk mit mehreren anderen Personen teilen.
Eine eigene einfache HBA Karte kostet nicht die Welt.
Ob mir dann die Einschränkungen gefallen, das ist wieder eine andere Sache.
 
Ist aber auch irgendwie doof: Murphy sorgt dann garantiert dafuer, das wenn du ein Restore brauchst grad jemand anders eine Stundenlange Sicherung am Laufen hat :D
Fuer Privat ist, zumindest meiner Meinung nach, fuer das wichtigste immer noch optisch das Mittel der Wahl fuer robuste Datensicherung.
 
Für Privat sind diese Systeme auch nicht gemacht, da sind externe Platten mit X TB günstiger.
Kannst dir ja einfach ausrechnen wie viele Bänder man kaufen muss um über den günstigeren Preis/TB das Bandlaufwerk wieder drin zu haben.
 
Ein Trainer hatte das einmal ganz trocken auf den Punkt gebracht:
"Backup ist nur für hässliche Menschen."

Welche Aufwendungen ich (nicht) betreiben will, muss am Ende jeder selbst entscheiden. Und damit auch verantworten.
 
Zurück
Oben