News Höhere Random-Leistung für OCZs Octane-SSDs

CHB68 schrieb:
Was soll daran Krampf sein ? Man braucht nur Zeit.... :freak:

Deswegen ist es ein Krampf ;) - nicht jeder hat einen zweit PC um die dort mal kurz anzuschliessen...
 
Atkatla schrieb:
Die hilft dir aber nicht, wenn das Netzteil abraucht. Dann hängt die SSD spannungsmäßig ebenfalls in der Luft.

ihr tut alle so, als ob ihr alle 2 tage plötzlich 6 stunden ohne strom seid und permanent wichtige daten rumschieben müsstet ... -.-

ich hatte in 3 jahren bisher 1 stromausfall ... und auf nem pc mit ssd bunker ich sowieso keine relevanten wichtigen daten ... die landen exterm auf ner backup-platte und gut ist ...

alle anderen daten sind verschmerzbar, da wiederzuerlangen per neu-install oder download oder was auch immer ... persönliche daten, die man NIE hergeben will, hat man eh als backup !
 
Update kann nur ... mit der Toolbox durchgeführt ... wenn der MSAHCI-Treiber genutzt ... Windows nicht von der Octane läuft ... diese nicht als „Drive0“ erscheint. Zudem ... beim Updaten alle auf der SSD Daten verloren gehen
Nice! :daumen:
 
mumpel schrieb:
Wenn die mit einem einfach Update einfach mal so die Leistung mehr als verdoppeln, hat vorher einer mal richtig gepennt. Und auf die Zauberei beim Everest 2 bin ich ja auch mal gespannt. Das würde bedeuten, dass bei Intel, Crucial, Samsung & Co. nur Schlafmützen arbeiten, nur bei Indillinx/OCZ nicht. Unglaubwürdig!

Nichts für Ungut, aber das ist Quark. Ich habe selber schon Software so optimiert, dass die Laufzeit nur noch ein 60stel des Originalprogrammes betrug, das hat nichts mit Schlamperei bei der ursprünglichen Programmierung zu tun(jedenfalls nicht zwingend). Ersteinmal schreibst du das Programm so das es funktioniert, optimiert wird erst wenn das Programm funktional ist und leistet was es soll(wenn du vorher optimierst ist die Wahrscheinlichkeit relativ hoch, dass der Zweig des Programmes sowieso nochmal umgeschrieben werden muß). Klar baust du die Software nicht absichtlich langsam, ein paar Optimierungen baut man immer direkt ein(breaks in Schleifen und so ein Kleinkram).

Was dann passiert ist das Selbe in jeder Firma: das Ding funktioniert? Dann ab auf den Markt. Das ist dann die gute alte Marktwirtschaft und das Management in Action. Und wenn du ganz viel Glück hast und der Lebenszyklus der Software das rechtfertigt, fängst du jetzt mit der eigentlichen Optimierung an, jetzt kennst du nämlich das gesamte Programm, weißt wie alles zusammenhängt und kannst Strukturen & Algorithmen anpassen.

Davon abgesehen ist Softwareentwicklung ein fließender Prozess, die Datenstrukturen und Zugriffsmethoden, die du am Anfang vorgesehen hattest, sind am Ende vielleicht nicht mehr optimal. Vielleicht ändert sich mittendrin die Hardware. Oder ein findiger Kollege hat einen Geistesblitz und findet einen besseren Algorithmus als den bisher genutzten. Und das läßt noch völlig die Lernkurve der Entwickler mit der Hardware außen vor. Je länger du für eine bestimmte Umgebung programmierst, desto besser kannst du dich auf sie einstellen. Bestes Beispiel ist hier der C64, da hat die Demoszene Grafikdemos und Sounds draufgebracht, die über Jahre immer besser wurden, selbst lange nachdem eigentlich keiner mehr den C64 nutzte.
 
riDDi schrieb:
Das stellst du dir aber sehr einfach vor. Wenn du wissen willst wie schnell so ein Ansatz ist brauchst du dir nur den nächsten USB-Stick anzusehen. Auch wenn du von 8 gleichzeitig liest wirst du nicht das Niveau einer SSD erreichen.
Das ist ein blöder Vergleich, weil man dann schon mal beachten muss, an welchem Root-Hub die jeweiligen Sticks hängen. Gut USB Stick können ja zumindest bei USB2 den Durchsatz eines Ports gut auslasten, aber es ist nicht jeder USB Port an einem eigenen Root Hub angehängt, denn die Chipsätze haben intern auch Hub und manche USB Ports teilen sich demzufolge eine Leitung und damit den Durchsatz.
riDDi schrieb:
Puffern und Blockweise ausschreiben ist Trumpf.
Puffern ist gefährlich, wenn der Strom ausfällt, dann sind die Daten weg. Deshalb werden eigentlich immer nur Verwaltungsdaten im Cache gepuffert und nur bei SSDs die eine eigene Notstromversorgung (Akku oder Stützkondensatoren) haben, werden dann auch geschriebene Daten gecacht.
 
Für alle, die sich fragen, wie man bei den ganzen Ausnahmen überhaupt das Firmware-Update machen soll:

Einfach mal die OCZ richtig durchlesen, die bieten eine Linux-Live-CD mit Internet-Support an, von welcher man starten kann, und ganz einfach und bequem und ohne Zweit-PC das FW-Update durchführen kann.
 
chriss_msi schrieb:
Für alle, die sich fragen, wie man bei den ganzen Ausnahmen überhaupt das Firmware-Update machen soll:

Einfach mal die OCZ richtig durchlesen, die bieten eine Linux-Live-CD mit Internet-Support an, von welcher man starten kann, und ganz einfach und bequem und ohne Zweit-PC das FW-Update durchführen kann.

Ich hab letzte Woche bei der Crucial m4 das Update draufgespielt.
1. Boot-CD mit Firmware brennen.
2. Davon booten und Firmware draufspielen.
Fertig.
Das nenn ich einfach!

Ich hatte zwar sicherheitshalber ein Image erstellt, aber das war nicht nötig.
 
riDDi schrieb:
Das stellst du dir aber sehr einfach vor. Wenn du wissen willst wie schnell so ein Ansatz ist brauchst du dir nur den nächsten USB-Stick anzusehen. Auch wenn du von 8 gleichzeitig liest wirst du nicht das Niveau einer SSD erreichen.
Es ist viel komplexer was dort vorgeht. Der Controller muss sehr viele Probleme gleichzeitig optimieren. Er soll bei sehr vielen verschiedenen Zugriffsmustern möglichst viele IOPS bearbeiten, den Flash-Speicher möglichst wenig und außerdem gleichmäßig beschreiben und auch bei Ausfall von Blöcken zu jeder Zeit die Integrität der Daten gewährleisten. Nebenbei müssen zwischendurch nicht genutzte Blöcke gelöscht werden, damit immer genügend beschreibbare zur Verfügung stehen.
Welches Datum wirklich wann und wohin geschrieben wird muss der Controller bestimmen. Bei jeder halbwegs schnellen SSD wird in den seltensten Fällen etwas direkt weggeschrieben. Puffern und Blockweise ausschreiben ist Trumpf.

Und habe ich jetzt etwas anderes geschrieben, als dass bei der Ansteuerung einiges rauszuholen ist? Wozu gehört denn deiner meinung nach die parallele Verwaltung, das Löschen der Blöcke etc. etc.? 0.0 Bei mir ist es das allgemeine Wort "Ansteuerung".

Ich selbst nutze serielle und parallel Flashspeicher für meine Anwendungen und bin dabei auf einige auf die eine oder andere Technik gestoßen. Am angesprochenen anlegen der Adresse und des Datums ändert sich jedoch nichts, wäre ja auch etwas komisch, gelle ;)
 
Ich frage hier mal alle Besitzer einer OCZ SSD, wenn man bei Am**** liest was die Käufer einer solchen SSD schreiben, bekommt man fast schon Angst ein solches Laufwerk zu kaufen. Etliche berichten von Totalausfällen, schon nach kurzer Zeit. Ist das mit den SSDs von OCZ wirklich so schlimm, ich gucke mich nämlich grade nach einer SSD um?
 
Die Zahl der Totalausfälle ist schwer zu beurteilen, da es kaum zuverlässige Zahlen dazu gibt, aber auch im Netz vermutlich nur ein kleiner Teil der Ausfälle beschrieben wird, da viele Fehler an der SSD vermutlich direkt mit dem Lieferanten abgehandelt werden.

Eher beunruhigend ist die Tatsache, das vermehrt Benutzer bereits von zweiten oder dritten Ausfall einer bereits RMA-ten Disk berichten. Daher sollte Dasi erste Pflicht sein.
 
Auch wenn ich kein besonderer Fan von OCZ bin - aber die Userbewertungen bei Laufwerken, egal ob HDD oder SSD, dürften statistisch nicht ganz ernstzunehmen sein.
Wenn man Usermeinungen zu HDDs bei geizhals liest, dann könnte man davon ausgehen, dass keine Festplatte der Welt länger als 3 Monate hält.
Und solche Bewertungen wie "jetzt ist mir schon die fünfte in 2 Monaten abgeraucht" findet man auch bei HDDs.
 
Statische Daten liegen bei der Ausfallhäufigkeit meist nur dem Hersteller bzw. der RMA Abteilung vor, alles andere ist eher Spekulation oder eine Gefühlssache. Das gehäufte Auftreten von Ausfällen bei einzelnen Kunden ist aber imho schon ein deutlicheres Indiz.

Jedes technische Gerät hat eine mehr oder weniger hohe Fehlerquote, allerdings denke ich, daß dies gerade bei SSDs größere Unsicherheit bringt, da ja gerade die SSD als besonders zuverlässiges Speichermedium verkauft und beworben wird.

Das manche Unternehmen aus Marketinggründen eher fehlerhafte und wenn man sich die Häufigkeit der Firmware Updates ansieht - auch unausgereift scheinende Produkte als "Hauptspeichersystem" mit Betriebssystem und auch wichtigen Daten darauf auf den Markt wirft, finde ich das persönlich eher abschreckend, auch wenn die Vorteile einer SSD offensichtlich sind.
 
Die Update Prozedur ist jawohl der totale fail...

Wenn ich das richtig verstehe funktioniert das Update nur wenn die SSD nicht die System Platte ist (bei meiner ADATA SSD511 geht das auch so vom laufenden Windows aus...



MfG

tmkoeln
 
Zuletzt bearbeitet:
@ mambokurt:
Nun komm mal weg von deinen privaten Programmiergeschichten, hin zur Hardcore Firmware-, BIOS- und Treiber-Programmierung. Na klar wird die Software erst im nachhinein optimiert. Und natürlich wird es so sein, wie du es beschrieben hast. Aber das ist doch das Zeichen, dass dort massiv gepennt wurde. Ich hoffe ja mal, dass OCZ keine Affen angestellt hat, die sowas zum ersten Mal machen und dass dort auch eine QA verwendet wird, die ihren Namen Rechnung trägt. Aber nach 4 Wochen >100% Mehrperformance ... Wo gibt's denn sowas? 5% ja. 20% nach ein paar Monaten, weil man massiv optimieren konnte oder neue Techniken zur Verfügung stehen. >100% in 4 Wochen ist ein schlampiges Produkt zum Verkaufsstart. Und das wirft einen Blick auf die QA für die Octane. Gerade bei dem komplizierten Updateprozess.
 
Es geht wie immer nur ums Geld - nach Bananensoftware gibt es jetzt eben auch Bananenhardware und das wird nicht besser wenn sie billiger werden...
 
mumpel schrieb:
@ mambokurt:
Nun komm mal weg von deinen privaten Programmiergeschichten, hin zur Hardcore Firmware-, BIOS- und Treiber-Programmierung. Na klar wird die Software erst im nachhinein optimiert. Und natürlich wird es so sein, wie du es beschrieben hast. Aber das ist doch das Zeichen, dass dort massiv gepennt wurde. Ich hoffe ja mal, dass OCZ keine Affen angestellt hat, die sowas zum ersten Mal machen und dass dort auch eine QA verwendet wird, die ihren Namen Rechnung trägt. Aber nach 4 Wochen >100% Mehrperformance ... Wo gibt's denn sowas? 5% ja. 20% nach ein paar Monaten, weil man massiv optimieren konnte oder neue Techniken zur Verfügung stehen. >100% in 4 Wochen ist ein schlampiges Produkt zum Verkaufsstart. Und das wirft einen Blick auf die QA für die Octane. Gerade bei dem komplizierten Updateprozess.

Ich glaube ehrlich gesagt nicht, dass sich die QA um Performance schert bzw geschert hat. Wie gesagt: 'schlampig' ist relativ. Datenverluste wären schlampig. Oder wenn das Teil Feuer fängt. Die haben halt so lange entwickelt bis die Mindestanforderungen erfüllt waren und dann ihr Produkt auf den Markt gebracht mit der zu der Zeit aktuellsten stabilen Firmware. Vielleicht war ja die neue Firmware da schon lange fertig und mußte noch durch die QA, das würde zumindest die 4 Wochen erklären...

'Hardcore' ist übrigens relativ, Firmwareentwickler sind genauso Menschen wie du und ich und kochen auch nur mit Wasser ;)

Gruß, Mambo
 
Ich frage hier mal alle Besitzer einer OCZ SSD, wenn man bei Am**** liest was die Käufer einer solchen SSD schreiben, bekommt man fast schon Angst ein solches Laufwerk zu kaufen. Etliche berichten von Totalausfällen, schon nach kurzer Zeit. Ist das mit den SSDs von OCZ wirklich so schlimm, ich gucke mich nämlich grade nach einer SSD um?

Ich kann nur bzgl. der Vertex2 sprechen: die ist ne Katastrophe bei mir gewesen.
4 Stück im Einsatz - 3 davon wegen Defektes bereits auf Garantie getauscht. (immerhin klaglos abgelaufen, aber eben mit viel Zeitaufwand verbunden) Und das in PCs von Otto-Normal-Usern! Also nix mit 24/7 Betrieb oder Dauer-Benchmarks..... :(
 
juenger schrieb:
Die Zahl der Totalausfälle ist schwer zu beurteilen, da es kaum zuverlässige Zahlen dazu gibt, aber auch im Netz vermutlich nur ein kleiner Teil der Ausfälle beschrieben wird, da viele Fehler an der SSD vermutlich direkt mit dem Lieferanten abgehandelt werden.
Es gibt ja alle halbe Jahr eine Statistik darüber, die auf Daten eines franz. eTailers beruht und wo auch die nach Hersteller ausfalllfreudigsten Modellen aufgezählt sind. Das sind aber zwangsläufig nur Modelle, die der vertreibt und da diese Zahlen für Verkäufe zwischen 1. Oktober 2010 und 1. April 2011 sind, nicht über aktuelle Modelle. Nur auf der letzten Seite kommen dann in den Zahlen über die Verkäufe vom 1.04.201 bis 1.10.2011 auch die aktuelleren Modelle vor, aber nur die 5 am häufigsten ausgefallenen.

Verfolgt man das länger, so wird einem schon klar, dass der Controller bei der Ausfallwahrscheinlichkeit eine große Rolle spielt und deshalb kann man schwer vorhersagen, wie die SSDs mit dem Everest nun abschneiden werden. Bisher hatten die Indilinx ja ehr das Problem, das der Barefoot teils irrwitzige Writeamplifications von über 130 erzeugt, offenbar optimiert dessen agressive GC ständig hin und her, was zusammen mit einem sehr schlechten WearLeveling die SSDs teil nach zwei Jahren killt. Das sieht man zwar in den S.M.A.R.T. Werten aber in keine Statistik.

juenger schrieb:
Eher beunruhigend ist die Tatsache, das vermehrt Benutzer bereits von zweiten oder dritten Ausfall einer bereits RMA-ten Disk berichten. Daher sollte Dasi erste Pflicht sein.
Die Frage ist doch, ob die wirklich neue SSDs als Ersatz bekommen. Einen Rechtanspruch hat man darauf nicht und wenn eine SSD als defekt eingesandt wird aber durch den Hersteller wiederbelebt werden kann, schmeisst er die doch nicht weg. Man kann aber froh sein, wenn das so deutlich gekennzeichnet ist wie bei dieser:

corsairf120_refurbished-jpg.266595
 

Anhänge

  • CorsairF120_Refurbished.jpg
    CorsairF120_Refurbished.jpg
    60,9 KB · Aufrufe: 8.376
Zurück
Oben