News Keine SSDs von Seagate vor 2009

Naja, ud man muss eben berücksichtigen, dass das BIOS der meisten mainboards eh mindestens 15 Sekunden braucht - Instant On ist also so oder so Illusion. Und ob das mit EFI wirklich besser werden kann, wage ich zu bezweifeln, weil mein altes iBook auch 15 Sekunden braucht, bis es mal den Bootloader initialisiert.

Solange ich wegen dem Einlesen der Firmware eh nochmal Kaffee schlürfen muss, ist mir eben egal, ob da nochmal 30 Sekunden nach den 20 s Firmware hinterherkommen oder nur 3. Am besten man installiert sich für die Y|_794-1337-Performancekrone nen RAID0 aus mehreren SSDs, damit nochmal 5 Sekunden Startzeit für RAID-Setup dazukommen. :D
 
Zuletzt bearbeitet:
@ Blutschlumpf:

Was heißt hier freak ?
Ich glaub du verstehst mich nicht. Eine SSD bietet einer HDD gegenüber nur vorteile. Das fängt schon beim installieren von vista an. Und wenn du große filmdateien renderst bzw. ins progamm laden musst dann ist sowas ein segen bei einem 7GB HD film.
Das arbeiten ist wesentlich angenehmer. Es raschelt grummelt bzw. rödelt nichts mehr und du hast was keine wärmeentwiklung.
Das alles war für mich grund genug eine SSD zu kaufen.
 
surfix schrieb:
... Und wenn du große filmdateien renderst ...
Brauchst du noch irgendwo eine große Festplatte, weil du ja irgendwo auch Platz für die Filmszenen in unkomprimiertem HDV haben musst - darüberhinaus brauchen riesige Fimdateien keine schnelle Zugriffszeit (es sei denn sie liegen in tausende Fragmente zerteilt auf einer FAT-Partition), weswegen für Filmschnitt und Filmaufnahme das ansonsten selten sinnvolle HDD-RAID0 tatsächlich sehr gut geeignet ist. ;)

SSDs sollten irgendwann mal System und Programme beschleunigen, weil deren haufenweise kleine Programmdateien und Caches auf der SSD liegen. Dabei bringt der Kernvorteil der SSD, die deutlich kürzere Zugriffszeit, ordentlich Pluspunkte, nicht bei großen Filmdateien. ;)
 
Zuletzt bearbeitet:
Worauf Seagate wohl eher spekuliert ist eine allgemeine Norm die abhandelt wie sich die SDDs in Sonderfällen zu verhalten haben.

In nem professionellem Raid sollten zB die HDDs egal woher sie kommen etwa gleich auf Lesefehler reagieren (Server HDDs versuchen eine schnelle Fehlerkorrektur, misslingt diese wird der Sektor ausgeblendet und der Raidcontroller wird aufgefordert aus den Rai5 Infos diesen Sektor zu rekonstruieren. Dies erhöht die Verfügbarkeit des Raids unter Last ungemein, wärend normale HDDs gern mal Minuten Land versuchen immer den gleichen Sektor zu lesen bisses dann mal klappt... (was den ganzen Server lahmlegen würde)). Auch sollte geklärt sein wie sich HDDs verhalten wenn sie ohne Strom an ein Datenkabel gehangen werden oder was sie machen wenn sie im Betrieb vom Netz getrennt werden (HDDs versuchen den Cache leer zu schreiben und wuchten dann den Lesekopf auf Parken etc.).

Solang solche Sachen nicht geklärt sind bleiben nur Bastellösungen für Server und Niemand der auf Verfügbarkeit angewiesen ist wird sich soetwas ins Haus hohlen.

Insofern muss Hard und Software wirklich angepasst werden, vor allem die Software kann ja daraufhin optimiert werden nicht immer die gleichen Sektoren zu überschreiben bzw. Schreibbefehle zu Cachen und dann zu schreiben wenn es sich anbietet einen größeren Block schreiben zu können.

Nachtrag: Wenn es darum geht wirklich bei mehreren Anwendungen mehr Performence zu haben (vor allem bei HD-Renderspielen) gilt an sich nur die Divise:
Der Arbeitsspeicher ist zu klein und zwar IMMER
 
Zuletzt bearbeitet:
Du musst die dateien ja erstmal ins programm reinladen. Und dabei ist es für mich wichtig das der speed nicht einfach mitten drin wie bei einer HDD abreist sondern immer konstant bleibt. Und das hab ich bei einer HDD nun mal nicht.
 
Was wirklich stören kann sind Delays die entstehen wenn die Programme einige Module auf der HDD belassen weil der Ram zu klein ist. Da bringt dann ne SDD merklich Vorteile. Bei einigen Photoshopfiltern ist dem so, ebenso wie Modulen zum Laden von RAW-Bildern. Bei Unmassen Ram ist das aber kein Ding, da einfach alle Module mitgeladen werden (im Hintergrund und vom Nutzer meist unbemerkt) und wenn dann fürs Bearbeiten selber noch genügend Platz im Ram ist, dann passts
 
Sicherlich ist es aus Kosten/Nutzen-Sicht besser vorerst noch zu warten. Allerdings sollte Seagate die Entwicklung nicht ganz außen vor lassen, sonst kann es ihnen passieren, dass sie technologisch ins Hintertreffen gelangen. Die anderen Anbieter bauen sich aktuell ein Know-How in Puncto Produktion, Verarbeitung usw. auf. Auch wenn der Markt aktuell nicht rentabel ist, kann es für Seagate schwer werden diesen Wissensvorsprung einzuholen, sobald die eigene Massenproduktion beginnt. Zudem können sich die anderen Anbieter einen Markennamen aufbauen, währenddessen Seagate dies später ebenfalls erst noch nachholen muss. Ein zu langes zögern kann also durchaus kontraproduktiv sein, wenn die zunächst eingesparten Kosten später von, in Relation zur Konkurrenz, aufwendigeren Produktionsprozessen und Werbung aufgefressen werden.
 
Piktogramm schrieb:
... (vor allem bei HD-Renderspielen) gilt an sich nur die Divise:
Der Arbeitsspeicher ist zu klein und zwar IMMER
Wozu man anmerken muss, dass Adobe die Leute hier ziemlich verprellt, weil sie bisher nur 32b-Software anbieten und deshalb halt gerne SSDs oder RAM-Disks für die notewendigen Caches von Adobe-Programmen genutzt werden. Es ist derzeit nicht möglich in einem Adobe-Programm mehr als 4 GiB RAM zu nutzen, auch wenn er insbesondere bei Adobe Premiere benötigt wird.

@ Straputsky

Dass Seagate keine Endprodukte entwickelt bedeutet nicht, dass Seagate gar nicht weiterentwickeln würde. Schau dir mal die amerikanische Militärflugzeugforschung an, da sind 90% aller Entwicklungen Prototypen (also sowas wie Concept-Cars) und die gelegentlich erscheinenden Endprodukte sind voll auf der Höhe der Zeit. ;)
 
Zuletzt bearbeitet:
Ist das wirklich ein Adope Problem oder lieg das eher an einer Windowsprozessverwaltung die jedem Prozess nur 2GB zuteilen kann? Meines Wissens war es der letzte Punkt der solche Späße noch vereitelt. Die Codecs selber können ja durch Multiprozessnutzung so gestaltet werden, dass jeder Prozess auf einem Kern (a zwei Threads für Core i7) mit je 2GB Speicher laufen. Dann wäre das 2GB Problem kaum noch der Rede wert.
 
Wo habt ihr nur dermaßen absurde Informationen her? Ein WinXP x64 und ein Win Vista x64 können jedem Programm mindestens mehrere TiB Arbeitsspeicher zuweisen - das ist überhaupt der einzige Grund, warum Win XP x64 jemals erschienen ist!

Die komplette Adobe Creative Suite 3.x besteht ausschließlich aus 32b Programmen und 32b-Prozesse können eben maximal 4 GiB nutzen, egal auf welchem System.

P.S.
Aus Wikipedia: "Bei AMD64 ist die Breite einer virtuellen Adresse 48 Bit. Das heißt, ein Task kann 256 TB adressieren. Die AMD64-Prozessoren haben zur Zeit 40 Adresspins, physisch können sie also 1 TB Speicher adressieren." Merh als ein 1 TiB Arbeitsspeicher wird man also derzeit auf einem PC nicht nutzen können, auch wenn Windows und Linux theoretisch mehr unterstützen.

P.P.S.
Photoshop CS4 64-Bit kommt nicht für Mac
 
Zuletzt bearbeitet:
Wie Mountwalker schrieb 4 GiB maximal, da 32 bit Programm. 32 bit Windows kann einem Programm auch mehr als 2 GiB Ram bei Image File Large Address Aware Produkten zuweisen:
http://www.microsoft.com/whdc/system/platform/server/PAE/PAEmem.mspx

Also definitiv ein Adobeproblem, in kleinerer Weise auch ein Microsoft Problem, die PAE in ihren "normalen Anwenderprodukten" einfach ausgeschaltet haben. Sonst wären zumindest 32 eigentlich sogar 64 GiB Ram möglich.

Zurück zur SSD: Ich hoffe, dass sich die altbekannten HDD Hersteller mit der FeFET Technologie ins SSD Geschäft wagen. Siehe Universität Tokio: http://www.lsi.t.u-tokyo.ac.jp/Takeuchi_GCOE_INRIA2008_7.pdf
Aktuellere PP Präsentation auf einem Symposium.
Die Daten sprechen für sich, insbesondere wegen des Miniaturisierungsproblems werden die Hersteller demnächst auf FeFET anstatt eines MosFET setzen.

Edit: Adobe 32 bit Programme scheinen auch so compiliert worden zu sein, dass diese wirklich nur 2 GiB sehen und damit nutzen können, selbst bei einem 64 bit OS. Selbst ein "automatischer" LAA Flag eines 64 bit Windows hilft nichts, da LARGEMEMORYADDRESSAWARE dem Programm fehlt.
 
Zuletzt bearbeitet:
Straputsky schrieb:
Sicherlich ist es aus Kosten/Nutzen-Sicht besser vorerst noch zu warten. Allerdings sollte Seagate die Entwicklung nicht ganz außen vor lassen, sonst kann es ihnen passieren, dass sie technologisch ins Hintertreffen gelangen. ...

... glaubst du wirklich, dass sich keine einzige Entwicklungsabteilung von Seagate mit diesem Thema beschäftigt ...
 
Sicherlich nicht, aber so manche Probleme entstehen respektive werden erst durch die Massenproduktion sichtbar. Hier geht es nicht nur um das Produkt ansich, sondern auch um Organisation u.ä. Solange dies alles in einer sterilen Welt eines Labors stattfindet, werden häufig Probleme erst gar nicht wahrgenommen, die sich aber bei einer späteren Produktion doch als erheblich herausstellen. Es ist etwas anderes ein paar Musterteile für die hausinterne Untersuchung zu produzieren, als täglich tausende von diesen Dingern durch die Werkshalle zu jagen.
 
Geb der SSD noch ein wenig zeit es zwingt euch ja keiner Diese zu kaufen aber die vorteile der selbigen sind nicht von der Hand zu weisen, seit Jahren ist die Festplatte die größte Bremse im System das kann mit einer SSD ausgemerzt werden genauso, die haltbarkeit ist schön größer da keine Mechanischen Bauteile mehr da sind, Stosunempfindlicher.

Bei den Herkömmlichen HDD geht schon seit geraumer Zeit nichtmehr viel vorwärts von der übertragungsrate, 120MB/s SSDs die normalen sind bei 250MB/s und auf PCIE Basis sind wir bei 1500MB/s das wird eine HDD warscheinlich nie erreichen.

Die kapazitäten werden auch höher 250GB ist doch auch schonmal was das wird schonoch mehr und günstiger werden die auch noch ist hald alles noch neu.

Virenscannen nichtmehr in 30Minuten da dürfte es deutlich schneller gehen.
 
SATA ist für ein Hochleistungs-SSD sicher auf Dauer nicht ausreichend. Überhaupt bietet es vieles, was eine SSD garnicht braucht. NCQ? Wozu denn, bewegt sich da was?
PCIe ist ja quasi prädestiniert dafür. Zur Not x16, das hält ne Weile.
 
Zuletzt bearbeitet:
Ich denke nicht, dass das Kosten-Nutzen-Verhältnis hier der ausschlaggebende Punkt ist.
Ich denke mal, WD und Seagate schauen sich vor allem erstmal die Zuverlässigkeit des neuen Mediums an und testen diese auf lange Zeit bevor sie diese auf den Markt werfen.

Als Marktführer werden sie somit auch evtl. Problemen aus dem Wege gehen, die das Firmenimage schädigen könnten. Vor allem bei Servern ist eben Zuverlässigkiet das A und O.
 
find ich persöhnlich nicht so schlecht. mit seegate platten hatt ich noch nie glück gehabt. immer nach nen gewissen zeit spacken die teile ab. naja vieleicht sind die ja aber auch inzwischen besser. lasse mich da auch belehren (aber nur mit seriösen tests!!!)
 
Intel zeigt doch mit ihren SSD's, was möglich ist, und für was man sie braucht. Sowohl für Desktops (extreme Performance/niedrige Verzögerung), als auch für Laptops (geringerer Stromverbrauch).

Ich verstehe nicht, wie man mit den krassen Intel SSD's auf dem Markt (quasi, bzw wohl in 1-2 Wochen) von "noch kein Bedarf/zu unausgereift" sprechen kann.
 
Ich tippe mal bei Seagate wird schon der ein oder andere sitzen der zumindest ansatzweise nen Plan vom IT-Markt und speziell dem Bereich Storage hat.

Woher weist du denn wie ausgereift die SSDs von Intel sind ?
Ich mein, woher weist du, dass nicht 30% davon nach nem Jahr über den Jordan gehen ?
Bisher hab ich außer Werbung von Intel noch nichts von den 500Euro-Wunder-Drives gesehen.
 
Zurück
Oben