Test AMD Radeon R7 SSD im Test

[F]L4SH schrieb:
Wenn diese recht starke SSD als R7 auf den Markt kommt, ist es sehr wahrscheinlich, dass eine 4x PCIe3 M2/SATA Express nvme High End SSD als R9 auf den Markt kommt.

Einfach wilde Spekulation, oder irgendwelche Hintergrundinfos dafür parat?

Wenn AMD eine bezahlbare, bootfähige PCIe NVMe SSD auf den Markt brächte, mit einer Performance die vergleichbar mit einer Intel P3700 wäre, dann wäre ich der Erste, der einen Wandel von AMD-Hater zum AMD-Fan vollführt. D.h. jetzt nicht. daß ich jemals ein MB mit AMD-Chipsatz verbauen würde, aber bei SSDs würde ich unvoreingenommen an die Sache ran gehen.

Ich traue aber Samsung eher zu so etwas auf den Desktop Markt zu bringen als AMD, aber wer weiß.
 
Hallo32 schrieb:
Der FTL dürfte eher den Großteil des RAMs belegen.
Bei einer 512GB SSD kommst du ja schon auf 512*1024^3 Byte / 512 Byte = 1.073.741.824 Einträgen.
Und wie groß ist demnach deiner Meinung nach die LBA Mapping Tabelle des FTL? Wieviel Platz verbraucht ein Eintrag in der Tabelle? Erläutere mir bitte warum du den Faktor 1024 hier verwendet hast.
 
Daedal schrieb:
Und wie groß ist demnach deiner Meinung nach die LBA Mapping Tabelle des FTL? Wieviel Platz verbraucht ein Eintrag in der Tabelle?

Abhängig von der Implementierung.

Daedal schrieb:
Erläutere mir bitte warum du den Faktor 1024 hier verwendet hast.

512GB sind 512*1024MB und 512*1024*1024kB und ebenfalls 512*1024*1024*1024B.
Ein LBA adressiert aktuell 512 Byte.
 
Na dann ist es nur noch eine Frage der Zeit bis es auch ein Radeon Mainboard gibt.... dann hat man bis auf das Netzteil und Gehäuse schon fast einen kompletten AMD PC
 
Postman schrieb:
Ja nur zeigt deine gezeigte Statistik nicht alle OCZ SSDs an, da hatten generell noch alle Hersteller mangels Erfahrungswerte Probleme. Ich habe eine Vertex 2 und 3 bzw. eine Vector und die tauchen in deiner Statistik gar nicht auf.
Bevor man eine Statik kritisiert oder auch nur kommentiert, solltest unbedingt die erste Seite des Artikels lesen, denn da steht drin worauf sich die Daten beziehen, auch auf welchen Zeitraum und welche Rückläufe dort eingegangen sind. Normale Rücksendequoten im Elektronik-E-Commerce liegen bei über 10%, es sind also sicher keine normalen Rücksendungen aufgrund des 14-Tage Rückgaberechts enthalten.

Postman schrieb:
Faul und Bequem wie Samsung abzuwarten, daß andere Hersteller die Probleme in der Anfangsphase erkennen und fixen kann ja jeder. Mutig sein und Innovatives bringen ist da schon etwas anspruchsvoller und da waren (so empfinde ich zumindest) die OCZler Vorreiter.
OCZ war Vorreiter? Also noch genauer kannst Du Deine Unkenntnis ja gar nicht outen: Die erste OCZ SSD war eine umgelablte Samsung OEM-SSD die OCZ auf den Retail Markt gebracht hat! Samsung baut schon länger SSDs als OCZ, sie sind nur nicht so lange im Retail Geschäft, sondern haben anfangs nur an OEMs verkauft.

Postman schrieb:
Zudem warin diversen Foren damals zu lesen, daß mindestens 1/3 die neuen SSDs alle in Laptops einsetzen wollten. Da gab es mangels Bios Anpassungen und seltener Updates jede Menge mehr Probleme (evtl. wurden die Platten auch falsch angesteuert und dadurch beschädigt), die aber nicht alle OCZ zur Last gelegt werden können.
Die Sandforce der ersten Generation waren nicht mit dem elektronischen Standard konform und laufen deshalb auch nicht problemlos mit den Haswell Chipsätzen. Das war nicht OCZs schuld, die hätten das aber merken und den Controller dann nicht verwenden dürfe, denn ein Autohersteller fehlerhafte Teile eines Zulieferers verbaut, haftet er ja auch für die Folgeschäden und muss die Fahrzeuge zurückrufen, weil es eben für das Endprodukt verantwortlich ist. Hier also OCZ oder einen anderen SSD Hersteller von den Fehlern des Controllerherstellers freizusprechen, sehe ich nicht als richtig an.

Postman schrieb:
Übrigens ist meine Samsung 840 EVO subjectiv beim Windows Start und diversen Klicks langsamer wie jegliche OCZ Vertex die ich hatte, so manche Tests sagten anderes aus.
Hast Du vielleicht RAPID aktiviert? Dann könnte das sogar sein, aber sonst keineswegs, denn die Samsungs sind beim Lesen schneller. RAPID bremst aber in der Tat in der Praxis, was hier einige nicht glauben wollen, die sich von den hohen Scores bei Benchmarks wie AS-SSD blenden lassen.

Numrollen schrieb:
Wir haben hier seit der 830 relativ viele Samsung im Einsatz und bei Stichproben sind die Teile sichtbar eingebrochen.
Haben die dann die aktuelle FW drauf? Mit der ersten FW war das Problem bekannt. Oder mist ihr das mit den für SSDs untauglichen Low-Level Benchmarks wie HD Tune und HD Tach?

Rome1981 schrieb:
@Audiorex: Aber sagst du damit nicht schon aus, dass die aktuellen OCZ sogar deutlich besser sind als bisher?
Naja, die Ausfallraten der Vector sind so gut nicht:
Und hier hat eine Vector 256GB immerhin 5129 P/E-Zyklen erreicht., also durchaus hochwertiges NAND verbaut gehabt, was man für die Premiumreihe auch erwarten sollten. Daher zweifele ich, dass man alle Problem der Vector alleine den NANDs zuschreiben darf, aber wir werden ja nun sehen wie die neuen Modelle nach der Übernahme durch Toshiba abschneiden.

Hallo32 schrieb:
Moment, da steht doch klar: "After a reasonable number of sequential and random writes, we test the drive in HD Tach". Bei hoher Schreiblast wird der Pseudo-SLC Modus nicht verwendet, man müsste schon einen HD Tach Bench im Neuzustand oder nach TRIM und einer Pause sehen um das erkennen zu können. So einen habe ich noch nicht gefunden, aber auch nicht sehr danach gesucht, aber es wäre die erste SSD mit Barefoot3 die den nicht hat.

oemmes schrieb:
Der Controller ist der Barefoot 3 - der ist auch bewährt....so what.
Ist er das? S.o.!

Hallo32 schrieb:
Der FTL dürfte eher den Großteil des RAMs belegen.
Bei einer 512GB SSD kommst du ja schon auf 512*1024^3 Byte / 512 Byte = 1.073.741.824 Einträgen.
So viel ist es nicht, es wird ja nicht jeder LBA einzeln gemappt (Stichwort: Optimierung auf 4k Zugriffe) und meist ist es auch keine flache Tabelle, sondern eine Baumstruktur. Lies mal Anand Bereich über die Intel DC S3700 und deren Controller.

Hallo32 schrieb:
Mit den emulierten SLC bekommst du relativ schnell mehrere GB die schnell beschrieben werden können und auch bei einen unerwarteten Spannungsausfall erhalten bleiben.
Das ist der Vorteil, das Problem ist aber, wenn es dann zu einem unerwarteten Spannungsabfall bei der Neuorganisation der Daten kommt, die ja nötig ist um den Platz wieder frei zu bekommen bzw. die 2. Bits der NANDs zu beschrieben um auch dann noch schnell schrieben zu können, wenn mehr als die Hälfte der Kapazität belegt ist.

Wird viel RAM als Datencache genutzt, wird es ohne Stützkondensatoren gefährlich, hilft aber den Benchmarkergebnissen auf die Sprünge. Die Vector 150 hat mir 512MB (120+240GB) bzw. 1GB (480GB) auch immer viel Cache, entweder haben die auch eine flache Tabelle oder nutzen den halt intensiv als Schreibrache für die Daten.
 
Holt schrieb:
Moment, da steht doch klar: "After a reasonable number of sequential and random writes, we test the drive in HD Tach". Bei hoher Schreiblast wird der Pseudo-SLC Modus nicht verwendet, man müsste schon einen HD Tach Bench im Neuzustand oder nach TRIM und einer Pause sehen um das erkennen zu können. So einen habe ich noch nicht gefunden, aber auch nicht sehr danach gesucht, aber es wäre die erste SSD mit Barefoot3 die den nicht hat.

Stimmt, hast Recht.

Holt schrieb:
So viel ist es nicht, es wird ja nicht jeder LBA einzeln gemappt (Stichwort: Optimierung auf 4k Zugriffe) und meist ist es auch keine flache Tabelle, sondern eine Baumstruktur. Lies mal Anand Bereich über die Intel DC S3700 und deren Controller.

Die Tabelle ist so groß und es ist ein 1:1 Mapping. Siehe ab "The New Indirection Table".

The new controller ditches the binary tree entirely and moves to a completely flat structure with 1:1 mapping. What happens now is there's a giant array with each location in the array mapped to a specific portion of NAND.
Quelle: http://www.anandtech.com/show/6432/...0-intels-3rd-generation-controller-analyzed/3

Holt schrieb:
Das ist der Vorteil, das Problem ist aber, wenn es dann zu einem unerwarteten Spannungsabfall bei der Neuorganisation der Daten kommt, die ja nötig ist um den Platz wieder frei zu bekommen bzw. die 2. Bits der NANDs zu beschrieben um auch dann noch schnell schrieben zu können, wenn mehr als die Hälfte der Kapazität belegt ist.

Das Thema haben wir beiden doch schon ausführlich behandelt. Es tritt kein Problem auf, wenn man schlau vorgeht.
 
Daedal schrieb:
Die Rückläuferstatistiken dort sind von einem einzigen französischen Onlinehändler und besagen nicht warum diese zurück gingen. Das ist genau das Problem mit diesen Behauptungen auf Basis nicht belastbarer Zahlen.

Es handelt sich immerhin um einen Großhändler. Dass unklar wäre, warum die SSD zurückgegeben wurden, kann ich nicht nachvollziehen. Gemäß den Randbedingungen der Statistik werden ausschließlich Exemplare berücksichtigt, die als defekt eingestuft sind. Das Vorliegen der Defekte wird stichprobenhaft kontrolliert. Ferner sind die erfassten Exemplare mind ca. ein halbes bis ein Jahr genutzt worden. Ungerechtfertigte Reklamationen innerhalb der ersten 6 Monate nach Kauf, die aufgrund der beim Verkäufer liegenden Beweislast i.d.R. ohne Prüfung akzeptiert werden, werden somit weitgehend aus der Statistik heraugehalten.

Zitat:

"The first question is of course where the stats come from. They’re taken from a large French etailer, whose database we have had direct access to. We were therefore able to extract the stats we wanted directly from source.

Under what conditions is a part declared as defective by this etailer? There are two possible cases: either the technician considers the exchange of information with the client (type of problem, cross testing) sufficient to declare that the product isn’t working, or there’s a question mark over the component and the etailer tests it to check if it’s working or not.

Among the returns that aren’t tested, some of the components announced as having an issue by customers probably aren't actually defective, in spite of the precautions taken by the technician. This is something inherent in the etailing sector and in practice, it’s unlikely that any model or product is more affected by this phenomenon than any other (at least we’re aware of no objective argument that shows this)...

The returns rates given concern the products sold between October 1st 2011 and April 1st 2012 for returns made before October 2012, namely after between 6 months and a year of use. Over the lifetime of a product the returns generally form a spread out on the graph, with the end virtually flat. Our figures therefore cover the early part of the lifetime of products, where returns rates are high.

The statistics by brand are based on a minimum sample of 500 sales and those by model on a minimum sample of 100 sales, with the biggest volumes reaching tens of thousands of parts by brand and thousands of parts by model. Each time, we’ve compared the rates by manufacturer to those in ... "


Nach meiner langjährigen Erfahrung hat die Statistik auch immer recht gut mit bekannten größeren Fehlern von SSD-Serien korreliert, ob BSOD-Bug bei Sandforce, 8MB-Bug bei Intel oder 5000h-Bug bei Crucial.
 
Hallo32 schrieb:
Abhängig von der Implementierung.



512GB sind 512*1024MB und 512*1024*1024kB und ebenfalls 512*1024*1024*1024B.
Ein LBA adressiert aktuell 512 Byte.
Schöne Info, die mir aber schon einige Jahrzehnte bekannt ist. Meine Frage war wieso du diesen Faktor da verwendet hast in deiner Formel.

Holt schrieb:
Naja, die Ausfallraten der Vector sind so gut nicht:.
Genau das ist der Grund warum man dich nur schwer ernst nehmen kann. Du verlinkst immer wieder auf Rucklaufquoten von EINEM Versandhändler und stellst das gleich als Ausfallquote dar des GANZEN Produktportfolios eines Herstellers dar. Auch wenn dies im Vergleich zu anderen Herstellern auf eine höhere Ausfallquote hinweist, so ist das immer noch nicht identisch und somit schlicht falsch.

Präziserer Umgang mit Infos in Technikforen ist eigentlich genau der Grund warum wir hier sind und nicht bei Bild.de.
Ergänzung ()

WeltalsWille schrieb:
Nach meiner langjährigen Erfahrung hat die Statistik auch immer recht gut mit bekannten größeren Fehlern von SSD-Serien korreliert, ob BSOD-Bug bei Sandforce, 8MB-Bug bei Intel oder 5000h-Bug bei Crucial.
Da bin ich absolut deiner Meinung und so ist es auch richtig formuliert.

Die Rücklaufquote innerhalb eines spezifizierten 6 Monatszeitraums 6-12 Monate nach Kauf ist sicherlich nicht identisch der Ausfallquote eines beliebigen Herstellers.
 
Zuletzt bearbeitet:
@ Holt & Daedal:

ich denke es ist schlicht unwichtig, wer in dem Disput recht. Fakt ist, daß ein 0815-Gamer weder einen positiven noch negativen Unterschied merken würde. Ob die AMD jetzt besonders toll ist oder nicht, WAYNE? Fakt ist ebenfalls, das Ergebnis (des Verkaufs) wird sich einfach nach dem (stabilen) Preis (bei breiter Verfügbarkeit) richten.

Ich würde sogar wetten, daß die Farbgestaltung der SSD für weit mehr Leute kaufentscheidend sein wird, als die technischen Werte und Eigenschaften über die ihr euch so streitet.:D
 
@Halo
Die lässt sich nicht berechnen, da die Algorithmen bei jedem Hersteller anders sind. Auch werden nur Einträge gemacht wenn auch Daten vorhanden sind und somit schwankt die Größe mit dem Datenfüllstand. Auch werden interne Verlinkungen genutzt (ähnlich Hardlinks) die nicht Ansatzweise so viel Platz brauchen wie die gesamte LBA Info. Holt hat dir einen Link gepostet zu Anandtechs Intel Controler Review, den ich dir empfehle zu lesen.
 
Zuletzt bearbeitet:
Hallo32 schrieb:
Die Tabelle ist so groß und es ist ein 1:1 Mapping. Siehe ab "The New Indirection Table".
Ja bei dem Intel Controller, aber normalerweise ist dass nicht so, weshalb das dort ja so breitgetreten wird.
Da ist natürlich konkret auf den alten Intel Controller bezogen, dürfte aber auch auf viele andere Controller zutreffen und da die Tree immer wieder neu balancieren müssen, haben sie immer wieder Einbrüche in der Performance. Das sieht man bei einigen im Performance Consistancy Test ja auch gut.

Hallo32 schrieb:
Das Thema haben wir beiden doch schon ausführlich behandelt. Es tritt kein Problem auf, wenn man schlau vorgeht.
Je genau, da ist die Frage ob das nicht das Problem und damit die Ursache der Ausfälle ist. Crucial hatte ja bei einige FW Versionen der m4 auch recht massive Probleme, aber man konnte die dann mit der Power Cycle Methode wiederbeleben, weil die LBAs auch bei den Daten in den Pages stehen. Trotzdem hat man dann aber der m500 Stützkondenstatoren verbaut und da die MX100 kein sync-faking betreibt, würde ich Anands These unterstützen, wonach die Kapazität der Kondensatoren nur für die Verwaltungsdaten reicht.

Halb Off-Topic: Schon gelesen: SanDisk Ultra II TLC SSD, auch mit nCache, also Pseudo-SLC.

Und denk dran: Don't feet...
 
@Blackwidowmaker
Ich halte das nicht für Unwichtig. Denn würde das entscheiden ob ein Produkt gut oder schlecht ist oder ob man zukünftig eine Firma völlig meiden sollte, dann frag ich mich warum immer noch Leute Intel Chipsatz basierende Mainboards kaufen nachdem diese Millionenfach zurück gerufen worden sind.

Was würdest du denn sagen wenn ich in jedem Intel betreffendem Thema schreiben würde, dass man denen überhaupt nichts zutrauen kann weil die RMA Quote der Chipsatzserie bei 60% lag? Die Firma aufgelöst gehört und sie sowieso Verbrecher seien?
Ich glaub irgendwann würde sich der "eine oder andere" zu Wort melden um das mal gerade zu rücken.
Ergänzung ()

Holt schrieb:
Halb Off-Topic: Schon gelesen: SanDisk Ultra II TLC SSD, auch mit nCache, also Pseudo-SLC.
Nicht nur gelesen sondern auch verlinkt, und im Gegensatz zu dir auch verstanden. Pseudo-SLC ist der Marketingbegriff von Toshiba also hat nCache von SanDisk keinen pSLC ebenso wenig wie AMD kein GSync hat sondern Freesync. Bei dir sind wohl auch alle Taschentücher "Tempos". Und in meinem Beitrag wo der Link zuvor schon zu finden ist findest du auch die Textpassage wo das als sehr fragwürdig bezeichnet wird und wenig sinnvoll in Kombination mit DRAM Cache.
Präzision in der Faktendarstellung wie bei Computerbild, deshalb hast du wohl "ein schlechteres Image" als OCZ bei Leuten die zumindest die Basics der Technik kennen.
 
Zuletzt bearbeitet:
@BlackWidowmaker, da ich auf den Schwachsinn von Daedal nicht eingegangen bin und dies auch nicht werde, gibt es keinen Disput. Lies nur mal den Dialog zwischen ihm und WeltalsWille über die franz. Statstik durch, dann weist Du doch Bescheid, oder?
Daedal schrieb:
WeltalsWille schrieb:
Daedal schrieb:
Die Rückläuferstatistiken dort sind von einem einzigen französischen Onlinehändler und besagen nicht warum diese zurück gingen. Das ist genau das Problem mit diesen Behauptungen auf Basis nicht belastbarer Zahlen.
Nach meiner langjährigen Erfahrung hat die Statistik auch immer recht gut mit bekannten größeren Fehlern von SSD-Serien korreliert, ob BSOD-Bug bei Sandforce, 8MB-Bug bei Intel oder 5000h-Bug bei Crucial.
Da bin ich absolut deiner Meinung und so ist es auch richtig formuliert.
Genauso wird er auch wieder zurückrudern müssen, wenn er dies liest:
Das haben die schon im Mai 2011 angekündigt und solange der nicht belegt, das Toshiba sich den Begriff Pseudo-SLC hat schützen lassen.... der geschützte Name dafür ist nämlich SmartNAND. Du siehst, er verbreitet nur Unfug und deshalb gehen ich auch darauf nicht weiter ein.
 
Zuletzt bearbeitet:
Ich hoffe, man verzettelt sich hier nicht in neue Produktsparten, die durch Samsung bereits mit einem unerbittlichem Platzhirsch besetzt sind (welcher tatsächlich alle Bauteile einer SSD selbst fertigt). Gibts da überhaupt noch Geld zu verdienen bei dem prognostizierten Preisverfall?

Ohje ohje, so gut das Produkt auch sein mag. Die Vorteile gegenüber einer z.B. MX100 zum Vergleich wiegen die Preisunterschiede nicht auf und sind für Gamer quasi nicht existent. Konzentriert euch auf richtige CPUs!
 
Holt schrieb:
@BlackWidowmaker, da ich auf den Schwachsinn von Daedal nicht eingegangen bin und dies auch nicht werde, gibt es keinen Disput. Lies nur mal den Dialog zwischen ihm und WeltalsWille über die franz. Statstik durch, dann weist Du doch Bescheid, oder? Genauso wird er auch wieder zurückrudern müssen, wenn er dies liest: Das haben die schon im Mai 2011 angekündigt und solange der nicht belegt, das Toshiba sich den Begriff Pseudo-SLC hat schützen lassen.... der geschützte Name dafür ist nämlich SmartNAND. Du siehst, er verbreitet nur Unfug und deshalb gehen ich auch darauf nicht weiter ein.
Nun das ist dein Problem. Ich rudere gerne zurück wenn du mir das beweist, dass ich falsch liege. Nur verlinkst du keinen Nachweis. Das Argument dass SmartNand eine geschützte Marke ist steht nicht im Gegensatz zu irgendetwas das ich geschrieben hatte. Pseudo NAND ist ja nicht mal irgendein NAND sondern ein Software Feature.

Und mir ist klar dass du mit deiner Logik den Unterschied zwischen Fakt und Möglichkeit nicht erkennst. Rücksendungen werden zu Defekten deklariert. Forenuser zu Trollen. Marken zu technischen Bezeichnungen. Ich bin sicher du bist Admin bei irgendeiner Verschwörungs- oder Ufowebsite, da dies zu deren Logiken passt.
Ergänzung ()

Holt schrieb:
@BlackWidowmaker, da ich auf den Schwachsinn von Daedal nicht eingegangen bin und dies auch nicht werde, gibt es keinen Disput. Lies nur mal den Dialog zwischen ihm und WeltalsWille über die franz. Statstik durch, dann weist Du doch Bescheid, oder? Genauso wird er auch wieder zurückrudern müssen, wenn er dies liest:
Ich ergänze nur mal den Teil den du weg gelassen hast im Zitat und wo wir uns einig waren..was soll da wohin gerudert sein?
Die Rücklaufquote innerhalb eines spezifizierten 6 Monatszeitraums 6-12 Monate nach Kauf ist sicherlich nicht identisch der Ausfallquote eines beliebigen Herstellers.
 
Die Rücklaufquote innerhalb eines spezifizierten 6 Monatszeitraums 6-12 Monate nach Kauf ist sicherlich nicht identisch der Ausfallquote eines beliebigen Herstellers.

Die "Statistik" von hardware.fr ist ja wohl leider die einzige derartige Statistik, die es überhaupt gibt. Und zumindestens kann man hier ja mal Tendenzen ablesen. Ob da nun paar Rückläufer mit eingerechnet sind, ist insoweit egal, weil das ja auch für jeden genannten Hersteller in der gleichen Weise gilt.
 
Richtig, aber nur weil es das einzige ist wo Tendenzen (für einen 6 Monatszeitraum, wieviele gehen denn eher in den ersten 6 Monaten oder sofort defekt?) gezeigt werde ist das nicht die Ausfallrate. Was ist daran nun Blödsinn. Kaufst du keine Intel Boards mehr nachdem Sie Millionen Chipsätze zurück gerufen haben?
 
Zurück
Oben