B
Bob.Dig
Gast
Vermutlich. Ein offizielles Changelog gibt es wohl nicht.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Dann weiß ich, dass es da wohl eine Einstellung gibt mit der man zwischen PCIe 3.0 x2 und SATA 5+6 (die dürfte der Default und aktuell aktiv sein) oder PCIe 3.0 x4 aber ohne SATA 5+6 (für maximale Leistung) gibt. Oder bauen die SSD in den anderen M.2 Slot.
Weil man eben eine menge langer und paralleler Zugriffe braucht um auf diese hohen Transferraten zu kommen, was aber für fast alle NVMe SSDs gilt. Ausnahmen sind nur die Intel Optane und Samsung Z-SSDs deren Medien eine viel geringere Latenz als normale NANDs aufweisen.noZmo schrieb:Lt. Herstellerangaben sind da 3400 MB/S lesend / 2400 MB/S schreibend drin, in der Praxis sicher darunter.
Das ist kein Bug und Low-Level Benchmarks wie HD Tune sind für SSDs ungeeignet, da die Controller sowas wie ein Schattenfilesystem führen, die schrieben ja die Daten über die NAND Pages so verteilt, dass sie parallel sind um eine maximalen Schrieb- und später dann wieder Leseperformance erreichen. Dies gilt pro Datei, nicht aber zwangsläufig für aufeinanderfolgende LBAs wie Low-Level Benchmarks sie aber eben auslesen. Und wenn einem LBA gar keine gültigen Daten zugewiesen sind, dann kann und braucht der Controller auch keine Daten auf den NANDs zu lesen, welches sollte er auch lesen und liefert normalerweise einfach nur Nullen zurück, was natürlich schneller geht als wirklich Daten zu lesen. Die Low-Level Benchmarks wissen aber gar nicht welche LBAs wirklich belegt sind und dann gibt es entsprechend hohe Leseraten im Benchmark, die gebenchte SSD ist ja nur ungefähr zu Hälfte gefüllt. Nur beim HD Tune "File Benchmark" sollte zumindest letzteres keine Rolle spielen.mgutt schrieb:Ich habe selbst mal einen Versuch mit HD Tach unternommen
Vergiss einfach Tools wie HD Tune und HD Tach für SSDs, die Reviews nutzten HD Tach ja in aller Regel auch nur um die Größe des Pseudo-SLC Caches zu ermitteln, eben um den Einbruch der Schreibraten beim sequentiellen Schreiben zu ermitteln.mgutt schrieb:Ich habe es mal an HD Tune als Bug gemeldet.
Das erklärt bei HD Tach die Schwankungen (eigentlich nicht, da die SSD nicht mal halb voll ist = die Transferspitzen müssten ja förmlich "explodieren"), aber die Werte sind trotzdem viel zu klein. Testgröße war angeblich 32MB. Sollte ja eigentlich reichen um ordentlich zu messen.Holt schrieb:Und wenn einem LBA gar keine gültigen Daten zugewiesen sind, dann kann und braucht der Controller auch keine Daten auf den NANDs zu lesen, welches sollte er auch lesen und liefert normalerweise einfach nur Nullen zurück
Mehr wollte ich auch nicht wissen. Nur was bringt es was mit HD Tach zu testen, wenn man der Anwendung nicht vertrauen kann. Dann kann man auch einfach nur schreiben "Ja xxGB SLC Cache stimmt" und das Diagramm lieber weglassen. Bei der 970 Evo / Evo Plus sieht der Wert zB noch richtig aus, aber bei der 970 Pro sollen angeblich nur 1500 MB/s möglich sein (lesen und schreiben). Mag ja sein, dass die Werte von HD Tune nicht absolut passen, aber sie sind zumindest deutlich näher an der Realität.Holt schrieb:die Reviews nutzten HD Tach ja in aller Regel auch nur um die Größe des Pseudo-SLC Caches zu ermitteln, eben um den Einbruch der Schreibraten beim sequentiellen Schreiben zu ermitteln.
Explodieren scheint hier nur bis 1800MB/s zu gehen und dann ist da noch das Schattenfilesystem, also die Verteilung der Daten die den jeweils aufeinanderfolgenden LBAs zugeordnet sind, über die NAND Dies. Stehen die Daten auf dem gleichen NAND Die, müssen sie nacheinander gelesen werden.mgutt schrieb:Das erklärt bei HD Tach die Schwankungen (eigentlich nicht, da die SSD nicht mal halb voll ist = die Transferspitzen müssten ja förmlich "explodieren")
Selbst AS-SSD kann mit seinen 16MB langen Zugriffen aus solche SSDs lange nicht die vollen Leseraten kitzeln und dann ist noch die Frage ob damit wirklich die Länge pro Zugriff gemeint ist und ob die wirklich so bei der SSD ankommt und nicht die Zugriffe irgendwo im System aufgeteilt werden.mgutt schrieb:Testgröße war angeblich 32MB. Sollte ja eigentlich reichen um ordentlich zu messen.
Weil es nicht wirklich um die Werte auf der Y Achse geht, sondern darum zu sehen wie viele GB geschrieben werden können bis die Schreiberate einbricht.mgutt schrieb:Nur was bringt es was mit HD Tach zu testen, wenn man der Anwendung nicht vertrauen kann.
Könnte man auch machen, aber ich bevorzuge es immer wenn Reviewer auch die Screenshots veröffentlichen aus denen sie ihre Informationen ableiten.mgutt schrieb:Dann kann man auch einfach nur schreiben "Ja xxGB SLC Cache stimmt" und das Diagramm lieber weglassen.
Was für eine Realität? Es gibt nicht eine Realität, sondern unendlich viele, eben je nachdem wie die Zugriffe sind, also über wie viele Daten zu ein Zugriffe geht, hast du ja selbst durch Änderung der Einstellung in CDM von 1MB auf 2MB und 8MB gesehen und wie viele parallele Zugriffe tatsächlich erfolgen. Daher kann kein Benchmark für sich in Anspruch nehmen "die Realität" abzubilden, dies geht einfach nicht und die Benchmarks können bestenfalls immer nur die Transferraten für die Realität anzeigen die sie mit ihren Zugriffen selbst erzeugen. Wer mehr erwartet, muss zwangsweise enttäuscht werden!mgutt schrieb:bei der 970 Pro sollen angeblich nur 1500 MB/s möglich sein (lesen und schreiben). Mag ja sein, dass die Werte von HD Tune nicht absolut passen, aber sie sind zumindest deutlich näher an der Realität.
Wenn der Anfall der Schreibrate nicht auffällt, dann taugt HD Tach natürlich nicht für den Test. Generell sind HD Tune und HD Tach nicht die Benchmarks der Wahl für SSDs und die Schreib- / Leseraten die damit ermittelt werden, wenig relavant.VelleX schrieb:Denn bei der 1TB Evo Plus wäre das auf Grund der 64KB Blocksize bei HDTach wahrscheinlich gar nicht aufgefallen