News Nativer NVMe-Support: Für Risikofreudige gibt es den neuen Treiber auch unter Windows 11

links vorher, rechts nachher - Samsung SSD 980 Pro 2TB mit nem 13700K

1766236534940.png


Inkrementelles Backup nach Umstellung via Veeam Agent lief problemlos durch.

Samsung Magican erkennt bekannterweise (auch in v9) die Laufwerke nicht mehr, ansonsten alles top.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MarcelGX, Caramon2, Kobe und eine weitere Person
Wäre mir noch zu früh, das auszutesten, zumindest solange nicht, wie ich noch nicht ein frisches Image-Backup gezogen habe.
 
Links vorher, rechts nachher - Samsung SSD 980 Pro 1 TB mit AMD 3700X

vorher_scsi.png
nachher_nvme.png

Edit:
Links vorher, rechts nachher - Keine Änderung der Partitionen feststellbar - Unsinn

vorher_partition.png
nachher_partition.png
 
Zuletzt bearbeitet:
Auf meiner Corsair Force MP600, sowie auch der Seagate Firecura 530 (non-R), haben die Registry-Einträge in Win11 25H2 auf Anhieb ohne Probleme funktioniert.

Bessere Werte bzw. Performance wurden jedoch weder im Crystal Disk Mark, noch im AS SSD Benchmark erzielt!
Es hat sich nichts geändert, weder Lese/Schreib Datenrate, noch IOPS oder Zugriffszeit, einfach nichts!

Was sich jedoch geändert hat, ist die "Loading Order" der Treiber!
Denn der NVMe Treiber wird offensichtlich vor den anderen Treibern geladen, da meine NVMe's vorher Drive #3 und #4 waren und jetzt Drive #1 und #2 sind.
Was ich persönlich gut finde!

Die Device-/Controller-IDs ändert sich natürlich, da die Hardware über ein anderes Interface läuft, einen neuen Treiber und sogar neue Hardware Kategorie hat, sollte aber klar sein!

Und NEIN es ändert sich NICHTS an den Partitionen... und das Ändern einer bestehenden Partition ändert definitiv NICHT die Disk-GUID!
Was ist denn das schon wieder für ein Blödsinn?!?
Diese Falschaussage wurde auch direkt unter dem falschen Kommentar auf deskmodder.de DETAILLIERT widerlegt!

❌ NVMe-Stack ändert keine Partitionen
❌ Kein 4-MB-Bereich wird „angelegt“
❌ Keine Disk-GUID wird verändert

Bei mir läuft alles seit 2 Tagen komplett wie vorher, merke so auf Anhieb keinerlei Unterschied

LustigerLurch23 schrieb:
Rsikofreudig? Mir reichen die normalen Win11 Updates schon. Bei diesen geht man ja schon ein hohes Risiko ein😅
Ja, das stimmt wohl...
Andererseits ist sogar das starten einen Windowssystems ein Risiko, auch wenn man nichts updated hat, also dachte ich... was solls, schlimmer kann es nicht werden! 🤣
Zudem wurde der Treiber schon eine Woche auf Windows Server 2025 getestet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Caffenicotiak und JennyCB
Caramon2 schrieb:
Ich habe schon vor Jahren bemängelt, dass ihr ausschließlich unter Windows bencht, da das m. E. viel zu vermurkst ist, um aussagekräftige Ergebnisse zu liefern: Das zeigte schon, dass unterschiedliche Windows-Versionen teils gravierend unterschiedliche Ergebnisse liefern und wird durch diese Meldung mehr als bestätigt!
Benchmarks ohne den Einfluss durch das OS und dessen IO-Stack ist praktisch unmöglich. Klar kann man jetzt neben Windows auch zusätzlich unter Linux benchen. Aber bei Linux handelt man sich auch wieder andere Einflussfaktoren ein, nämlich die Wahl des Dateisystem. Im Groben gibt es da 3 maßgbelich relevante (EXT4, BTRFS, XFS) und alle andere Vor- und Nachteile, die jeweils relevant Einfluss auf die SSD-Performance haben können. Mit welchem Dateisystem sollen die Linux-Benchmarks also gemacht werden oder mit allen 3 (was den Testaufwand entsprechend erhöht)? Unter Windows gibt es dagegen nur NTFS als relevantes Dateisystem (ReFS spielt im Desktop-Segment keine Rolle).

Und so, wie sich bei den Windows-Versionen die IO-Performance ändern kann, kommt das genauso auch unter Linux vor. Dort gibt es immer mal Anpassungen und Optimierungen im IO-Stack des Kernels und mit einer neuen Kernelversion sind bisherige Benchmarks dann potentiell ebenfalls hinfällig. Passiert unter Linux tendentiell sogar öfter als unter Windows, aufgrund des Entwicklungstempo des Kernels und regelmäßig neuer Kernelversionen.

Caramon2 schrieb:
Sollten SSD-Tests nicht besser die tatsächliche Leistungsfähigkeit der jeweiligen SSD ermitteln, statt die der dafür genutzen Windows-Version?
Anspruch der SSD-Tests ist aber nicht, die Leistungsfähigkeit unter Laborbedingungen zu ermitteln, sondern eineer Verlgeichbarkeit der SSDs untereinander hinsichtlich der in der Praxis erreichbaren Leistungsfähigkeit. Und in der Praxis ist nun mal ein (aktuelles) Windoes das voirherrschende OS auf dem Desktop.

Benchmarkwerte unter Laborbedingugen unter Ausschluss des OS-Einflusses macht einen SSD-Test für Kaufentscheidungen letzlich recht wertlos, wenn man diese Werte unter praxisnahen Bedingungen gar nicht bekommt.
 
  • Gefällt mir
Reaktionen: tmjaey, N0Thing und TomH22
qiller schrieb:
HWInfo kann Logs erstellen. Vlt auch das Abfrageintervall auf 500ms setzen (HWInfo erzeugt dann selber auch etwas Last).
Hier was für die Excelnerds.
Leider beide Protokolle nicht ganz so gut gesynct mit dem Start des Benchmarks.
Datei 1.csv ist SCSI
Datei 2.csv ist NVME

SCSI ist gefühlt 10sec zu früh gestartet NVME habe ich besser getimed vielleicht 1-2s zu früh
 

Anhänge

  • 1.CSV
    1.CSV
    13,8 KB · Aufrufe: 39
  • 2.CSV
    2.CSV
    12,5 KB · Aufrufe: 35
Interessant ist auch die Ausgabe von fsutil für DirectStorage, laut XBox App wird es jedoch voll unterstützt.
Die BulkLoadDemo bestätigt das.

fsutil bypassIo state /v C:\
Code:
BypassIo auf „C:\“ wird derzeit unterstützt
    Speichertyp:   NVMe
    Speichertreiber: Nicht BypassIo-kompatibel
    Treibername:    volmgr.sys

1766238761441.png
 
  • Gefällt mir
Reaktionen: G00fY
mibbio schrieb:
Es gab bisher schlicht keine zwingende Notwendigkeit. Microsoft ist bei Windows recht konservativ, was Neuerungen oder Änderungen am Unterbau und den APIs betrifft. Jede dortige, größere Änderung brigt immer das Risiko, dass irgendeine Kompatibilität bricht (besonders mit älterer Hardware/Software). Daher behält Microsoft im Windows-Unterbau etablierte Systeme so lange wie möglich bei und integriert Neues (wie bspw. NVMe) erstmal in das Vorhandene. Langzeitkompatibliltät ist in dem Punkt wichtiger als eine optimale, native Unterstützung.

Und für SATA, SAS (sind im Prinzip beides Weiterentwicklungen des SCSI-Protokolls und damit SCSI sehr ähnlich) und auch PCIe 3.0 NVMe-SSD war die bisherige gemeinsame Abstraktion über SCSI performant genug. Erst mit PCIe 4.0 und jetzt 5.0 werden die Schwächen des SCSI-Ansatz, zumindest bei manchen Server-Workloads, dann doch signifikant, so dass jetzt ein richtiger, nativer NVMe-Stack notwendig wurde.

Auf dem Desktop rollt Microsoft den aber offiziell noch nicht aus, weil er dort schlicht nicht so entscheidend ist, wie im Serversegment. Bei der typischen Desktopnutzung treten eher selten Zugriffe mit vielen parallelen und tiefen Command-Queues auf, wodurch dort der Vorteil von nativem NVMe-Support gegenüber der etablierten SCSI-Übersetzung nicht so zum Tragen kommt.
Ja ergibt sinn !

Doch MS sollte wissen das man mit sowas gut Werbung kann. Denn Massen an Notebook die nvme nutzen. Und trau den mehr als zu Software zu schreiben und die identifizieren.
 
Mimir schrieb:
Was ist mit Games? Es wird ja in letzter Zeit sehr stark von SSD gesteamt mit teils hohen Spitzenwerten.
Kompilierte Shader müssen abgelegt und abgerufen werden. CPU Performance ist ebenfalls je nach Engine ein Problem. Gerade UE5 Games leiden unter Traversal stutter wo dann eben sehr kurzzeitig Last spikes auf CPU und I/O seite entstehen. Ja, das Problem ist die Engine, aber ich würde erwarten, dass ein optimierter NVME Storage Stack mit weniger Overhead einer von vielen Bausteinen sein kann, um diese Szenarien zu glätten.
[...]
Bist du dir also ganz sicher, dass ein verringerter CPU Overhead sowie ein etwas höherer Durchsatz hier keinerlei nutzen für Games hat?

Ich kanns nicht sicher beantworten, würde aber nicht ausschließen wollen, dass es was bringt.
Der geringere CPU-Overhead bringt etwas, im Vergleich zu allem was bei Spielen aber sonst auf der CPU abläuft ist es sehr wenig. Die Zugriffsmuster bei Spielen sind schlicht keine 4k RND mit massig Threads. Die Assets moderner Spiele sind heute nahezu durchweg größer als 4K und zufällige Zugriffe vermeidet man nach Möglichkeit. Denn auch mit Optimierung, 1MB Assets in 4kB Häppchen lädt langsamer als 1MB sequentiell. Entsprechend packt man Daten dann auch so, dass 1MB am Stück gelesen werden können.

Faust2011 schrieb:
Hat jemand den verlinkten Microsoft-Blogpost gelesen? Irgendwie wirkt das seltsam, was dort als "Neuerung" verkauft wird, denn dort ist die Rede davon, dass bisher NVMe-auf-SCSI im Treiber übersetzt wurde und damit technisch nur 1 Queue verwendet, während NVMe ein Vielfaches davon unterstüzt. Das zeigt sich dann vor allem in Benchmarks/Anwendungsfälle, die mit mehreren Threads auf die Platte zugreifen, in einem deutlichen Performancevorteil.

Jetzt das "Aber": In den Tests von NVMe-SSDs wurde doch die letzten Jahre schon gezeigt, dass man NVMe-SSDs (im Consumer-Markt!) am Limit betreiben kann mit normaler Benchmark-Software auf normalen Windows-Consumer Versionen. Wie ist das möglich? Die Benchmark-Software bringt ja keine eigenen NVMe-Storage Treiber mit, sondern setzt auf den Windows-Treibern auf.

Irgendwie seltsam... kann jemand das erlären?
Im Regelfall greifen Anwendungen ja nicht direkt auf die I/O-Treiber zu, sondern nutzt wie Windows Storage API bzw. noch weiter abstrahiert eine Bibliothek, die die Nutzung auf die Storage API implementiert. Entsprechend kann eine Anwendung fröhlich zig I/O Requests auslösen, die Storage API frisst sie, baut eigene Queues und stellt diese für die Hardwaretreiber bereit, die die Queues der Hardware füllen.

Wenn die Queues der Storage API immer voll sind, sind praktisch die SCSI Queues für jedes Laufwerk immer 32 Befehle lang. Das ist eine ganze Menge und reicht bei Consumerkram mit 1..8 Speicherkanälen an sich auch für eine gute Auslastung.


h00bi schrieb:
Entweder sind die Linux Treiber auch scheisse oder man müsste diesen angeblichen 10-15% Gap ja bereits 10 Jahre lang zwischen Linux und Windows gesehen haben.
Und KEIN EINZIGER Hardware-Redakteur oder Hardware-affine Mensch hat das jemals festgestellt und drüber berichtet? Kann ich mir beim besten Willen nicht vorstellen.

Screenshot 2025-12-20 at 14-47-51 Windows 10 vs. Windows WSL vs. Linux - Ubuntu _ openSUSE _ D...png

https://www.phoronix.com/review/windows-10-prescu/2

Phoronix ist Imho immer mit Vorsicht zu genießen, da da viele Benchmarks gemacht werden, aber oftmals ohne all zu viel Rücksicht welche Parameter alles abweichen und/oder Analysen für die Gründe massiver Ausreißer. Grundlegend hat Windows aber Schwächen bei I/O aller Art, dem Spawnen von Threads und das ist bekannt.
Es spielt aber in vielen Bereichen keine große Rolle. Desktopanwender schaffen nicht ansatzweise die Lastprofile der Benchmarks, bei Servern muss man sich da auch Mühe geben und Hyperscaler mit den passenden Lastprofilen nutzen kein WinServer, selbst wenn sie Microsoft heißen.

Und sind wir mal realistisch. Der Vorteil von NVMe Treiber und flottem I/O macht man sich in der Linux/BSD-Welt ganz fix kaputt, wenn man Dateisysteme wie ZFS, BTRFS, ... einsetzt. CoW, Checksumming, Kompression und was es nicht alles gibt, ist da oftmals wichtiger als File-I/O.
Es gibt halt je nach Anforderungen Wichtigeres als "Performance, Performance, Performance".

mibbio schrieb:
Es gab bisher schlicht keine zwingende Notwendigkeit. Microsoft ist bei Windows recht konservativ, was Neuerungen oder Änderungen am Unterbau und den APIs betrifft. Jede dortige, größere Änderung brigt immer das Risiko, dass irgendeine Kompatibilität bricht (besonders mit älterer Hardware/Software). [...]
Die API zum direkten Ansteuern für SCSI, ATA, NVMe, .. dürfen Anwendungen im Userspace nicht sehen. Konstante UserspaceAPI beibehalten und flottes Backend implementieren sollte eigentlich kein Problem sein.

Caramon2 schrieb:
Ist euch eigentlich bewusst, dass dadurch sämtliche eurer NVMe-SSD-Tests Makulatur sind, da sie quasi mit angezogener Handbremse durchgeführt wurden?
Jeder Benchmark ist sowieso immer ein "Dieses System, dieses Betriebssystem + sonstige Software, am Tag X" schaffte folgendes: "blabla over 9000!".
 
  • Gefällt mir
Reaktionen: areiland, N0Thing, Caffenicotiak und 2 andere
mibbio schrieb:
Benchmarks ohne den Einfluss durch das OS und dessen IO-Stack ist praktisch unmöglich.
Man kann sie minimieren.
mibbio schrieb:
Im Groben gibt es da 3 maßgbelich relevante (EXT4, BTRFS, XFS) und alle andere Vor- und Nachteile, die jeweils relevant Einfluss auf die SSD-Performance haben können. Mit welchem Dateisystem sollen die Linux-Benchmarks also gemacht werden oder mit allen 3 (was den Testaufwand entsprechend erhöht)?
Mit gar keinem: Ich nutze für meine Benches dd mit oflag=direct: s. hier

Meine XS1k war übrigens langsamer und verhielt sich anders, als die im Artikel, weil sie, wie sich später gezeigt hat, QLC verbaut hatte (wie auch später das Ersatzmodell) und die im Artikel war eines der frühen Modelle, die noch TLC nutzten.

mibbio schrieb:
Und so, wie sich bei den Windows-Versionen die IO-Performance ändern kann, kommt das genauso auch unter Linux vor. Dort gibt es immer mal Anpassungen und Optimierungen im IO-Stack des Kernels und mit einer neuen Kernelversion sind bisherige Benchmarks dann potentiell ebenfalls hinfällig.
Die durchgeführten Tests lassen sich ja leicht per Skript automatisieren: Ich würde sie einfach mit zwei unterschiedliche Kerneln durchführen lassen: Einen jahrelang unterstützen LTS-Kernel, für vergleichbare Ergebnisse und dem jeweils aktuellen Mainline, um eventuelle Fortschritte zu dokumentieren.

Außerdem natürlich weiter mit Windows, da offenbar vielen die damit ermittelten Fantasiewerte reichen. :)

mibbio schrieb:
Anspruch der SSD-Tests ist aber nicht, die Leistungsfähigkeit unter Laborbedingungen zu ermitteln, sondern eineer Verlgeichbarkeit der SSDs untereinander hinsichtlich der in der Praxis erreichbaren Leistungsfähigkeit. Und in der Praxis ist nun mal ein (aktuelles) Windoes das voirherrschende OS auf dem Desktop.
Eben: Die Nutzer aktualisieren ihr Windows, die Benches werden zur Vergleichbarkeit aber immer mit dem gleichen System durchgeführt: Wie praxisnah sich dessen Ergebnisse?

Dann doch lieber eine möglichst objektive Beurteilung, die für alle aussagekräftig ist: Was das jeweilige Betriebssystem dann daraus macht, ist ja nun wirklich nicht Sache des Datenträgers.
 
Zuletzt bearbeitet:
Caramon2 schrieb:
Man kann sie minimieren.
Wenn man das minimieren will, holt man sich eine FPGA mit PCIe und implementiert einen NVMe Host, um dann NVMe Devices damit zu testen. Das ist nur halbwegs sinnlos, weil die die Ergebnisse nur bedingt mit anderen Hardwarekonstellationen und deren Softwarestacks vergleichbar sind.

Die durchgeführten Tests lassen sich ja leicht per Skript automatisieren: Ich würde sie einfach mit zwei unterschiedliche Kerneln durchführen lassen: Einen jahrelang unterstützen LTS-Kernel, für vergleichbare Ergebnisse und dem jeweils aktuellen Mainline, um eventuelle Fortschritte zu dokumentieren.

Außerdem natürlich weiter mit Windows, da offenbar vielen die damit ermittelten Fantasiewerte reichen. :)

Eben: Die Nutzer aktualisieren ihr Windows, die Benches werden zur Vergleichbarkeit aber immer mit dem gleichen System durchgeführt: Wie praxisnah sich dessen Ergebnisse?

Dann doch lieber eine möglichst objektive Beurteilung, die für alle aussagekräftig ist: Was das jeweilige Betriebssystem dann daraus macht, ist ja nun wirklich nicht Sache des Datenträgers.
Für dich gibt es Phoronix Benchmarkspam...
Ein paar Parameter festzurren, den Rest ignorieren und im Forum drüber diskutieren wieso/ob/warum/mit welchem üblen Hintergedanken irgendwas nicht beachtet wurde.

Im Zweifelsfall, sind die Benchmarks doch sowieso nur Orientierungshilfen. Alles was innerhalb eines 10..20% Fensters liegt kann als "gleich schnell" abgetan werden. Differenzen hinaus besagen größere Differenzen halt, Laufwerk A ist schneller als Laufwerk B. Was sich im Regelfall übertragen lässt, auf sonstige Hardware und Software.
Naja und alles was halbwegs 4xPCIe2 schafft ist schnell genug. (Edit: zumindest ohne großartig ausuferende Anforderungen)
 
  • Gefällt mir
Reaktionen: TomH22
Irgendwie hakt es bei mir:
wenn ich diese Variante über´s Terminal mache:

reg add HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides /v 735209102 /t REG_DWORD /d 1 /f
reg add HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides /v 1853569164 /t REG_DWORD /d 1 /f
reg add HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides /v 156965516 /t REG_DWORD /d 1 /f

dann werden die Einträge in der Registry richtig gesetzt.

wenn ich das ganze in ein Textfile mit:

Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides]
“735209102“=dword:00000001
“1853569164“=dword:00000001
“156965516“=dword:00000001

mache, die Endung auf reg setze, dann wird nur der Registry-Schlüssel

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides]

erzeugt, aber die Werte nicht eingetragen.

Was mache ich falsch?
 
Caramon2 schrieb:
Ist euch eigentlich bewusst, dass dadurch sämtliche eurer NVMe-SSD-Tests Makulatur sind, da sie quasi mit angezogener Handbremse durchgeführt wurden?
Diesen Vorwurf kann ich nicht nachvollziehen, da CB nie den Anspruch wissenschaftlicher oder isolierter Tests erhoben hat. Getestet wird was unter realen Bedingungen für den überwiegenden Großteil der Leserschaft mit dem aktuellen Stand der Software relevant ist. Das wird auch durch Auflistung des Testsystems ausreichend transparent gemacht. Dazu zählt eben Windows mit NTFS etc.

Wenn's dir um Performance auf Linux Servern oder vor allem synthetische Tests geht, dann schau dich auf anderen Seiten um. Wobei auch der Linux Kernel regelmäßig Verbesserungen enthält und sich dort die Leitung auch mit der Zeit verändern wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ja_Ge, Caffenicotiak und TomH22
@Copiegeil Das sind die falschen Anführungszeichen.
Code:
Windows Registry Editor Version 5.00

[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Policies\Microsoft\FeatureManagement\Overrides]
"735209102"=dword:00000001
"1853569164"=dword:00000001
"156965516"=dword:00000001
 
  • Gefällt mir
Reaktionen: Kobe, jimmy13 und ev4x
Piktogramm schrieb:
Für dich gibt es Phoronix Benchmarkspam...
Der bencht zu viel für mich irrelevantes. Als ich mich das letzte Mal bzgl. SSD-Kauf informiert habe, fand ich Toms Hardware am aussagekräftigsten.

Die XS1k hatte ich mir hauptsächlich wegen die Kapazität (es mussten 2 TB sein) und den geringen Ausmaßen (sie musste in die USB-Stick-Tasche vorne rechts bei Jeans passten) gekauft, damit meine vollständige Datensicherung gut drauf passt und ich sie mitnehmen kann, wenn ich das Haus verlassen, so dass ich auch dann noch alle meine Daten habe, fast in meiner Abwesenheit hier was passiert: 2017 ist nach einem Blitzschlag in der Nachbarschaft ein Dachstuhl abgefackelt (in wohne in der Dachwohnung) ein paar Jahren vorher nur ca. 20 km von hier durch einen Sturm mehrere Häuser abgedeckt worden.

Die Geschwindigkeit war mir egal, da das ja nur beim ersten draufkopieren der Daten relevant ist und dann nur noch die Änderungen übertragen werden müssen (rsync), die locker in den SLC-Cache passen.
 
Muss man zum Rückgängig machen die Keys löschen oder reicht es die Werte auf 0 zu setzen? Oder ist das egal?
 
mibbio schrieb:
Benchmarks ohne den Einfluss durch das OS und dessen IO-Stack ist praktisch unmöglich. Klar kann man jetzt neben Windows auch zusätzlich unter Linux benchen. Aber bei Linux handelt man sich auch wieder andere Einflussfaktoren ein, nämlich die Wahl des Dateisystem. Im Groben gibt es da 3 maßgbelich relevante (EXT4, BTRFS, XFS) und alle andere Vor- und Nachteile, die jeweils relevant Einfluss auf die SSD-Performance haben können. Mit welchem Dateisystem sollen die Linux-Benchmarks also gemacht werden oder mit allen 3 (was den Testaufwand entsprechend erhöht)? Unter Windows gibt es dagegen nur NTFS als relevantes Dateisystem (ReFS spielt im Desktop-Segment keine Rolle).
Gerade unter Linux kann man wunderbar ohne Filesystem testen.
 
Mimir schrieb:
Muss man zum Rückgängig machen die Keys löschen oder reicht es die Werte auf 0 zu setzen? Oder ist das egal?
Keys löschen reicht.
Danach Neustart

Ich habe fürs schnelle Wechseln den Schlüssel "Overrides" in "DEAKTIVIERT-Overrides" umbenannt, funktioniert genauso gut.
Danach auch Neustart.
 
  • Gefällt mir
Reaktionen: Kobe, Oakley, MGFirewater und eine weitere Person
Wichtiger als die Transferraten finde ich die Reaktionszeit und CPU Last. Leider gibt es noch keine richtig aussagekräftigen Vergleiche. Mit meinem PCIe3.0 System wohl eh irrelevant
 
Zurück
Oben