@DrChrisRespect An deiner Stelle – und an der war ich selbst

– würde ich die Platte entladen, die Partition löschen, dann dein Backup testen bzw. die Daten wieder am Stück drauf schreiben. Damit schließt du (2) als Quelle aus: Die schlechte Pflege der Datenstruktur durch die Firmware.
Erlebst du dabei wieder, dass die Zugriffszeit hoch springt, und hast Strom sowie Fett auf den Kontakten ausgeschlossen, dann würde ich nun den Reset (Screenshot oben) bzw. Timeout stark vermuten und suchen. Mach dann gleich einen Screenshot für den Garantieantrag.
Anekdote zur Unterhaltung am Sonntag: Ich entlade hier auch größere Videodateien am Stück auf
NVMe SSDs mit um die 800–1600 MB/s. Bei zwei
Kingston NV2 (die mir Kingston dann gegen eine größere NV3 eintauschte) hatte ich meinen Defekt nach nur wenigen Tagen getriggert.
Mit etwas Einblick in Firmware-Programmierung wusste ich, dass der defekte Block (bzw. Zelle im Einzelnen) bekloppterweise nochmals gelesen wurde (statt den ersten erfolgreichen Wert wiederzuverwenden) um ihn zu verlagern. Was dann auch scheiterte und 100+ mal wiederholt wurde. In der Software, die auch dieser Hersteller aus einem Beispiel des Controller-Herstellers 1:1 kopierte, waren keine Cutoff-Limits gesetzt – potentiell wäre das eine unendlich lange Geschichte geworden die das lesen der noch heilen Bereiche blockieren würde.
Beim ursprünglichen Schreiben der großen Datei(en) kam der Controller mit den Checks nicht nach und hat die einfach fallen gelassen. Oder von Anbeginn an wg. Performance nicht drin, weiß ich jetzt nicht mehr. (Wie so manch Router in einen dummen Switch-Modus bei zuviel Last wechselt.)
Aus Gründen des Energie-Sparens hat das (Consumer-)Laufwerk auch gar keine
Patrol-Reads, proactive Cell-Refresh oder ähnliches implementiert, so dass es erst beim durch mich veranlassten Lesen zum kombinierten Neuversuch-für-User+Neuversuch-für-Wear-Levelling kam.