News 970 Evo Plus: Auch Samsung tauscht SSD-Komponenten aus

Man will das Thema also totschweigen.... Auch eine Variante. @MichaG Ich finde, sowas macht Nachtests erforderlich.
 
Nightmare25 schrieb:
Aber ich finde man bencht auch zuviel und schaut da ständig auf irgendwelche Werte ohne das man im Alltag wirklich irgendeinen Nutzen oder Nachteil davon hätte.
Streng genommen wird eher viel zu wenig gebencht um Ergebnisse zu bekommen die den Alltag wiederspiegeln. Die ganzen Benchmarks werden mit FOB (fresh out of Box) Devices gemacht, welche erstmal einige Erase Zyklen über die gesamte Kapazität bekommen sollten bevor man damit irgendwelche Tests macht wenn man aussagekräftige Ergebnisse bekommen möchte. Dann kommt dazu, dass das Verhalten von SSDs sehr dynamisch ist und immer davon abhängt in was für einer Art vorher drauf geschrieben wurde. Bei gleicher Workload ist das Schreiben z.B langsamer wenn vorher viel random geschrieben wurde statt sequentiell. Und sowas bildet kein einfacher Benchmark ab, sondern es brauch ne ganze Testsuit mit FIO z.B. was dann aber zig Stunden bis Tage dauert und da haben die meisten Redaktionen einfach keine Zeit für. Die ganzen Benchmarks welche Computerbase und Co. verwenden, können nur ne grobe Richtung vorgeben wie sich ne SSD verhält.
 
Was bei den günstigen Vertretern aus dem Geizhals-Preisvergleich für die meisten Nutzer wumpe sein sollte, ist gerade bei Qualitätsprodukten mit höherem Preis für die Anwender eine unschöne Sache, weil gerade diese Anwender sich diese speziellen Produkte wegen bestimmter Leistungswerte und Anwendungsgebiete herauspicken.
Da kann es dann schon störend sein, wenn das gekaufte Produkt ab einer gewissen Laufzeit dann plötzlich Leistung verliert, obwohl man gerade deswegen zu dem Produkt von dem Herstelelr gegriffen hat, und sogar 50 Euro mehr hingeblättert hat, damit man diesen Luxus auch hat.
Trotzdem ist das Ganze eigentlich ein No-Go.
Wer an den Tecs rumfuscht, sollte eine neue Produktserie herausbringen, oder klar mit Revisiionshinweisen als Aufdruck die Unterschiede kommuniziert.
Bei Mainboardherstellern wird offensiv mit neuen revisionen geworben, warum können SSD Hersteller das nicht?
Ach ja, geht ja nicht, weil sie schlechtere Hardware verkaufen udnd as ja nicht so gerne mitteilen möchten, daher macht man das heimlich und ohne großes Aufsehen.
Und wie man sieht, will man das als Hersteller dann auch gerne aussitzen udn totschweigen, und hoffen, dass Medienanfragen sich dann irgendwann automatisch erledigt haben udnd er Kunde das Thema auch vergessen hat.
Ergänzung ()

InsideInfinity schrieb:
Also was ich da sehe ist die neue aber deutlich besser.. Ich schwöre auf den AS SSD Benchmark und halte ihn für sowohl den besten als auch den Praxisnahesten aufgrund all der 4k Messungen..

Wirklich "praxisnah" ist aber nur, wenn man richtige, praxisnahe Software verwendet, oder Vorgänge durchführt. :-)
Das hier ist nur ein Benchmark.
Aussagekräftig wie Cinebench für CPU's.
Für die grobe Richtung ok, und wer keine speziellen Anforderungen stellt, kann einfach zuschlagen, wenn eine Bestimmte Länge oder Punktezahl stimmig erscheint oder erreicht wird, die man sich als Ziel gesetzt hat.
Das sind also nur theoretische Werte, die man aus einem vorgefertigten Szenario bekommt.
Da ist der AS aber eindeutig besser als Atto, da haste Recht, falsl du das damit sagen wolltest.
Jedenfalls müsste man schon verschiedenen Szenarien unter Windows durchspielen, um verlässlichere Leistungseinschätzungen vornehmen zu können.
Z.B. wie schneidet die Disk bei komprimierten Daten ab, bei besonders vielen kleinen, besonders großen daten, wie sieht es aus, aber welche Zeit oder Datenmenge bricht die vielleicht ein.
Bei letzterem gibst auch starke Unterschiede, was Zeit udn dann das maximal verfügbare an Leistung betrifft.
Programmstarts und Ladevorgänge könnte man auch prüfen, wo natürlich nicht so starke Differenzen zu erwarten sind, da auch der Rest vom System da mitspielt und leicht mal mit limitieren kann.
Jedenfalls sagen die von dir angegebenen höheren Werte im benchmark nicht unbedingt aus, dass die wirklich besser ist.
Man sieht z.B. auch höhere Zugriffszeiten, das kann sich in einigen Dingen negativ bemerkbar machen.
Und wie gesagt die ganzen Einstellungen, wie die Karte arbeitet, udn was nirgendwo dokumentiert oder gebencht werden kann, sonsdern nur durch Kopiervorgänge herausgefiltert werden kann.
Es wäre also nicht das erste Mal, dass eine Karte in so einem Benchmark glänzt, in der Praxis dann aber einige Federn lassen muss.
Der beweis sind ja von Samsung die Pro Plus und Evo Serien.
In Benchmarks hat man es geschafft, dass die Evo vor allem bei hohen Speicherkapazitäten eine tolle Figur macht und gefühlt kaum schlechter als eine Pro ist.
Aber in richtigen Tests stellt sich dann immer heraus, dass die Pro Version den Aufpreis nicht nur wegen einer verlängerten Garantiezeit bekommen hat, sondern im Hintergrund auch paar andere Sachen den Unterschied ausmachen.
Es ist nur die Frage, ob man das als Anwender überhaupt merkt und benötigt.
Als Spieler jedenfalsl nicht, da kann man gerne auch einfach eine Crucial BX500 SATA mit QLC Speicher nehmen, siehe Videotest von PCGH-Manu. :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: InsideInfinity
BxBender schrieb:
Wirklich "praxisnah" ist aber nur, wenn man richtige, praxisnahe Software verwendet, oder Vorgänge durchführt...
Deswegen gibt es auch PCMark10 Storage (traces-basierte Benchmark).
BxBender schrieb:
Der beweis sind ja von Samsung die Pro Plus und Evo Serien.
Du meintest wohl "Pro und Evo/Evo Plus Serien".
BxBender schrieb:
Als Spieler jedenfalsl nicht, da kann man gerne auch einfach eine Crucial BX500 SATA mit QLC Speicher nehmen, siehe Videotest von PCGH-Manu. :-)
Ja, Manu hat auch nicht all die Zeit der Welt und testet teils oberflächlich. Und gerade die DRAM-lose BX500 mit QLC-NAND-Flash als Beispiel zu nehmen war eine falsche Wahl von Dir! Die hatten wir hier schon mehrmals im den Probleme-Threads und anders,als der Test von Manu vermuten lässt,ist sie nicht einmal für Spieler geeignet. Vor allem bei hoher Belegung ist sie grottenschlecht, lahm und es geht sogar so weit, dass sie mini-Ruckler und sekundenlange Freezes bei Spielen verursacht. Am besten maximal zu 75% voll machen, was dann eigentlich den ganzen Sinn von QLC-Nand zunichte macht.
 
massaker schrieb:
Deswegen gibt es auch PCMark10 Storage (traces-basierte Benchmark).

Du meintest wohl "Pro und Evo/Evo Plus Serien".

Ja, Manu hat auch nicht all die Zeit der Welt und testet teils oberflächlich. Und gerade die DRAM-lose BX500 mit QLC-NAND-Flash als Beispiel zu nehmen war eine falsche Wahl von Dir! Die hatten wir hier schon mehrmals im den Probleme-Threads und anders,als der Test von Manu vermuten lässt,ist sie nicht einmal für Spieler geeignet. Vor allem bei hoher Belegung ist sie grottenschlecht, lahm und es geht sogar so weit, dass sie mini-Ruckler und sekundenlange Freezes bei Spielen verursacht. Am besten maximal zu 75% voll machen, was dann eigentlich den ganzen Sinn von QLC-Nand zunichte macht.

Der PC Mark ist aber auch nur ein Benchmark.
Aber vermutlich besser als noch "synthetischere".
Im Prinzip ist das aber auch alles Jacke und Hose.
Man sollte sich die Bereiche an Tests anschauen, wo man die Leistung benötigt, udn was die Schinken an features und Pferdefüße mitbringen.

Ich meinte die drei Serienableger Pro, Plus, Evo, und falls vorhanden ohne alles, was die halt jemals immer wieder so angeboten haben mit gleicher Zahl im Namen, wo der Nutzer dann im Subtext und Kleingedruckten nachschauen durfte, wie die sich letztendlich unterscheiden.
Mal waren Unterschiede ersichtlich, mal nicht.

Speicher sollte man doch generell niemals voll machen?
HHDS schon nicht, SSD's immer noch nicht.
Der Platz wird für Defragmentierung, Trim und bli bla blup benötigt.
Zudem sinkt die Leistung bei extremer Füllung, weil dann nicht mehr effizient auf dem Stück Hardware gearbeitet werden kann.

Die BX500 ist aber trotzdem für normale User völlig ausreichend.
Office, Internet udn ein Spiel starten, Savegame laden etc. merkt man absolut nichts.
Da kannste eine PCI 4.0 Karte mit 7,5Gb/s reinstecken udn du holst da marginal was an Zeit heraus.
Da ist der Kostenmehraufwand die Mühe nicht Wert.
Wer dann aber mal einen dicken Steam ordner mit 500GB an Dateien verschieben will, der wartet natürlich ewig, weil der QLC Speicher völlig auseinanderbricht.
Das zeigen auch die Benchmarks und diverse Kopiertests, dass die Trödelkiste überall Federn lässt.
Aber in so einem eher seltenen oder gar einmaligen Vorfall im Jahr, kann man auch notfalsl mal 5 Minuten (länger) warten udn sich einen Kaffee holen gehen. :-) Oder Vergleichstests für ein schnelleres Exemplar heraussuchen. lol ;-)
 
BxBender schrieb:
...
Speicher sollte man doch generell niemals voll machen?
HHDS schon nicht,...
HDDs nicht (so 10-15% sind gut für defrag), allerdings moderne OS defragmentiert immer wieder im Hintergrund und Datengrad-HDDs, also externe die nur mal zur Sicherung läuft, kannst DU gerne zu 99% vollklatschen.
BxBender schrieb:
...SSD's immer noch nicht.
SSDs immer weniger - das ist es ja. Je nach NAND-Technologie und es wird nicht besser. Sprich: SLC könntest Du ruhig vollklatschen. (bei OS-SSDs würde ich aber sagen 5 bis 10% sollten eh' leer bleiben, aber stellen wir uns mal vor - wir reden jetzt NICHT von OS-SSDs).
Bei MLC - ruhig bis zu 97-98% voll machen. Wear-Leveling funktioniert noch, sicherlich nicht optimal für die Zellen, aber bleibt schnell - soll natürlich am besten kein Dauerzustand sein.
Bei TLC - mindestens 3% frei lassen (dabei brechen sogar die guten TLC-SSDs etwas beim Schreiben ein und sogar (komischerweise) gute 20-30% beim 4K-Lesen (Beispiel: MX500 brach im CB-Test um 31% bei 4K ein).
Aber im Optimalfall sollen schon so zwischen 5 und 10% bei TLC frei bleiben. Als Dauerzustand sogar etwas mehr als 10% - ich sage ständig: kauft 240/250/256GB-SSD für Windows um max. ~200GB zu benutzen und entsprechen 480/500/512 um max. ~400GB zu benutzen! (z.B Netto 400 von Netto 447GB)
Bei QLC - siehe unten:
BxBender schrieb:
Der Platz wird für Defragmentierung, Trim und bli bla blup benötigt.
Zudem sinkt die Leistung bei extremer Füllung, weil dann nicht mehr effizient auf dem Stück Hardware gearbeitet werden kann.
Ich sprach aber nicht von "extremer Füllung" so eine QLC-Gurke darfs Du maximal 80, am besten gar up-to-75% only" voll machen. Danach sinkt die Performance beträchtlich.
BxBender schrieb:
Die BX500 ist aber trotzdem für normale User völlig ausreichend.
Office, Internet udn ein Spiel starten, Savegame laden etc. merkt man absolut nichts.
Da kannste eine PCI 4.0 Karte mit 7,5Gb/s reinstecken udn du holst da marginal was an Zeit heraus...
Ich will nicht die BX500 verteufeln - aber Ja, für Office, Inet und als schnelles Datengrab für große Files, also zum Filme gucken bla blubb - ausreichend. Aber für etwas intensivere Nutzung, ohne ständig auf die Belegung zu schauen - dazu zähle ich auch Spiele und "schwerere" Programme: dafür sollte man sich etwas bessere SSD mit 5-10% Aufpreis holen. Und ich sagte auch nichts von PCIe4.0 mit 7,5GB/s, wie kommst Du jetzt plötzlich drauf? Es gibt halt zwischen Fahrrad und Ferrari viele Steigerungsstufen. Es reicht doch auch eine günstige SATA-SSD mit TLC und DRAM-Cache zu holen: MX500, WD Blue3D, SanDisk Ultra3D, muss nicht einmal gleich 870Evo sein, geschweige denn PCIe NVMe SSDs.
 
BxBender schrieb:
Die BX500 ist aber trotzdem für normale User völlig ausreichend.
Es kann aber eng werden mit der geringen TBW als Systemlaufwerk bei Win10 Standardeinstellungen.
Die Sandisk 3D Ultra ist oft im Angebot und ist in allen Bereichen die bessere SSD. Aktuell ist die Sandisk 3D Ultra 5€ teurer bei 1TB Kapazität.
 
deo schrieb:
Es kann aber eng werden mit der geringen TBW als Systemlaufwerk bei Win10 Standardeinstellungen.
Die Sandisk 3D Ultra ist oft im Angebot und ist in allen Bereichen die bessere SSD. Aktuell ist die Sandisk 3D Ultra 5€ teurer bei 1TB Kapazität.
Jeder Tester wird dir sagen, dass die TBW unter normalen Bedingungen niemals erreicht werden wird, eher wird das Ding warum auch immer weggeschmissen oder ausgetauscht, oder geht einfach nur wegen anderen Dingen kaputt.
Das ist alles Angstmacherei.
Da gibt es Langzeittests, udn die warten noch auf Ausfälle.
TBW sagt dir auch nicht, wann die im Schnitt wirklich kaputt geht, sondern was dir der Hersteller meint als Garantie vorzusetzen.
Das ist das gleiche mit der allgemeinen Garantie.
Ob die nun 2,3,5 oder gar 10 Jahre beträgt ist völlig wumpe, das hat nur Auswirkung auf die Reklamationsrate udn den Aufpreis für solche Geräte.
Beim TV Gerät wirste im Laden auch gefragt, ob du für 99 Euro Aufpreis eine 5 Jahresverlängerung dazukaufen willst.
Dadurch hält das Gerät auch keine Sekunde länger, es wird nur teurer.
Poweruser sollten natürlich so oder so Abstand von Billiggedöns nehmen, die schauen aber so oder so nicht bei Billigkram, sondern kaufen eher Premiumklasse zum doppelten Preis.
Ihr müsst immer sehen, worum es geht, wen es betrifft.
Ich persönlich werde auch keine BX500 oder sogar Noname wegen 5 oder 10 Euro Preisersparnis für Gamer etc. empfehlen, die da den ganzen Tag davor sitzen und abertausende Spiele udn Programem dauerhaft installiert haben, das war eh als Beispiel gedacht, weil es ja im TEst verwendet worden ist.
Aber als Zweit-PC für Klimbim, wo nichts wichtiges drauf ist, nicht viel gemacht wird und man schnell neu aufsetzen kann, und es halt besonders günstig sein soll, warum nicht?
Ich sage nur es reicht eigentlich im Normalfall und teure Geräte bringen unter normalen Umständen kaum bis gar nichts an Mehrleistung.
Es gibts genügend Testberichte.
PCGH und Gamestar schreiben das selber.
Hier nochmal ein Beleg, das sogar 10 Jahre alte SATAS gut genug sind:
https://www.gamestar.de/artikel/ssd-crucial-p5-plus-test,3373030.html#top
Eigentlich ist nur die schnelle Zugriffszeit wichtig und ein gesundes Maß an Übetragungsgeschwindigkeit.
Beides hat eine HDD nicht.
Bei allen anderen Dingen kommt der PC gar nicht hinterher die Daten der SSD zu verarbeiten.
Ein schneller Prozessor mit schnellem RAM und einer langsame SATA SSD kann also vermutlich schneller laden als eine langsame Variante mit ultraschneller NVME.
Nur wer ständig Daten verschiebt, kopiert, Packprogramme, Videoschnitt oder sowas mit großer und längerer Anwendungsbeslastung tätigt, hat auch Nutzen von mehr.
Es gehört schon viel dazu, den QLC Cache mit DDR Ram ungewollt abzuwürgen.
Wer einmalig seine SSD clont, wird es merken, dann auch richtig, danach 99% der User aber nie wieder, außer man kopiert wieder die halbe Platte in einem Stück.
Aber wer macht so etwas?
Vor allem hätte man ja erst den Nachteil, wenn das andere Gerät schneller wäre.
Und beim clonen ist es auch völlig egal, ob man da nun 10 Minuten oder 30 Minuten wartet.
Wer schaut da schon zu und zählt mit?
Herstelelr fangen ja jetzt sogar schon an und produzieren QLC Dinger ohne RAM als Cache.
Das macht die SSD nochmal etwas billiger.
Die optimieren das also so weit durch, das man viel Geld spart, aber trotzdem möglichst wenig davon im Alltag merkt.
Also ich persönlich habe mir eine durchschnittliche 3.0 NVME mit 2TB gekauft.
Die hat Cache mit TLC und bis zu ca. 3Gb/s (Benchmark^^) und geht auch nach einiger Zeit eher runter als z.B. eine 970/980.
Preislich war das mit 200 Euro im Angebot wirklich günstig und normale SATA3 Dinger waren auch nur Sandisk etc. günstiger, so ab 160 im Angebot.
Wichtig ist denke ich die Platzeinsparung udn der zusätzliche Slot auf dem Mainboard, den man unbedingt mit nutzen sollte, wenn man den schon hat.
Größere Gedanken habe ich mir da nicht gemacht, weil es mir nichts bringt.
PCIE 4.0 habe ich, nutzt mir aber nichts, außer mehr Steckplätze udn Zukunftssicherheit, wer weiß was in 5 Jahren noch so los ist.
Abschließend möchte ich erwähnen, dass alleine durch die Größe eine 2TB Platte schon 8 mal höhere Lebensdauer als eine 256 GB version hat.
Da spielen TBW, Garantiedauer und Speicherart und Cachenutzung nur noch eine Nebenrolle. :-)
Falsl man darauf herumreiten möchte, was nun wieviel betragen sollte.
So jetzt reicht das Gelaber auch, es bringt usn jetzt nich tmehr weiter.
Habt einfach Spaß mit euren Geräten. :-)
 
Bezüglich TBW-Werten einer SSD: meine M2 960 Pro in 500GB Ausführung als System-SSD kommt auf ganze 62 TB! Seit Mitte 2018 im Einsatz!
 
Maxminator schrieb:
Bezüglich TBW-Werten einer SSD: meine M2 960 Pro in 500GB Ausführung als System-SSD kommt auf ganze 62 TB! Seit Mitte 2018 im Einsatz!
Meine alte Samsung 850 Evo 500GB hat erst 18 TB irgendwas verbraten.
Kopierst du jeden Tag selber deine halbe Platte hin udn her, oder wie willst du so etwas fertiggebracht haben wollen?
Grob 60 TB : 3 Jahre = 20 TB / Jahr : 360 Tage = 1 TB / 18 Tage = ca. 55GB / Tag ?!
Überprüf mal bitte, ob du unbenötigte Dienste wie Defragmentierung, vollständige Virenscans und insbesondere die Laufwerksindizierung im Hintergrund am rumdödeln hast, die da vielleicht die Werte hochschnellen lassen.
Ergänzung ()

Arcturus128 schrieb:
Bei identischer Schreib-/ und Leselast natürlich nur.
Genau. Und bei gleicher Nutzungszeit auch, falsl das gleich noch jemand ergänzen möchte. :-)
Es geht ja um die Verteilung auf mehr Chips und Zellen.
Deshalb ist auch eine größere SDD imemr empfehlenswert, nicht nur wegen geringerer Leistungseinbrüche oder Leistungen im Allgemeinen, die Herstelelr durch geschickte Tricks imemr zu verschleiern versuchen, damit die Zahlen im Datenblatt trotzdem hoch sind.
Die Lebenszeit der restlichen Komponenten wird dadurch natürlich nicht verlängert.
Es geht also nur darum, falsl jemand Angst hat, er könnte durch intensive Nutzung die Chips kaputtschreiben.
Doppelte Kapazität = halbes Leid = besser schlafen. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxminator
Artikel-Update: Nach wiederholter Nachfrage liegt nun doch eine Stellungnahme von Samsung vor. Der Hersteller begründet den Wechsel von Controller und NAND sowie im Zuge dessen die neue Firmware „3B2QEXM7“ mit „globalen Engpässen“, die die „Produktion und Verfügbarkeit vieler Komponenten beeinträchtigt“ hätten. Um die Produktion der 970 Evo Plus fortzuführen, sei dieser Schritt nötig gewesen.

Samsung sieht in dem größeren SLC-Cache (TurboWrite Buffer) sowie Optimierungen auf Seiten der Firmware sogar Vorteile für Anwender. Dass bei hohem Füllstand und Dauerschreiblast laut den obigen Beobachtungen aber eine geringere Leistung zu erwarten ist, findet keine Erwähnung.

Das Datenblatt zur 970 Evo Plus sei mit Veröffentlichung der neuen Version entsprechend angepasst worden. Dass in dem Dokument die Änderungshistorie fortlaufend dokumentiert wird, sorge für „eine transparente Kommunikation mit den Kunden“.

Samsung schrieb:
To ensure continued production of the popular Samsung 970 EVO Plus, Samsung has decided to upgrade the controller and NAND in the 970 EVO Plus and have updated the firmware to the new version „3B2QEXM7“. The changes were dictated by global shortages affecting the production and availability of many components and devices. We believe that by increasing the intelligent TurboWrite buffer and optimizing software, our devices will even better meet the growing needs of consumers and improve the overall user experience. With the release of the new version of the 970 EVO Plus drive, Samsung has posted an updated datasheet on its website. In the event of subsequent component updates, the company will keep the entire change history available on an ongoing basis to ensure transparent communication with customers.
 
  • Gefällt mir
Reaktionen: Joker2488 und massaker
Immerhin doch eine Stellungnahme.

Gründe hin oder her, man hätte auch offen von einer neuen "Variante" sprechen können. Es nur zu kommentieren, nachdem man "erwischt" wurde, hat halt a Gschmäckle. Der Verweis auf die Dokumentation ist ein schlechter Scherz. Woher soll ich denn beim Kauf wissen, welche Dokumentation nun gerade bei dem Exemplar dieses Händlers gilt?

Dass die neue Version im Lese-Verhalten, was für die meisten Anwender wohl wichtiger ist, Vorteile bringt, ja, das stimmt. Dennoch, wenn Leute sie explizit für das Schreibverhalten kaufen wollten, dann bekommen sie halt dennoch nicht, was sie wollten.
 
Am Ende juckt es doch eh nicht, außer man kopiert mehrere hundert GB am Tag.
 
  • Gefällt mir
Reaktionen: Askalon42
Ja, ich sag ja auch: für mich ist die neue Version allen Unkenrufen zum Trotz die bessere Version. Aber der Ton macht die Musik.

Und dass die Nutzer oft genug gar nicht wissen, was sie brauchen, dass das erst mal schlechter aussieht, wenn sie langsamer schreibt, das ist doch schon unabhängig davon bekannt.
 
  • Gefällt mir
Reaktionen: Cool Master
tollertyp schrieb:
Der Verweis auf die Dokumentation ist ein schlechter Scherz. Woher soll ich denn beim Kauf wissen, welche Dokumentation nun gerade bei dem Exemplar dieses Händlers gilt?

Das ist meines Wissens nach "normal" (was das Ganze jetzt nicht rechtfertigen soll), weswegen ein Blick auf die Seriennummer etc. oft hilfreich ist um zu sehen ob man (aus aktuellem Anlass) beispielsweise eine Spannungsversorgung hat die gerne mal in die Luft fliegt.

Bei wichtigen Komponenten oder solchen für viel Geld sollte dies eigentlich generell zuerst geschehen, dann spart man sich gegebenenfalls einen Ausbau o.ä.
 
@tollertyp

Ja klar, hätte man besser kommunizieren können aber wenn man das bei jedem Kleinteil machen müsste würde man aus dem Melden nicht mehr raus kommen.
 
@Damien White: Da geht es um die Frage, ob das Produkt einen Mangel hat... ich glaube auch nicht, dass im Datenblatt vorher "hoch explosiv" drin stand. Und konnte man dann vor dem Kauf sehen, um welches Modell es sich handelt? Also ich habe bislang noch nie die Seriennummer bei einem Online-Shop vorab sehen können. Hatte der Mangel denn charakteristisch Einfluss auf das Netzteil in Bezug auf Wirkungsgrad und Lautstärke? Don't know...

Ja, dann gibts das gute, kundenfreundliche und umweltschädliche Widerrufsrecht, wunderbar. Dann kann man sich das mit dem Datenblatt uach sparen, dann benchmarke ich einfach selbst die SSD und schaue, ob es mir passt. Dann freut sich der Händler auch um so mehr über die Rücksendung, nachdem ich die SSD aus Trotz ausgepackt habe.
 
Zurück
Oben