News M.2.SSD mit 7.240 MB/s: Adata am Limit von PCIe 4.0 x4 mit Innogrit-Controller

32 TB ist mal eine Ansage für die Storage Hersteller.
 
  • Gefällt mir
Reaktionen: HtOW und DeLiKanLi61
Mit AMD am Drücker mache ich mir wenig Sorgen, dass die Bandbreite wieder so stagniert wie beim Intel schnarchnasenmonopol. PCIe 3 hatte schon merkelhafte Standhaftigkeit, die jetzt aber vorbei ist. M2 sollte also in Zukunft wieder mehr up to date sein, pcie 5 steht ja mit der nächsten bzw übernächsten Generation in den startlöchern. Ich denke mal m2 wird mit regelmäßigen pcie Updates schnell genug sein, dass man nicht unbedingt eine 8x oder 16x pcie Karte braucht. Die pcie 4 ssds mit 7gb/s sind ja schon sehr zügig unterwegs.

Den Nachfolger von Sata hat man ja vergeigt. Man bräuchte mal ne Alternative. U2 finde ich eher mittelmäßig, die Kabel und Stecker rufen IDE ins Gedächtnis.
 
Thomaswww schrieb:
Die 4K Q1/T1 Performance lesend im Vergleich zu PCIe 3.0 NVMe SSDs ist immer noch im Verhältnis nicht wirklich viel besser geworden. Aber gerade diese Power merkt man doch im täglichen Gebrauch...

Die singlethreaded 4K-Leseperformance von Massenspeichern wird im wesentlichen durch die Speichertechnologie determiniert. Solange diese bei SSD in NAND-Flash besteht, sind keine relevanten Steigerungen mehr realisierbar. Für schnellere Zugriffe dieser Art benötigt man Speichertechnologien wie XPoint. Entsprechende SSD sind aber wesentlich teurer als die NAND-Flash-basierte.
Von weiterer Steigerung der 4K-Performance würde ich aber nicht zu viel erhoffen. Die meisten im Homeuse üblichen Anwendungen und Betriebssysteme sind so konzipiert, dass selbst die massive 4k-Schwäche von HDD gut kaschiert wird.
 
  • Gefällt mir
Reaktionen: DynamaxX, HtOW, NMA und 2 andere
Ja, ich konnte das auch nicht richtig glauben. Aber es passt ins Bild mit der "Pechsträhne" bzgl. 10nm bei Intel. ;)
 
hui, dachte schon die samsung ist interessant... aber das kickt mich grad... mal sehen welches ITX mein nächstes wird, GB, asus oder wieder asrock(bei dem stören mich aber die bauteile zwischen ram und CPU sockel).
 
Wattwanderer schrieb:
Ich hoffe die Effizienz gerät nicht komplett aus den Augen.

Im Prinzip hat man was sich parallelisieren ließ auf die Grafikkarte gepackt, dem CPU überließ man den langweiligen Rest.

Dennoch wird aktuell ein Kern-Rennen gefahren was an das letzte Stadium des GHz Rennens erinnert wo sinnlos für wenige Hz mehr Unmengen von Strom weggeheizt wurde.

Wenn AMD ein Kernmonster ankündigt frage ich mich angesichts der Begeisterungswellen ob einer jemals einen Blick auf den Taskmanager geworfen hat oder sich die Aufzeichnung der CPU Auslastung angeschaut hat.
Jepp, habe ich. Deshalb ist es ja auch ein 8 Kerner geworden. Hätten auch 12 sein dürfen, war mir zu dem Zeitpunkt aber der Preis zu abgehoben.
Die Kernmonster sind ja auch nicht für die Normal Ottos gedacht. Die werden ganz woanders gebraucht.

Mein 3700 verbraucht aber auch erstaunlich wenig. Im Idle oder beim Surfen geht er auch auf ~40W (An der Steckdose / PSU gemessen) Der alte Skylake zog hier im Idle / Sparbetrieb noch ~50W aus der Wand.
Man hat also Power on Demand. Haben ist halt besser als brauchen :D

Von der Effizienz her kann man mit Ryzen derzeit wohl viel Richtig machen.
 
Wattwanderer schrieb:
Ich hoffe die Effizienz gerät nicht komplett aus den Augen.

Um 3 W bei PCIE 3 SSDs finde ich noch tolerabel aber bei 7 W dürfte die Frage nach aktiver Kühlung schon berechtigt sein.

Im Prinzip hat man was sich parallelisieren ließ auf die Grafikkarte gepackt, dem CPU überließ man den langweiligen Rest.

Dennoch wird aktuell ein Kern-Rennen gefahren was an das letzte Stadium des GHz Rennens erinnert wo sinnlos für wenige Hz mehr Unmengen von Strom weggeheizt wurde.

Wenn AMD ein Kernmonster ankündigt frage ich mich angesichts der Begeisterungswellen ob einer jemals einen Blick auf den Taskmanager geworfen hat oder sich die Aufzeichnung der CPU Auslastung angeschaut hat.

Schade, dass Intel so schwächelt und sich von AMD in dieses Rennen treiben lassen muss.
Wenn ich sowas lese muss ich mit dem Kopf schütteln.

1.) ausser in Ausnahmefällen wird Berechnungstechnisch auf GPUs nichts ausgelagert was nicht der Anzeige Dient.
1.1) zu diesen Sonderfällen zählen CUDA optimierte Anwendungen, welche von den Berechnungseinheiten dermaßen profitieren, weil sie nichtmal eben nen 16 Kerner ersetzen würden, sondern einfach mal die 300-1000 fache Leistung in dieser speziellen Operation Leisten.
1.2) ja die GPUs können auch zum Beispiel das Vieoumberechnen übernehmen, was vorher ziemlich CPU intensiv war und der CPU so Rechenlast "abnehmen" , allerdings hier mit einem sichtbarem Qualitätsverlust im Ergebnis, weil eben diese GPU Basierte Umwandlung nicht so präzise / gut arbeitet wie die Software / CPU basierte Variante.

2.) Kernmonster: Intel hat Jahrelang die Entwicklung auf dem CPU Markt wegen Fehlender Konkurrenz ausgebremst, und schön den Endkunden gemolken mit "Apothekenpreisen für Schlangenöl" ... nur durch Firmen wie AMD , die Konkurrenz darstellen, gibt es Fortschritt in der Form besserer Fertigungsstrukturen, niedrigerem Stromverbrauch und gesteigerter IPC , ganz zu schweigen das es im Multicore Segment vorran geht.
Ich gehe mal davon aus das du auf deinem Intel relativ alte Software im Einsatz hast, das du der Meinung bist das Many Core Lösungen nichts für dich ( und automatisch auch für alle anderen sind ) , aber aktuellere Software als auch Anwender haben hier leicht geänderte Bedürfnisse:
  • Software ( nicht nur Games! ) profitiert zunehmen von mehr Kernen als nur 1-4
  • Anwender Multitasken mit immer mehr Programmen offen, welche Parrallel arbeiten und ebenfalls von mehr Kernen Profitieren.


Ich will jetzt nicht sagen jeder braucht nen 12 oder 16 Kerner, aber die Zeit für 4 Kerner die bis zum Kotzen von Generation zu Generation in homöopathischen Dosen ein paar Mhz mehr bekommen und von 14nm auf 14nm+++++++++++++++++ an sich keine Änderung erhalten sollte definitiv vorbei sein.
 
  • Gefällt mir
Reaktionen: GeneralAnal, mcasd, Kenzo2019 und 6 andere
statt ständig die geschwindigkeiten zu erhöhen, sollten die mal statdessen die kapazitäten erhöhen! 4 TB Sata für ca 500-600 Euro sind einfach noch viel zu teuer. 8 TB für 200 Euro hätte ich gern.
 
  • Gefällt mir
Reaktionen: Grundkurs, bad_sign, ZeXes und eine weitere Person
Flyto schrieb:
statt ständig die geschwindigkeiten zu erhöhen, sollten die mal statdessen die kapazitäten erhöhen! 4 TB Sata für ca 500-600 Euro sind einfach noch viel zu teuer. 8 TB für 200 Euro hätte ich gern.
Ich auch. ;)
Wird aber wohl noch min. bis zum nächsten großen Nodewechsel dauern.
 
@Mac_Leod Ja das wäre mal wünschenswerte Speichermengen.
Ich frag mich bloß, wenn es machbar wäre, warum werden dann immer nur max. 4tb angeboten. Ich glaub, Interessenten gäbe es genug.
 
Faust2011 schrieb:
Das ist wirklich klasse, wie schnell die Entwicklung hier weitergeht.

Krass ist vor allem auch, dass vor ein paar Jahren DDR2-RAM Geschwindigkeiten von 4 GB/s hatte. Mittlerweile ist der Massenspeicher schneller als der Arbeitsspeicher vor ein paar Jahren. Und die Lücke wird immer kleiner.
 
  • Gefällt mir
Reaktionen: NMA
PAX-12 schrieb:
Ich frag mich bloß, wenn es machbar wäre, warum werden dann immer nur max. 4tb angeboten. Ich glaub, Interessenten gäbe es genug.
Zumindest im Consumer-Bereich mit M.2 im gängigen 2280 Format dürfte schlicht der Platz auf der Platine knapp werden, um entsprechend viele Chips unterzubringen. Die Samsung PM983 von 2018 braucht für die 8TB zum Beispiel beidseitige Vollbestückung.
Abseits von M.2 2280 gibt es aber ohne Probleme auch Modelle bis 16TB, nur sind die entsprechenden Schnittstellen eher im Server zu finden und nicht in Desktop-PCs. https://www.computerbase.de/preisvergleich/?cat=hdssd&xf=252_15360&fcols=252
 
  • Gefällt mir
Reaktionen: kamanu und PAX-12
Da kann ja Samsung mit nur 6500Mb/s bei den neuen PRO ja einpacken oder besser noch die Preise gleich um 50% senken....habe überhaupt nichts dagegen wenn gleich von anfang schön Konkurenz vorhanden ist.
Hoffe nur dass der neue Standard die Preise der anderen Klassen drunter runterdrückt und nicht die neuen nochmal im Preis einen draufsetzen.
Würde mich aber nicht wundern wenn die SSD Hersteller sich die Preisgestaltung von den Grafikkarten und Monitor Herstellern abkucken
 
@mibbio Schade eigentlich, dass das so ist. Hätte mich über ne große M.2 gefreut. :rolleyes:
 
mibbio schrieb:
nur sind die entsprechenden Schnittstellen eher im Server zu finden und nicht in Desktop-PCs
Ach Pustekuchen. Mit PCIe zu U.2 Adapter kein Thema.
Keine Lust mehr auf große M.2s zu warten.
 
Flyto schrieb:
statt ständig die geschwindigkeiten zu erhöhen, sollten die mal statdessen die kapazitäten erhöhen! 4 TB Sata für ca 500-600 Euro sind einfach noch viel zu teuer. 8 TB für 200 Euro hätte ich gern.
Ich befürchte, das du auf solche Preise noch lange warten musst. Denn die Hersteller haben nicht zu verschenken. Und leider sind aus technischer Sicht keine größeren Kostensenkungen bei Flash zu erwarten. In der Vergangenheit hat man wesentliche Kostensenkungen durch 2 Faktoren erreicht:
1. Verkleinerung der Speicherzelle. Da ist man aber inzwischen am physikalischen Limit.
2. mehr Bits pro Speicherzelle. Da ist TLC derzeit Standard. Der Übergang zu QLC bringt da max. 25% , nach PLC weitere max. 20% Preissenkung. Allerdings auch mit Nachteilen verbunden.

Bei Vergrößerung der Speicherkapazität durch mehr Layer ist keine wesentliche Kostensenkung beim Preis pro GB zu erwarten.

Bei HDDs ist es ähnlich. Bei der Speicherdichte hat man in letzter Zeit nur noch geringe Fortschritte gemacht, die Kapazitätssteigerungen wurden zu einem großen Teil durch Verbauen von mehr Plattern erreicht.
 
  • Gefällt mir
Reaktionen: DynamaxX
Ned Stark schrieb:
Mittlerweile ist der Massenspeicher schneller als der Arbeitsspeicher vor ein paar Jahren.
Nö, die Zugriffsszeiten sind beim DRAM um Welten schneller und DAS bringt gefühlt die Geschwindigkeit!
 
  • Gefällt mir
Reaktionen: DynamaxX, Shoryuken94 und Baal Netbeck
Zurück
Oben