News Intel SSD 750: Neue Version mit M.2-Adapter, weil U.2 so selten ist

Holt schrieb:
Für die Kommunikation der internen Komponenten eines Rechners? Niemals!

Da war wohl eher das wegfallen von Strom und Datenkabel gemeint, also eine Steckverbindung, und nicht WiFi :-)
 
U.2 ist eine Totgeburt und die Intel SSD 750 dem entsprechend eine Fehlplanung.

Beides einstampfen und gut ist...
 
Toxicity schrieb:
auch mit U.2 sind höchstens 2 Anschlüsse möglich. Man könnte mehr machen, dann würden aber noch mehr PCI Express Lanes verloren gehen.
Das ist ja aber eine Frage der Plattform und da ist der Mainstream Sovkel 115x sicher nicht die beste Wahl wenn man viele PCIe SSDs unterbringen will, obwohl es ja auch Z170er Boards mit 3 M.2 Slots mit PCIe 3.0 x4 gibt, auch wenn dann alle SATA Ports des Chipsatzes wegfallen, wenn man diese nutzt und der Z270 soll ja noch einmal 4 weitere PCIe 3.0 Lanes bekommen, dann also 24 haben. Beim großen S. 2011-3 sind 40 Lanes Standard (außer für den Einsteiger i7) und dessen Nachfolger werden 48 Lanes nachgesagt, alleine von der CPU und dann noch ein Chipsätz ähnlich dem Z170 für Skylake mit noch mal vermutlich 20 PCIe 3.0 Lanes, also so knapp sind die Lanes dann auch nicht und wer schon Geld für so viele schnelle SSDs ausgeben kann/will, wird wohl kaum ein H110 Board kaufen. Ein wenig zusammenpassen sollten die Komponenten eines System nun schon noch.
Toxicity schrieb:
Spezielle PCI Express Switche die dazu auch noch RAID und andere Dinge steuern können, existieren sogar noch garnicht.
Das glaube ich nicht, denn wie hat HP sonst das HP Z Turbo Drive Quad Pro realisiert? Die 4 PCIe SSDs kann man nicht einfach an einen Slot hängen, der akzeptiert ja i.d.R. nur ein Gerät und eben nicht 4, also ist da mit Sicherheit ein PCIe Lane Switch drin, der zum Host hin dieses eine Geräte darstellt und die 4 SSDs ansteuert und die laufen im RAID, anders wären keine 9GB/s machbar.
Toxicity schrieb:
M.2 bietet eine 25W Stromversorgung und die reicht auch um die SSD zu versorgen, warum also nicht die Stromversorgung mit durch schleifen?
Erstens braucht eine 750er auch 12V und M.2 bietet nur 3.3V und zweitens steht hier was von maximal 0.5A pro Pin und 25W wären bei 3.3V da 7,5A, ea wären also je mindestens 15 Pins für die Spannungsversorgung und Masse nötig. Leider habe ich nichts weiter dazu gefunden, aber die Quelle wo 25W für M.2 angegeben werden, würde ich mich sehr interessieren.
HisN schrieb:
Da war wohl eher das wegfallen von Strom und Datenkabel gemeint, also eine Steckverbindung, und nicht WiFi :-)
Wenn kabellos Steckkarten meint, dann mag das für sehr kompakte Gehäuse zwar interessant sein, aber im Desktop hat es eben auch Nachteile, vor allem wenn man bedenkt das es im Extremfall eben auf ein Verlöten der Komponenten auf dem Mainboard hinausläuft.
Ergänzung ()

smalM schrieb:
U.2 ist eine Totgeburt und die Intel SSD 750 dem entsprechend eine Fehlplanung.

Beides einstampfen und gut ist...
ja ne klar und Supermicro und die anderen Enterprise Storage Hersteller die auf U.2 setzen sind alles Vollidioten, nur smalM weiß es besser. :freak:
 
smalM schrieb:
U.2 ist eine Totgeburt und die Intel SSD 750 dem entsprechend eine Fehlplanung.
Beides einstampfen und gut ist...
Zeig mir doch mal eine SataExpress SSD bei geizhals!
SataExpress war eine Totgeburt. Meistens sind doch eh nur 1GB/s angeschlossen, und die kriegt auch jeder mit Raid0 Sata3.0 SSD hin.
Das NVMe Protokoll ist für die aktuellen Hochleistungs- und Server-SSDs wesentlich performanter und geeigneter.
 
Zuletzt bearbeitet:
Spätestens mit PCI Express 4.0 (Skylake-E ?) sollte auch jeder genug Lanes haben um mehrere U.2-SSDs zu betreiben.
 
Holt schrieb:
Erstens braucht eine 750er auch 12V und M.2 bietet nur 3.3V und zweitens steht hier was von maximal 0.5A pro Pin und 25W wären bei 3.3V da 7,5A, ea wären also je mindestens 15 Pins für die Spannungsversorgung und Masse nötig. Leider habe ich nichts weiter dazu gefunden, aber die Quelle wo 25W für M.2 angegeben werden, würde ich mich sehr interessieren.
Bin zwar nicht der angesprochene, hoffe aber, was beitragen zu können. :D
Er bezieht sich wohl auf die Begrenzung für Enterprise PCIe-SSDs, siehe hier "Maximum Power" auf S. 41:
http://www.ssdformfactor.org/docs/SSD_Form_Factor_Version1_00.pdf
Allerdings wird hier zwischen 3,3V, 5V und 12V je nach Pinansteuerung unterschieden, die 25W beziehen sich auf 12V.

Hier wird von S. 11 bis 12 von 5 Pins für die 3,3V-Stromversorgung (ergibt insgesamt 8,25W) gesprochen:
http://www.ekf.de/c/ccpu/c48/c48_ti.pdf
 
Zuletzt bearbeitet:
Hallo @ all,

mMn, sollte Intel endlich selbst eine M.2 Lösung auf den Markt bringen, anstatt dieser Adapterlösung. U.2 ist und wird zumindest in den nächsten 4-5 Jahren nur eine Industrie-Lösung sein. Der einzige wirkliche Vorteil gegenüber M.2 ist die bessere Kühlung. Wenn man einen flachen VRAM-Kühler auf ein M.2 aufbringt, ist dieser Vorteil dahin, und es bleiben nur Nachteile für U.2. Der VRAM-Kühler kostet vielleicht 2€, so ein Adapter bestimmt das 10-20fache.

ekin06 schrieb:
Und man behält die HotSwap Fähigkeit. Was für den ein oder anderen evtl. auch wichtig ist. :)

Die aber nur relevant ist wenn man mindestens zwei NVMe LWe, getrennt jeweils für System und Daten, besitzt. Denn wenn man ein LW (auch) als System-LW benutzt, ist die Hot-Swap-Fähigkeit belanglos, da nicht anwendbar.

Hansbrel schrieb:
Der u2 ist schon praktischer...

Bestimmt. Praktischer. Sorry aber da krieg ich beinahe einen Lachanfall. Der Unterschied ist hauptsächlich die Verwendung eines Kabels. Jedes Kabel hat 2 (mindestens) Stecker, also insgesamt drei potentielle Fehlerquellen. M.2 hat nur einen Stecker, der zudem von Natur aus weit weniger Fehlerpotential birgt. Wenn man sich nun so ein U.2 Kabel anschaut, ist es ziemlich dick und starr. Daher ist die potentielle Gefahr eines Hardwaredefekts aufgrund abgerissener Buchsen am LW noch grösser als bei einem SATA-LW. Und genau dieser Stecker ist schon bei SATA-LW eine Achillesferse, bezüglich mechanischer Defekte. Wie auch immer, U.2 birgt mindestens ein dreifaches Risiko eines mechanisches Defekts/Problems gegenüber M.2.

Noch sind wir lange nicht so weit, daß jemand 5 NVMe SSDs im Rechner hat. Selbst reine Server-MBs von Supermicro bieten lediglich maximal nur zwei U.2 Ports an. Dagegen gibt es aber schon Z170 Gamer-MBs mit drei M.2 Anschlüssen. Bis dahin kommt es hoffentlich zu einer Ablösung des antiquierten ATX-Standards, der moderne Hardware besser berücksichtigt. Der letzte Rechner, bei dem ich alle 7 Slots (mit 1-Slot-Karten) belegt hatte, war noch ein Slot-1 P-III. Alles hat sich verändert, aber der ATX-Standard fortgeführt. Als Folge davon muß man irgendwelche Kabeleien quer übers MB, oder zu den GraKas führen. Eine vernünftige Alternative würde möglichst viele Kabel reduzieren, und die Bedürfnisse moderner Hardware berücksichtigen. So z.B. den Strombedarf heutiger GraKas. Anstatt dessen, muß Hardware mit 75W pro Slot auskommen. Alles der Kompatibilität zuliebe.

Genauso wie ATX, ist U.2 antiquiertes Denken. Wie ein Loch im Turbo mit Panzertape abzudichten.

Bitte alles oben stehende mit Bezug auf Desktop-Systeme und Workstations sehen. U.2 ist natürlich im High-End-Enterprise-Sektor gänzlich anders zu beurteilen, M.2 dagegen dort praktisch kaum anwendbar.

Um zurück zum Thema zu kommen. Man hat mich schon öfters (fälschlicherweise) als Intel Fan-Boy tituliert, doch das was Intel da zeigt empfinde ich nur noch als peinlich, nein beinahe schon als Kundenverarschung. Irgendwie scheinen sich die Verantwortlichen bei Intel, ob ihres Monopols, quasi gottgleich zu fühlen. Anstatt das zu produzieren was der Markt verlangt, ignoriert man erst Jahrelang des Desktop-Markt, um ihm dann unpassende High-End-Lösungen vor die Füße zu werfen, die eigentlich nur für den Server-Markt konzipiert sind. Und wenn dann wegen dieser Arroganz der Markt ganz andere Wege geht, als Intel das gerne hätte, was macht man? Anstatt einen Fehler einzugestehen und den Markt mit einem konkurrenzfähigen M.2 Modul zu bedienen, kommt so ein Adapter.

Einfach nur der Gipfel der Arroganz und peinlich.
 
borizb schrieb:
Ja, aber so isses doch immer. Die entwickeln Zeug, das keiner braucht,
verwenden oder bezahlen kann. Man hat den Eindruck, dass da reiche
Nerds für andere reiche Nerds entwickeln, aber kaum einer an die breite
Masse denkt. Aber wie ich immer zu sagen pflege: Für jede nicht nachvoll-
ziehbare Entscheidung gibts nen fachfremden BWLer, der das abgenickt
hat. Sowas würde kein Ingenieur oder technischer Direktor entscheiden.

Unsinn.
Wie du ja selbst erkannt hast, werden solche Entscheidungen wohl eher von Nerds getroffen.
Sowas würde kein fachfremder BWLer entscheiden.
Die interessiert nämlich absolut nicht, ob eine technische Lösung elegant ist oder was auch immer.
Denen geht es vor allem um die breite Masse und wie viel Geld sie damit machen können.
(und wie groß der Bonus für sie selbst sein wird, wenn möglichst viel davon verkauft wird !)

borizb schrieb:
Ich glaube, das sich Intel wieder mehr aufs Kerngeschäft fokussieren sollte.
Diese Diversifizierung treibt oftmals kränkliche Blüten - imho.

Das sagt sich so leicht, wenn man ahnungslos ist.
Aber es gibt genug Firmen, die innerhalb relativ kurzer Zeit in der absoluten Bedeutungslosigkeit verschwunden sind, weil sie sich "auf das Kerngesachäft fokussiert haben", wie man so schön im Bullshit-Bingo sagt.
Denk zb. an Nokia, denen nützt ihr "Kerngeschäft" heute gar nichts mehr, die sind fertig.
 
@ BlackWidowmaker
Also für sinnlos halte ich die U.2 Idee nicht! Es ist doch sinnvoll eine Möglichkeit zu bieten schnelle SSDs beliebig zu plazieren und zu kühlen und auch einfach austauschen zu können. Bei vielen Boards liegt der M.2 Anschluss doch unter der Graka. Ja ATX ist schuld daran.....aber was soll sich denn ändern? Hohe Ströme über das halbe MB leiten um Grafikkarten zu versorgen ist keine gute Idee. Die Abschirmung der stark wechselnden Ströme vertragen sich nicht gut mit sensiblen Datenverbindungen. Die CPU hat ja auch extra einen eigenen Stromanschluss in ihrer Nähe...und wenn man die Stromkabel neben den PCI Anschlüssen einstecken muss hat man nix gewonnen.

Deiner Argumentation bezüglich der Fehleranfälligkeit kann ich ein paar eigene Ansichten erweitern. Wenn ein U.2 Kabel defekt ist, kauft man einfach ein neues...ist also halb so schlimm und wird auch nicht häufig passieren. Ja die Stecker sehen nicht soo vertrauenserweckend aus ;), aber immerhin ist die Hardware mechanisch geschützt. Auch Laien trauen sich so eine SSd zu nehmen und anzuschließen. Meiner Erfahrung nach schrecken die Leute vor blanken Platinen erstmal zurück.

So ganz gefällt mir die Umsetzung auch nicht, aber das großte Problem ist aus meiner Sicht einfach das mangelnde Vorhandensein von Konkurenz und Mainboards. -> Auswahl und Preiskampf.
 
Zuletzt bearbeitet:
@ BlackWidowmaker, da Du ja absolut Wert auf die Optik legst und Kabel da nur stören, musst Du es nicht kaufen solange es auch M.2 SSDs gibt und wirst das sicher auch nicht tun. Aber für viele User und vor allem die Enterprisenutzer ist die Optik egal, die schauen sich nicht ihre HW an, sondern nur ihre Eigenschaften und da hat U.2 eben eine Menge Vorteile gegenüber M.2 und auch Add-In-Cards.

Nacho_Man schrieb:
Er bezieht sich wohl auf die Begrenzung für Enterprise PCIe-SSDs, siehe hier "Maximum Power" auf S. 41:
http://www.ssdformfactor.org/docs/SSD_Form_Factor_Version1_00.pdf
Allerdings wird hier zwischen 3,3V, 5V und 12V je nach Pinansteuerung unterschieden, die 25W beziehen sich auf 12V.
Das mir bekannt und auch alles schön und gut, nur hat es eben mit M.2 nichts zu tun und da sieht das Pinout der Slots für M Key maximal 3.3V auf 9 Pins vor und wie schon geschrieben sind maximal 0.5A pro Pin erlaubt, also 4,5A was mal 3.3V dann knapp unter 15W sind und eben keine 25W. Für größere Enterprise SSDs ist M.2 eben auch nie gedacht gewesen, sondern eben vor allem als Ablösung für mSATA SSDs in kompakten Gehäuse wie z.B. Notebooks.
Nacho_Man schrieb:
Hier wird von S. 11 bis 12 von 5 Pins für die 3,3V-Stromversorgung (ergibt insgesamt 8,25W) gesprochen:
http://www.ekf.de/c/ccpu/c48/c48_ti.pdf
Das bezieht sich nur auf die konkrete SSD und ja, wie Du im oben von mir velrinkten Dokument siehst, haben B-Key Slot nur 5 Pins zu Spannungsversorgung, also 5*0,5A bei 3,3V, und damt weniger als M-Key Slots.

Die Frage von Toxicity warum die Spannungsversorgung nicht auch über den M.2 Slot erfolgt, sollte damit also hinreichend beantwortet sein.
 
Baal Netbeck schrieb:
Wenn ein U.2 Kabel defekt ist, kauft man einfach ein neues...ist also halb so schlimm und wird auch nicht häufig passieren.

Klar ein defektes Kabel ist vielleicht nicht schlimm, doch was passiert wenn beim Einbau des neuen 1000€ teuren U.2 LWs der Stecker, durch einen zu kleinen Biegeradius, die Buchse und eventuell einen Teil der Platine abreißt? Das ist etwas das schon bei SATA-LW sehr oft passiert, bei U.2 wäre die Gefahr bauartbedingt größer. Garantie greift da nicht.

Holt schrieb:
@ BlackWidowmaker, da Du ja absolut Wert auf die Optik legst und Kabel da nur stören, musst Du es nicht kaufen solange es auch M.2 SSDs gibt und wirst das sicher auch nicht tun. Aber für viele User und vor allem die Enterprisenutzer ist die Optik egal, die schauen sich nicht ihre HW an, sondern nur ihre Eigenschaften und da hat U.2 eben eine Menge Vorteile gegenüber M.2 und auch Add-In-Cards.

Da erklär mir doch bitte warum man nur lediglich zwei MBs findet, wenn man in der Sparte XEON-MBs nach U.2 Unterstützung einkreist, bei 2011-3 (X99) MBs sind es deren immerhin 7. Gäbe es tatsächlich einen so hohen Bedarf, gäbe es auch mehr Hardware dafür. Da der Markt bekanntlich immer recht hat, sind irgendwelche Enterprise-User mit hohem Bedarf an U.2 scheinbar nicht existent.

Vielmehr ist U.2 nur der verzweifelte Versuch sich abzugrenzen, bei einem System dessen Aufbau weniger von technischen Notwendigkeiten, sondern von Prestige-Denken beherrscht wird. Und rate mal was meistens bei der neuen MBs mit U.2 Unterstützung meist noch mitkommt: RGB LED-Beleuchtung.:evillol:

Wobei ich ja selbst M.2 auf dem MB nur deswegen präferiere, weil es einfach keine Zusatzkarten gibt, die zwei, drei oder gar vier M.2 Module aufnehmen würden. Diesbezüglich könnte man doch viel besser alle Bedürfnisse unter einem Hut bringen, die da wären:

  • mehrere NVMe LWe in einem System,
  • bessere Kühlung,
  • Wasserkühlung möglich,
  • dadurch immer maximale Performance der Module gewährleistet,
  • potent aussehendes Design möglich, Module ließen sich unter designtem Kühler kaschieren,
  • LWe ließen sich relativ leicht und schnell (abhängig vom Case natürlich) wechseln.
  • und natürlich am wichtigsten: effektvollere RGB-LED Beleuchtung möglich. :evillol:
Einzig die Hotswap-Funktionalität wäre nicht gewährleistet. Aber das ist aber mit Sicherheit eine reine Enterprise-Anforderung. Und auch dort nicht immer von Belang.

Wie auch immer, der Enterprise-Sektor würde sich niemals für eine Adapter-Lösung interessieren. Ergo zielt das Produkt einzig und allein auf reiche Prestige-Gamer, die alles kaufen was nur teuer und prestige-trächtig genug ist. Wer aber tatsächlich im Enterprise-Sektor tätig ist, der kauft sich gleich U.2 und nicht M.2 + U.2 Adapter.

Sorry Holt, aber normalerweise belegst Du deine Aussagen mit stichhaltigen Argumenten, Quellen und ellenlangen Diagrammen. Stattdessen nur ein Seitenhieb auf die allgemein bekannte und akzeptierte Tatsache, daß ich ein völlig durchgeknallter Freak bin? Welches sind denn bitte diese ominösen Vorteile von U.2?

Für mich ist das der verzweifelte Versuch Intels, eine Totgeburt mit allen Mitteln wiederzubeleben, und ebenso unsinnig wie SATA-Express. Nicht (nur) als Bling-Bling Fanatiker, sondern in erster Linie als Elektroniker halte ich klassische LW für überholt. Der einzige richtige Weg wäre mMn, mittelfristig RAM und Flash zu einem einzigen Medium, auf dem MB steckbar zu verschmelzen. XPoint ist da mMn der bessere Ansatz. Da aber leider Intel ein Monopol drauf hat, wird jahrelang der Desktop nicht davon profitieren, um den margeträchtigen High-End-Enterprise-Sektor richtig melken zu können.

Es ist schon fast komisch paradox, wie bei Intel Innovation und Technikbehinderung teilweise sich in einem Produkt verbinden. Es lebe das Monopol.
 
Zuletzt bearbeitet:
Dann muss man auch fragen was ist, wenn ein solcher Grobmotoriker seine M.2 SSD beim Einbau zerbricht, was dann auch keine Garantie abdeckt oder wahrscheinlicher noch, wenn diese durch statisch Entladung beschädigt wird.

Von einem hohen Bedraf an U.2 SSD bei Heimanwendern zu reden ist Blödsinn, die allermeisten haben keinen Bedarf an überaupt irgendeiner PCIe SSD und das Angebot für Heimanwender wird mehr von M.2 als von U.2 SSD bestimmt, aber es werden mehr werden und statt sich einen Kühler für die M.2 zu besorgen, macht eben eine U.2 SSD für all die Leute mehr Sinn, die ihre PCIe SSD wirklich intensiv nutzen. Solange es aber eine ist, kann man auch noch eine Add-in-Card nehmen, aber das wird sich eben ändern, die PCIe NVMe SSDs sind ja noch sehr neu und sehr teuer. Denke ein paar Monate bis Jahre weiter, denn werden praktisch alle SSDs auf PCie umgestellt sein und deren Aufpreis gegenüber SATA SSDs wird keine Rolle mehr spielen. Modelle mit großer Kapazität wie die 850 Evo 4TB oder dann eben 8TB, werden dann als PCIe ebenso verfügbar sein nur eben nicht auf eine kleine M.2 Karte passen.
 
NighteeeeeY schrieb:
Warum sollte man sich auch die U2 Version kaufen, wenn es 1. eine PCIe Version gibt und ich 2. weiß, dass ich gar kein U2 Port habe? Was für ein Schwachsinn. Es bringt ja nicht mal irgendwelche Vorteile. Es sei denn, es sind wirklich ALLE PCIe Slots belegt, was vermutlich aber höchst selten ist.

nicht so selten wie du glaubst, 2 GPUs rein, eine anständige soundkarte und dann sind entweder alle PCIe slots verdeckt, benutzt oder es stehen schlicht keine Lanes mehr zur verfügung, auch ein problem, was dem M.2 Port betrifft. gut das Skylake -E dann endlich mal erweiter und 48 Lanes kommen werden..
 
Stimmt schon, M.2 ist optisch gesehen natürlich die elegantere Lösung, da Kabel per se wegfallen. Aber wenn man U.2 für eine Totgeburt hält, würde das genauso gut für M.2 gelten. In Sachen Größe wird M.2 aber gegen U.2 wohl immer das nachsehen haben, da man einfach nicht so viele Packages unterbringen kann, wie man bei U.2 könnte.

Für mich einzig zu bekritteln bei U.2 wär das doch eher klobige Kabel. Aber hier wird es wohl auch über kurz oder lang mal Revisionen geben. Und ich weiß zwar nicht wieviel Bandbreite PCIe 4.0 haben wird, aber um eine Steigerung gegenüber der SATA Bandbreite zu bekommen würden hier dann wohl auch 2 Lanes reichen, womit man das "benötigt so viele Lanes" Problem auch wieder elegant löst.
 
Holt schrieb:
Das ist ja aber eine Frage der Plattform und da ist der Mainstream Sovkel 115x sicher nicht die beste Wahl wenn man viele PCIe SSDs unterbringen will, obwohl es ja auch Z170er Boards mit 3 M.2 Slots mit PCIe 3.0 x4 gibt, auch wenn dann alle SATA Ports des Chipsatzes wegfallen, wenn man diese nutzt und der Z270 soll ja noch einmal 4 weitere PCIe 3.0 Lanes bekommen, dann also 24 haben. Beim großen S. 2011-3 sind 40 Lanes Standard (außer für den Einsteiger i7) und dessen Nachfolger werden 48 Lanes nachgesagt, alleine von der CPU und dann noch ein Chipsätz ähnlich dem Z170 für Skylake mit noch mal vermutlich 20 PCIe 3.0 Lanes, also so knapp sind die Lanes dann auch nicht und wer schon Geld für so viele schnelle SSDs ausgeben kann/will, wird wohl kaum ein H110 Board kaufen. Ein wenig zusammenpassen sollten die Komponenten eines System nun schon noch.
Klar ein spezielles System zusammenstellen geht immer, aber wenn man ein System mit sehr vielen U.2 Ports haben will, dann bekommt man nur einen Rechner der nur als performanter NAS oder als einfacher Virtualisierungsserver fungieren kann.
Will ich aber ein System zusammenstellen das neben den sehr schnellen Storage auch noch Grafik/CUDA/OpenCL Performance mithilfe von Coprozessoren haben will, oder eine Performante und redundante Netzwerkverbindung über 40-Gbit/s LAN oder Fibre Channel haben möchte, ist dies nicht möglich.
Holt schrieb:
Das glaube ich nicht, denn wie hat HP sonst das HP Z Turbo Drive Quad Pro realisiert? Die 4 PCIe SSDs kann man nicht einfach an einen Slot hängen, der akzeptiert ja i.d.R. nur ein Gerät und eben nicht 4, also ist da mit Sicherheit ein PCIe Lane Switch drin, der zum Host hin dieses eine Geräte darstellt und die 4 SSDs ansteuert und die laufen im RAID, anders wären keine 9GB/s machbar.
RAID 0 ist kein RAID im Sinne des Wortes, da RAID 0 keine Redundanz bietet. Ich sprach hier aber von echten RAID und da verweist HP auf der Seite auf die Lösung als Software RAID.
Holt schrieb:
Erstens braucht eine 750er auch 12V und M.2 bietet nur 3.3V und zweitens steht hier was von maximal 0.5A pro Pin und 25W wären bei 3.3V da 7,5A, ea wären also je mindestens 15 Pins für die Spannungsversorgung und Masse nötig. Leider habe ich nichts weiter dazu gefunden, aber die Quelle wo 25W für M.2 angegeben werden, würde ich mich sehr interessieren.
Selbst deine Quelle spricht davon das bis zu 50V und 0,5A durch einen Pin gehen können. M.2 M Key übernimmt 1 zu 1 die PCI Express Spezifikation welche eine Stromversorgung von 25W garantiert, inklusive Bereitstellung einer 12V Stromversorgung.
 
@r4yn3 PCIe 4 wird wieder die doppelte Bandbreite pro Lane haben (im Vergleich mit 3.0). Daher würden dann tatsächlich 2 4.0-Lanes für eine SSD aktuell reichen.

Diese Skalierung gilt übrigens für alle PCIe-Generationen: 1x PCIe 4.0 = 2x 3.0 = 4x 2.0 = 8x 1.0
 
Zu U.2 > https://www.youtube.com/watch?v=n2W9ZdqHVws . Bis jetzt waren die Fragen

* Sata: Hotswap, jedoch langsam
* Sas: Hotswap, jedoch extrems teuer (Sas-SSDs :freak: )
* PCIe: kein Hotswap

Vielleicht werden meine nächsten Server mal U.2 :D . M2 war eigentlich immer schon eine Totgeburt. Das das von Intel so gehyped wurde versteh ich bis heute nicht. Aber wie immer wird U.2 wohl wieder wegen des Preises im Mainstreamsegment scheitern.
 
mackenzie83 schrieb:
oder es stehen schlicht keine Lanes mehr zur verfügung, auch ein problem, was dem M.2 Port betrifft. gut das Skylake -E dann endlich mal erweiter und 48 Lanes kommen werden..
Für jede Graka reichen eigentlich 8 PCIe 3.0 Lanes, die Soundkarte braucht meist nur eine PCIe 2.0 Lane und dann hat selbst ein Z170 noch genug Lanes für bis zu 3 mal PCIe 3.0 x4, also übertreiben wir mal nicht und auch bei S.2011-3 sind es ja gewöhnlch 40 PCIe 3.0 Lanes von der CPU (außer der billigsten, aber die kauft man eben nicht, wenn man viele PCIe Lanes will), da kann dann jede der beiden Grakas 16 Lanes bekomme, womit immer noch für zwei PCIe 3.0 x4 angebundene SSDs Lanes da sind un die Soundkarte kann auch über PCIe 2.0 Lanes der X99 laufen, der hat ja auch noch mal 8 davon.

r4yn3 schrieb:
Für mich einzig zu bekritteln bei U.2 wär das doch eher klobige Kabel. Aber hier wird es wohl auch über kurz oder lang mal Revisionen geben.
Vergiss nicht, dass da auch eine Menge Signalleitungen mit 8Gb/s durch gehen, was schon eine richtig hohe Frequenz ist und dann noch quer durch den Rechner, wo man sich eine Menge Störungen einfangen kann. Da braucht man schon eine gute Abschirmung.
r4yn3 schrieb:
Und ich weiß zwar nicht wieviel Bandbreite PCIe 4.0 haben wird, aber um eine Steigerung gegenüber der SATA Bandbreite zu bekommen würden hier dann wohl auch 2 Lanes reichen
Erstens reicht schon eine PCIe 3.0 Lane um mehr Bandbreite als SATA zu bekommen und 2 PCIe 4.0 Lanes dürften die Bandbreite von PCIe 3.0 x4 haben, aber zweitens sind die SSDs ja schon heute praktisch an die Grenzen der realen Bandbreite von eben der PCIe 3.0 x4 Anbindung gestoßen, selbst M.2 SSD wie die SM961 kommen da schon hin. Von daher wird man die zusätzliche Bandbreite pro Lane von PCIe 4.0 dann wohl kaum nutzen um auf Lanes zu verzichten, sondern eher um die Performance weiter zu steigern.

Toxicity schrieb:
Klar ein spezielles System zusammenstellen geht immer, aber wenn man ein System mit sehr vielen U.2 Ports haben will, dann bekommt man nur einen Rechner der nur als performanter NAS oder als einfacher Virtualisierungsserver fungieren kann.
Will ich aber ein System zusammenstellen das neben den sehr schnellen Storage auch noch Grafik/CUDA/OpenCL Performance mithilfe von Coprozessoren haben will, oder eine Performante und redundante Netzwerkverbindung über 40-Gbit/s LAN oder Fibre Channel haben möchte, ist dies nicht möglich.
Wie viele PCIe SSD und Grakas sollen denn da rein und was soll die Kiste kosten dürfen? 40-Gbit/s LAN und Fibre Channel sind Enterprise HW und da macht man dann meist entweder schnelle Berechnung oder viel Storage und da man für alle diese Dinge ja auch einiges an CPU Power braucht, sind dann Dual-CPU System üblich, also hat man alleine von den beiden CPUs dann schon 80 PCIe 3.0 Lane bei den heutigen S.2011-3 Xein E5 26xx. Damit könnte man 20 SSDs mit PCIe 3.0 x4 anbinden, oder eben je 16 Lanes für eine der beiden Graks und 8 für die Netzwerkkarte abziehst, wären immer noch 40 Lanes für 10 SSDs übrig. Wenn Du 4 Grakas reinstopfen willst, wären nur noch 8 übrig, wenn alle 16 Lanes bekommen sollen, da muss man dann aber eben Kompromisse machen und eben entweder auf SAS ausweichen oder den Graka weniger Lane spendieren, alles auf einmal geht ja aber eben nie und was auch noch nie möglich, zumal wenn man auch noch einen Blick auf das Budget wirft.

Es ist immer möglich Situationen zu entwerfen wo man klar am Limits stößt, die Frage ist aber immer, wie realistisch diese denn am Ende sind.
Toxicity schrieb:
RAID 0 ist kein RAID im Sinne des Wortes, da RAID 0 keine Redundanz bietet. Ich sprach hier aber von echten RAID und da verweist HP auf der Seite auf die Lösung als Software RAID.
Erstens hast Du nur von RAID gesprochen und da fällt auch ein RAID 0 drunter und zweitens kannst Du bei so schnellen SSDs wahrscheinlich sowieso nur noch mit SW-RAIDs arbeiten, die Performance der kleinen Kerne in den RAID Controllerkarten ist dafür total unzureichend. SW-RAIDs sind da schon heute klar im Vorteil gegenüber den HW-RAID, denn selbst kleine CPUs bieten viel mehr Rechenpower und haben viel mehr RAM zur Verüfgung als die Controller auf den teuersten SAS RAID Karten. Daher dürfte für NVMe SSDs wohl immer auf ein SW-RAID hinauslaufen.

Toxicity schrieb:
Selbst deine Quelle spricht davon das bis zu 50V und 0,5A durch einen Pin gehen können.
Die Pins müssen 50V abkönnen, die Pinbelegung sieht aber nur eine Versorgung mit 3.3V vor und keine 12V, 50V oder mehr gibt es im PC außerhalb des Netzteils sowieso nicht.
Toxicity schrieb:
M.2 M Key übernimmt 1 zu 1 die PCI Express Spezifikation welche eine Stromversorgung von 25W garantiert, inklusive Bereitstellung einer 12V Stromversorgung.
Wo steht das? Es gibt keine 12V an M.2, schau hier nach, den Link hatte ich doch schon gepostet und behaupte nicht weiterhin, was schon widerlegt ist. Das Dokument ist von der Peripheral Component Interconnect Special Interest Group (PCI-SIG) und PCIe ist deren Baby, die haben da das Sagen und auch über die M.2 Slots.

Anmeldeblödsinn schrieb:
* PCIe: kein Hotswap
U.2 ist PCIe und kann Hot-Swap, wenn die Umgebung dies zulässt. Unterscheidet doch endlich mal sauber zwischen den Schnittstellen / elektronischen Protokoll die genutzt werden und dem Formfaktoren, sonst kommt immer nur Mist dabei raus. Formfaktoren für PCIe SSDs sind neben U.2 eben Add-In-Card (also die Karten für normale Slots) und M.2 (SATA Express wäre es auch). U.2 SSDs sind bisher alles 2.5" Modelle.

Anmeldeblödsinn schrieb:
Vielleicht werden meine nächsten Server mal U.2 :D . M2 war eigentlich immer schon eine Totgeburt.
Nein, eine Totgeburt war nur SATA Express und das war eben nicht von Intel und deren Scheitern war absehbar. M.2 ist der Formfaktor für kompakte Gehäuse wie eben Notebooks und NUCs und ist ja auch weit verbreitet. Sogar als Basis für größere SSDs wie z.B. das HP Z Drive Quad.
Anmeldeblödsinn schrieb:
Aber wie immer wird U.2 wohl wieder wegen des Preises im Mainstreamsegment scheitern.
Wieso sollten U.2 Ausführungen teurer als M.2 Versionen werden? Es gibt bisher nur bei OEM SSDs Modelle in beiden Formfaktoren, daher ist ein Vergleich der Preis derzeit noch nicht möglich, aber eine 950 Pro würde doch nicht viel teurer werden, nur weil noch ein Gehäuse drum herum kommt, das ist bei den SATA SSDs doch auch nicht so.
 
@holt: Ich meinte U2 wird teurer als Sata und deshalb wirds wohl wieder nur im Ehtusiast/Serversegment auftauchen und nicht auf H100-Mainboards udgl.

Ja, mir ist bewusst das U.2 PCIe 3.0 x4 ist :rolleyes: und anderen Usern sicher auch. Und ja, auch PCIe-Karten kann man je nach Board im laufenden Betrieb tauschen nur so wirklich praktikabel ist das halt alles nicht. Manche Server haben keine Ausziehbaren Rails (meine zB), Abdeckung geschraubt usw. So wäre (wie im Video) eine Backplanelösung schon recht gut.

Bei M.2 meinte ich eher, das es eigentlich wie msata eine Zwischenlösung ist. Das Mainstreamsegemt wird wohl noch länger auf Sata setzen und dann kommt eben gleich mal U.2 nur M.2... kann ich kaum Vorstellen. Das es Z/X-Boards gibt mit M.2 ist mir bewusst nur so Richtig kommen die Kärtchen wohl nicht in Fahrt (Abwärme/Seichergröße/Preis/). Ja, ist bei U.2 sicher auch nicht anders ;) .
 
PCIe SSD ja im Consumersegment noch recht neu und Intel hat mit der 750er den Anfang mit einer Enterprise SSD gemacht, die an Endkunden gerichtet wurde, aber im Grunde ist die Intel 750 eben doch eine DC P3500 mit all der aufwendigen und teuren Technik so einer Enteprise SSD. Die M.2 SSDs wie die SM951 oder 950 Pro waren bisher alleine auf dem Markt der wirklichen Consumer PCIe SSDs und da hat Samsung sich deren Performance eben auch bezahlen lassen. Nun kommen aber immer mehr Konkurrenten und damit werden auch die Preise fallen, denn im Grunde dürfte es keinen wirklichen Unterschied machen, ob ein SSD Controller nun eine SATA oder eine PCIe Anbindung hat, die Größe des Chips wird dadurch auch nicht viel anderes ausfallen und ob bei der Fertigung diese oder jene Maske verwendet wird, ändert auch nichts an den Kosten. Wenn also die Entwicklungskosten drin und die Stückzahlen hoch genug sind, werden auch die Controller für solche PCIe SSDs nicht mehr kosten als heute die SATA Controller. Außerdem macht sowieso das NAND den Löwenanteil der Kosten aus und dem ist es total egal wie der Controller an den Host angebunden ist.

Die Preise von PCIe SSDs werden sich also wohl eher bald als langsam die von SATA SSD annähren, wobei man aber beachten muss, dass bisher die Hersteller bei den PCIe SSDs auf derartige Kostenoptimierungen wie bei den SATA Budegt SSDs verzichten, was sich dann aber auch ändern dürfte, wenn der Preiskampf erst einmal in Gang gekommen ist. Es hat damals auch nur eine Generation gedauert, dann hatte alle Hersteller von SATA 3Gb/s auf SATA 6Gb/s umgestellt und es gab keinen Aufpreis mehr für das schnellere Interface. Ganz so schnell dürfte es bei PCIe nicht gehen, aber schneller als wohl viele heute noch glauben.
 
Zurück
Oben