News Optane P5800X: Intels schnellste SSD überzeugt in erstem Test

mgutt schrieb:
Macht es da nicht mehr Sinn die Datenbank komplett in den RAM zu legen?
Hi Marc,
ja, wenn man eh am HEDT-System mit 256GB sitzt und die Datenbank komplett rein passt - macht Sinn. Die 256GB kosten aber auch dementsprechend und eine P5800X mit 400/800/1600GB ist da evtl. eine gute Alternative. LG nach Lohmar.
 
massaker schrieb:
ja, wenn man eh am HEDT-System mit 256GB sitzt und die Datenbank komplett rein passt - macht Sinn. Die 256GB kosten aber auch dementsprechend und eine P5800X mit 400/800/1600GB ist da evtl. eine gute Alternative.
Große Datenbanken passen da aber nicht rein. Wir haben hier Kundenssysteme, die hier mit 1,5-4 TeBi RAM ausgestattet sind, um im RAM zu arbeiten.
Ergänzung ()

mgutt schrieb:
Macht es da nicht mehr Sinn die Datenbank komplett in den RAM zu legen?
Machen ja die guten Datenbanken schon seit einer Weile, so gut es geht, und wenn genügend RAM vorhanden ist. Wie der Kollege es sagte, ist eben immer die Frage, was aktuell teurerer und aufwendiger ist.
 
PHuV schrieb:
Große Datenbanken passen da aber nicht rein. Wir haben hier Kundenssysteme, die hier mit 1,5-4 TeBi RAM ausgestattet sind, um im RAM zu arbeiten.
....
Wow, OK, und was kosten z.B diese 3 TeBi RAM? Wäre es da nicht schon fast günstiger zwei 1,6 TB Optanes zu kaufen und im System zu bündeln?
 
PS828 schrieb:
Nichts Vermischen bitte. Wenn man optane als DRAM Ersatz verwenden würde würde nichts mehr funktionieren. Die Latenz dieses Speichers beträgt 100 Mikrosekunden, die von DRAM 13-15, Nanosekunden. Also reagiert optane mehrere tausend mal langsamer als RAM.
Im Prinzip vollkommen richtig, aber die Werte stimmen nicht ganz. 100 Microsekunden ist man ja schon mit NVMe SSDs. Optane SSDs liegen bei 10. 3D xpoint in DIMM Sockel wird noch drunter liegen.
DRAM liegt aber eher bei 100 ns.
SRAM als Cache liegt im Bereich von 10 ns.
 
  • Gefällt mir
Reaktionen: PS828
@bensen ja du hast Recht, da hab ich die Zahlen versehentlich durcheinander geworfen aus dem Artikel :D


Die Grundaussage bleibt aber dennoch erhalten dadurch. XPOINT kann ein Cache sein aber nicht DRAM ersetzen.
 
ameisenbaer schrieb:
Adapter gibt bei Amazon massenhaft
Die allermeisten davon unterstützen (offiziell) aber nur PCIe 3.0.

massaker schrieb:
Die Lösung, die bis jetzt erwiesenermaßen immer 100%-ig funktioniert hat, besteht aus 2 Produkten:
1) dieser Adapter
2) dieser Kabel
Gut zu wissen, auf Geizhals steht bei dem Adapter (offenbar fälschlicherweise) nur PCIe 3.0 in der Beschreibung, deshalb ist der mir nicht aufgefallen.
 
Die ganzen Kabel und Adapter sind alle rausgekommen, als es PCIe4 noch gar nicht gab. Deswegen werden die noch mit PCIe3 aufgelistet. Es gibt aber Berichte hier, dass Benutzer sehr wohl eine PCIe4 Verbindung mit den bestehen Kabeln und Adaptern zustandebringen, wahrscheinlich weil die Signalqualität bei den geringen Längen noch insgesamt ausreicht.
 
Salierfähig schrieb:
Es gibt aber Berichte hier, dass Benutzer sehr wohl eine PCIe4 Verbindung mit den bestehen Kabeln und Adaptern zustandebringen,
Hust: Ich melde mich mal als so jemand zu Wort, zwar mit Samsung PM1733 und nicht Optane PCIe 4.0 SSDs:

Die SSDs funktionieren "einwandfrei" mit PCIe 4.0 x4-Link mit den genannten Adaptern/Kabeln - letzte Woche habe ich den Fehler gemacht, in den AMD NBIO-Einstellungen des Mainboards AER und ACS zu aktivieren und siehe da, bei einem standard CrystalDiskMark-Benchrun, kommen etwa 100 korrigierte PCIe-Fehler (in Windows WHEA ID 17, in Linux sieht man genauer, dass es PCIe-Link-Fehler sind). Standardmäßig sind diese Funktionen im UEFI deaktiviert, daher ist es mir nicht schon früher aufgefallen.

Eine Gen1 Optane mit PCIe 3.0 x4 (905P 480 GB) macht bei der gleichen Adapter-Kombination/Backplane dagegen keinerlei Fehler.

Jetzt ist in mir die Suche nach der für die Signalqualität besten Kette entbrannt, wie man einen PCIe 4.0 x4-M.2-Slot am besten mit der Icy Dock U.2 NVMe-Backplane verbindet, benötigte Länge etwa 40 cm.

Oder vorhandene Kabel nochmal abschirmen?
 
JBG schrieb:
Jetzt ist in mir die Suche nach der für die Signalqualität besten Kette entbrannt, wie man einen PCIe 4.0 x4-M.2-Slot am besten mit der Icy Dock U.2 NVMe-Backplane verbindet, benötigte Länge etwa 40 cm.
Dieses Kabel wird explizit mit PCIe4 / 64 Gbps Bandbreite ausgewiesen. Vielleicht ist es einen Versuch wert? Ich selbst kann leider keine Erfahrungen dazu teilen.
 
Habe bereits das Set aus Delock-Adapter und -Kabeln (auch mit mehreren gegentetestet, ohne, dass es geholfen hätte) im Einsatz.
 
Das ist natürlich ärgerlich. An deiner Stelle würde ich den Delock Support anschreiben. Die haben für mich mal einen Test mit einer PM1733 durchgeführt, also hat da mindestens einer ein entsprechendes Setup.
 
Salierfähig schrieb:
Dieses Kabel wird explizit mit PCIe4 / 64 Gbps Bandbreite ausgewiesen. Vielleicht ist es einen Versuch wert? Ich selbst kann leider keine Erfahrungen dazu teilen.
Stimmt, Du hast vermutlich Recht. Wegen der verdoppelten Datenrate wird es wohl mit dem SFF-8643 zum Glücksspiel. Da muss man wohl gleich draufzahlen und zum SFF-8673 greifen. Daher verbessere ich mich:
1) dieser Adapter
2) dieses Kabel
Beide mit PCIe4.0 und 64 Gbps (was ja 8 GB/s entspricht) spezifiziert. :daumen:
 
massaker schrieb:
Stimmt, Du hast vermutlich Recht.
Nicht unbedingt. Ich hatte mal vor, dieses Kabel mit diesem Adapter (benötigt Bifurcation, sonst funktioniert nur 1 Port) in Betrieb zu nehmen und hatte eine Support Anfrage gesendet. Das Kabel wird auch explizit mit 64gbps ausgewiesen. Jedoch ergab sich bei einem Test, dass irgendwas mit dem Kabel nicht stimmt, weil es die hohen Geschwindigkeiten bei einer PM1733 nicht erreichen kann. Setdem wird das Kabel nicht mehr verkauft.

Also diese absoluten Spitzen SSDs mit voller Power zu betreiben ist gar nicht mal so einfach, mein lieber Schieber! Empfohlen wurde mir übrigens dieses Kabel stattdessen, weil es den Test bestehen konnte @JBG
 
Sehr geile Teile. Aber die sind eben auch nicht für den gemeinen Homeuser gedacht und auch nicht nötig.
Wer dadurch professionell im 3D/Animationsumfeld gutes Geld verdient, Zeit und ständige Neuanschaffungen spart, für den ist der hohe Preis nicht so wesentlich. Wie sagte der dicke Kohl immer: Was hinten raus kommt zählt!
 
deo schrieb:
Wenn die P5800X bei Mindfactory in Massen verfügbar ist, gehen sie auch mit dem Preis kräftig runter, um bei vielen Anbietern bei Geizhals vorne zu sein.
Finde die vielen Fehler ;)
 
Highspeed Opi schrieb:
@r4yn3
Warum sollte es nicht für Consumer sein?
Es leben ca. 1,4 Millionen Millionäre alleine in Deutschland. Locker 10 Millionen können sich solche Hardware ganz spontan und nebenbei kaufen, ohne auch nur ansatzweise an die finanziellen Folgen denken zu müssen.
Und da diese Hardware nicht exklusiv für Deutschland gefertigt wird, kann Intel von ganz locker von 100 Millionen möglichen Kunden ausgehen und wenn nur eine halbe Million davon so etwas kauft, lohnt es sich bereits. Die Businesskunden nicht eingerechnet.

Wir reden hier nicht über Luxus Hardware... das ist ganz normale Hardware der Oberklasse für Jedermann.
Das kleine Modell ist sogar günstiger als die teuerste iPhone Ausstattung.
Man wird nicht Millionär davon Geld rauszuwerfen. ;-)
 
Palmdale schrieb:
Hab ich es überlesen oder fehlt die Angabe tatsächlich? Da wäre doch im Text wünschenswert gewesen, die Kapazität mit anzugeben, wenns denn wirklich der einzige Kritikpunkt ist ;)
Steht aber drin "Die Website Storage Review, die für SSD-Tests mit dem Fokus auf Enterprise-Anwendungen bekannt ist, hat jüngst die Intel Optane P5800X mit 800 GB ersten Tests unterzogen. " :p

Es sollen aber noch Modelle mit 1,6 TB und 3,2 TB folgen.
 
  • Gefällt mir
Reaktionen: Palmdale
Besser isses :D 800GB ist bisschen klein.

Aber gut zu wissen. Wenn auch nur informativ. Preislich interessant werden die für deen Privaten Kunden sowieso nicht
 
massaker schrieb:
Wow, OK, und was kosten z.B diese 3 TeBi RAM? Wäre es da nicht schon fast günstiger zwei 1,6 TB Optanes zu kaufen und im System zu bündeln?
Zu dem Zeitpunkt gabs ja noch noch keine Optanes. Und RAM kann nach wie vor nur durch RAM ersetzt werden. Aber ja, das kostet was, und wenn es wirklich wichtig ist (SAP Hana etc.), dann wird das auch bereitwillig bezahlt.

Aber jeder, der mal beim Server die RAMs eingebaut hat, das ist fast schon Schwerstarbeit, 24-48 DIMMs ins Mainboard reinzuklopfen. 😁
 
Zuletzt bearbeitet:
Zurück
Oben