News Intels „Skylake“-Chipsatzserie mit deutlich mehr PCIe-Lanes

Was braucht ihr immer so viel :confused_alt:

Auf meinen alten ASUS P8H77-V LE ist eine Grafikkarte,Soundkarte und später könnte es noch eine USB 3.1 PCIe Karte werden,
das Board hat 2x SATA 6Gb/s eine SSD habe ich schon dazu 4x SATA 3Gb/s für HDD / DVD Laufwerke viel mehr brauche ich nicht.

Wofür die ganzen neuen PCIe-Lanes ?

frankkl
 

Anhänge

  • AsusRam.jpg
    AsusRam.jpg
    422,9 KB · Aufrufe: 494
  • IMG_0143[1].jpg
    IMG_0143[1].jpg
    542,3 KB · Aufrufe: 487
Zuletzt bearbeitet:
Hauptsächlich wie gesagt für SSDs, die bislang über SATA angebunden wurden, und TB3(Displays).
Zumindest wird Intel keine halben Sachen mit Skylake machen, das ist wirklich gut.:)
 
Intel denkt hier schon richtig. Mainstream = Heimanwender und das soll bezahlbar bleiben, sparsam sein und genug Leistung bringen.
Wer wirklich mehr Leistung will (braucht), der soll halt auch mehr dafür bezahlen. Warum müssen wir alle mehr zahlen, weil ein paar Nerds sich für kleines Geld den Rechner mit 6 SSD zuknallen und die dann auch noch 100% nutzen wollen?

Wer zu Hause braucht denn wirklich mehr als 4 GB/s? Zum Daten hin und her schaufeln? Selbst wenn man Daten mit 1 GB/s zur CPU schickt, damit die dann damit irgendwas macht, ist doch die CPU der Flaschenhals.
1 GB/s heißt, das Windows in 2 Sekunden startet, wenn die CPU das gebacken bekommt.

Ich will mit Skylake meine GPU, eine M2 SSD, eine TV oder Soundkarte am laufen haben und wenn ich dann noch eine weitere x1-x4 Karte setze, dann muss die auch laufen, ohne das irgendwas anderes abgeschaltet wird. Das heißt aber doch nicht, dass ich automatisch bei allen Geräten die ganze Bandbreite gleichzeitig nutze.
 
Moep89 schrieb:
Ist zwar schön dass die Southbridge mehr Lanes bekommt, aber warum wird die Anbindung an die CPU nicht erstmal ordentlich aufgebohrt? Mir will es nicht in den Kopf warum ich an Punkt 2, der über Punkt 1 mit der CPU verbunden ist mehr Bandbreite habe als an Punkt 1. Das entbehrt jeglicher Logik. entweder beide gleich oder Punkt 1 mit mehr Power als Punkt 2. Alles andere, also auch was Intel da plant ist völlig bescheuert.

Stichwort Bündelungsgewinn. Der gleiche Grund, warum (zumindest früher) die DSLAMs mit einer wesentlich geringeren Datenrate an das Backbone angebunden sind als die DSL-Anschlüsse schlimmstenfalls in Summe benötigen würden. Man geht einfach davon aus, dass nicht alle Peripheriechips gleichzeitig genutzt werden und erst recht nicht die volle Datenrate benötigen (eine Soundkarte benötigt z.B. vielleicht nur ein paar MB/s, belegt aber trotzdem eine volle PCIe Lane).

Und mal ehrlich: wer in den nächsten 4 Jahre innerhalb von 10 Minuten mehr als 2 Terrabyte an Daten verschieben muss (DMI schafft 4GB/s Vollduplex), der gehört nichtmehr zum Mainstream. D.h. er sollte sich entweder eine Workstation/Serverplattform anschaffen, den RAID-Controller direkt an die CPU-Lanes anbinden oder zu AMD wechseln.
Natürlich wäre es schön, wenn Intel einem noch mehr bieten würde, aber die wollen natürlich sicher stellen, das ihre deutlich teureren High-End-Plattformen nicht ihre Daseinsberechtigung verlieren.

Mehrere 4K oder 144Hz Monitore, die via Thunderbolt angebunden werden, würden zwar tatsächlich nochmal einiges an Datenrate benötigen, aber meines Wissens läuft das DP Signal nicht über die DMI Verbindung und den Chipsatz PCIe Controller, sondern wird separat übertragen und erst im Thunderboltcontroller gemultiplext (Korrigiert mich, wenn ich falsch liege).
 
Zuletzt bearbeitet: (Typo)
Denke mal,da kommt noch was hinterher. Irgendeinen brauchbaren Grund fürs gemeine Volk muß es ja haben....zumindest in absehbarer Zeit.Mal sehen was dazu den Grakaherstellern bald so einfällt.:lol:
Die Umsetzung okay finde ich gut,geht in die richtige Richtung....aber leider nur für die gut betuchten:o
 
Also ich hab bereits jetzt 3 SSDs im Rechner. Insgesamt 2 TB.

Zudem hab ich zur Zeit noch 2 TB extern als SSDs. Derzeit alle in Gehäusen mit USB 3.

Wenn ich z.B. größere Datenmengen dann per TB2 von den internen SSDs auf die externen schiebe käme ich schon jetzt auf mehr als 2 GB/s, bei SATA 6GBps als Bremse!

Wie gesagt, noch ist es keine allzu große Schwachstelle, aber es ist eben auch noch ein Jahr hin. Da kann sich noch sehr viel tun. Und wer weiß wann Intel das nächste Mal am DMI schraubt. DMI 2 kam 2011 also dann vor 4 Jahren. Wenn DMI 3 auch so lange hält, heißt das, das erst 2019 wieder was passiert. Und bis dahin sind SSDs absoluter Mainstream und so schnell, dass eine einzige möglicherweise schon mehr als 4 GB/s erreichen kann. Zumal bis dahin vllt. sogar schon ein Nachfolger für den derzeitigen Flash Speicher existiert.
Externe Grafikkarten über TB oder Ähnliches wollen wir gar nicht erwähnen ;)

Versteht mich nicht falsch, es ist sehr schön und längst überfällig dass Intel den DMI wieder aufbessert, aber etwas mehr als 4GB/s hätten es sein dürfen. 6 oder 8 wären auch für die sehr nahe Zukufnt ausreichend gewesen.
 
So wie de technik skaliert könnte man das aufbohren auf 8gb/s zb durch die anhebung des taktes oder der datenpeitungen gewährleisten ähnlich dem verfahren bei speicher and feite auf grafikkarten?!
Ich wäre schon froh, wenn sata3 durch sata4 o.ä. Ersetzt wird. Erst dann würde ich mir über die mangelnde dmi bandbreite gedanken machen.
Sata express und m2 ist bei der aktuellen anbindung und der fehlenden ssd front sowas von halbgar, dass man das kaum als echten praxisnachfolger feiern kann.
 
latexdoll schrieb:
Ich vermisse upgrade auf USB 3.1, PCIe 4.0, Thunderbolt 3, Lan auf 10 GBit.
Von 10GBit Ethernet war für Skylake ja mal die Rede, aber nun kam nichts mehr darüber, dabei ist das LAN mit 1GBit heute im Vergleich zu anderen Schnittstellen megalahm, USB hat 5GB/s, eSATA 3 oder 6Gb/s (ok, für 6Gb/s gibt es keine Norm), TB noch mehr. Es wird Zeit, das Netzwerk mal ordentlich zu beschleunigen!
latexdoll schrieb:
Auch finde ich die 20 lanes als Bremse, hier wären 32 besser gewesen. Gerade wenn man schau wie langsam Intel wirkliche Fortschritte im Chipsatz einführt.
Wobei das auch Mist wäre, wenn die vom Chipsatz sind und sich doch wieder die DMI Anbindung teilen müssen. Besser wäre es der CPU direkt noch 4 oder 8 Lanes für die Anbindung von 2 PCIe x4 oder 4 PCIe x2 SSDs zu spendieren. Das hätte mehr gebracht als dem Chipsatz 20 oder gar 32 Lanes zu spendieren und die alle über den DMI Flaschenhals laufen zu lassen, der obendrein die Latenz erhöht.

latexdoll schrieb:
Ich möchte die Info nicht schlecht machen, aber das sieht für mich nach einen Freshup bzw. kleines Upgrade aus.
Die Entwicklung läuft eben in immer kleineren Schritten. Schau Dir an, wie wenig Mehrleistung die CPUs pro Generation heute haben und vergleiche das mit dem, was früher üblich war, als man noch von einer Generation auf die nächste den Takt verdoppelt hat.

Smartbomb schrieb:
Hoffentlich haut AMD bei ihren nächsten CPUs einen vollausgestatteten Mörderchipsatz raus, um Intel mehr Druck zu machen.
Seid AMD sich auf die APUs konzentriert, haben die sich doch im High-End Bereich selbst abgemeldet. Deren AM3+ Plattform ist noch viel älter als alles was Intel aktuell hat, bietet weder USB3 noch PCIe 3.0 und stammt im Grund von Anfang 2010, denn die 900er Chipsätze sind nur umgelabelte 800er. Von AMD erwartet ich nichts mehr, da mich Mainstream APUs nicht interessieren.
Smartbomb schrieb:
Aber die blleiben dabei: willst du besseren Chipsatz, kauf halt die teurere Plattform!
Wenn der denn besser wäre, aber das ist er ja nicht. Schau Dir doch den aktuellen X79 an, der hat nicht einmal USB3 und der X99 wird weiter mit DMI 2 kommen, obwohl der 10 SATA 6Gb/s Ports hat, die mehr als die dreifache Bandbreite auslasten könnten. Die Enthusiasten Plattform hängt ja bei Intel dem Mainstream inzwischen um ein bis zwei Generationen zurück.

Piktogramm schrieb:
@Moep89: DMI3.0 wird in etwa 4GB/s übertragen können.
Theoretisch, wenn man den Overhead nicht berücksichtigt. Praktisch kannst Du rund 20% abziehen und je mehr Lanes es sind, umso mehr. Bei DMI2 geht ungeführ so 1.6 GB/s, wir reden also bei DMI3 dann von realen 3.2GB/s Nettodatentransferrate, wenn alles optimal ist.

Piktogramm schrieb:
Welche realen Einsatzgebiete fallen dir ein, wo diese Bandbreite für mehr als Sekundenbruchteile bzw. (sehr) wenige Sekunden wirklich voll ausgelastet werden kann?
Wenn ich sehe, dass die Plattform bis zu 3 SSDs mit PCIe 3.0 x4 anbinden können soll, dann fallen mir da schon welche ein, denn schon Intel P3000er Reihe kommt auf über 2.7GB/s mit PCIe 3.0 x4 Anbindung. Das sind noch Enterprise SSDs, aber die Consumer Modelle werden bald nachziehen, die Preise von NAND fallen immer noch und die Geschwindigkeiten steigen immer weiter. In 3 Jahren dürften TB SSDs um die 100€ kosten und dann ist es keine Illusion mehr, mehr als eine davon im Rechner haben zu wollen und diese ggf. auch gleichzeitig zu nutzen. In 3 Jahren wird aber DMI3 noch aktuell sein, hat Intel doch DMI2 mit den 60er Chipsätzen Dienst eingeführt.

Piktogramm schrieb:
Der nutzen einer breiten Schnittstelle ist einfach gering und wieso sollte man der Fertigung verteuern und die Leistungsaufnahme in die Höhe treiben wenn der Nutzen einer höheren Bandbreite für den aller größten Teil der Kunden nicht vorhanden ist.
Heute haben die S115x CPUs 20 PCIe Lanes, 4 davon für DMI. Wäre man DMI auf x8 bringen, wären das 20% mehr, so teuer kann das nicht sein. Die Leistungsaufname wäre nur höher, wenn man die Lanes auch nutzt, sonst werden sie einfach deaktiviert, das ist heute schon Standard (ASPM power saving).

Piktogramm schrieb:
Öhm ja DMI 3.0 wird knapp 4GB/s durch die Gegend schieben können. Bei recht geringem Overhead ;)
Geringer Overhead? Träume weiter, PCIe hat mehr Overhead als SATA oder gar Ethernet! Da kann man 20% abziehen, wenn man von Butto auf Netto kommen will.

Piktogramm schrieb:
10Gbit Netzwerktechnik ist mit Switches+1 Netzwerkkarte ab 400€ für Normalos zu teuer (auch für viele Nerds).
Noch, da es eben nur Technik für Profis ist, aber wenn das Mainstream wird, fallen die Preise schnell, so wie heute Gigabit nicht teurer als Fast Ethernet ist und keiner mehr mit 100MBit Netzwerken anfängt, sondern die alten Dinger aufrüstet. Bei den Transferraten die heute selbst HDDs bieten und den Datenvolumen mit denen man heute umgeht, sind die Bandbreiten alle Schnittstellen in den letzten Jahren gestiegen, selbst die von WLAN, nur das LAN hängt eben schon lange bei 1GBit fest, da 10GBit noch immer nicht in den Chipsätzen integriert ist.

Piktogramm schrieb:
Selbst wenn du es schaffen magst mit dem Umherschieben von Daten eine 1GB/s SSD auszulasten. Brauchst du halt 2GB/s Brandbreite und damit etwa 50% von dem was DMI 3.0 schafft.
Wer wll denn SSD mit nur 1GB/s (also PCIe 2.0 x2 und nur Brutto)? Da bremst doch schon wieder die Schnittstelle die NANDs aus. Die werden bald durch solche mit mindestens 2GB/s Anbindung ersetzt werden, dann durch welche mit 4GB/s Anbindung (Intel DC P3000 SSDs habe die schon!) und dann reizt eine davon die DMI 3 Bandbreite voll aus.
Piktogramm schrieb:
Selbst mit Raidkonstrukten aus solch derart schnellen SSDs, WIE willst du die mit Daten versorgen? Die restliche Peripherie lässt es kaum zu und kein Mensch hat eine Bank aus 5 USB 3.0 Laufwerken am Rechner stecken um Daten zu kopieren.
Die Daten kommen ja auch aus dem RAM und dessen Bandbreite liegt noch weit darüber, da sind 20GB/s heute schon kein Thema und DDR4 wird das selbst bei Dual Channel noch mal steigern.
Piktogramm schrieb:
Ach ja, Thunderbolt schafft den Spaß auch nicht, da gibt es auf absehbare Zeit auch keine Datenquelle/-senke die entsprechend Bandbreite fordern würde.
Und das weißt Du genau? Es wird als keiner schnelle SSDs in einem TB Gehäuse bringen, so wie das LaCie Little Big Disk ThunderBolt 2 Achieves Wicked Speed With 2 x XP941 PCIe M.2 SSDs in RAID 0? Das gibt es schon und die dort verbauten XP941 SSDs könnten im RAID 0 mehr Durchsatz schaffen als TB heute bietet.

Klar sind das keine Mainstream Lösungen, zumindest heute noch nicht wo SSDs pro GB ungleich teurer als HDDs sind und vor allem die ersten mit PCIe Interface, aber das wird sich während der Nutungsdauer von DMI3 wohl ändern und vielleicht schon, bevor es überhaupt erst eingeführt ist, erst recht wenn man bedenkt, wie lange Intel braucht es dann auch für die Enthusiasten Plattform zu bringen.
Piktogramm schrieb:
DMI 3.0 ist ganz grob erst die Schwachstelle WENN

die 2 SSDs gleichzeitig beschrieben werden und als Datenquelle 16 herkömmliche HDD dienen (2000MB/s durch 120MB/s) oder andersherum von den SSDs lesen und auf die 16HDDs schreiben. Jetzt sei einfach mal ehrlich, ist DAS dein Szenario?
Ein total veraltetes, denn Du vergisst die Entwicklung der SSDs und vor allem von deren Preisen und Kapazitäten. Wer hätte vor 3 Jahren, als eine 256GB noch 350€ gekostet hat und so ungefähr das Größte war, was man kaufen konnte, schon gedacht dafür heute eine mit 1TB zu bekommen? In 3 Jahren, wären dann 4TB SSD durchaus erschwinglich, die werden dann kein SATA Interface mehr haben sondern wohl PCIe 3.0 x4 und man kann mit einer DMI3 auslasten, welches beim aktuellen Rhythmus von Intel wohl noch weitere 3 Jahre bleiben wird.

Piktogramm schrieb:
Egal wie man es dreht, 4GB/s reichen auf absehbare Zeit auch für zukünftige Peripherie aus.
"Niemand braucht mehr als 640kB RAM in seinem PC." (Bill Gates 1981)

Miuwa schrieb:
Stichwort Bündelungsgewinn.
Natürlich, aber wirst Du Dich nicht ärgern, wenn Du zwei oder drei schnelle SSDs im System hast und diese vom DMI Flaschenhals ausgebremst werden? Ich schon und ich bin damit offenbar nicht alleine.

ilovecb schrieb:
Ich wäre schon froh, wenn sata3 durch sata4 o.ä. Ersetzt wird.
Es wird kein SATA 4 geben, SATA 3.2 spezifiziert PCIe als Nachfolger, weil man damit eben besser skalieren kann und es eine Entwicklung ist und nicht zwei.

ilovecb schrieb:
Sata express und m2 ist bei der aktuellen anbindung und der fehlenden ssd front sowas von halbgar, dass man das kaum als echten praxisnachfolger feiern kann.
Ja es ist halbgar, denn es ist noch nagelneu. Aber schau Dir mal die Intel DC P3000 Baureihe an, dann weißt Du, was bald auch die Consumer SSD können werden, das wird nicht so lange dauern, da kannst Du sicher sein. Schau Dir an, wie schnell die SSD Hersteller alle auf SATA 6Gb/s umgestiegen sind und wie schnell sie die Schnittstelle ausgereizt haben. Glaube nicht, dass es mit PCIe anders sein wird, wenn die Schnittelle da ist, wird sie ganz schnell ausgereizt werden, egal wie viel Nutzen man im Alltag davon wirklich hat.
 
Holt, bei 4x PCIe 3.0 kommt man auf eine Bandbreite von 4GB/s OHNE Protokolloverhead. Das was an Steuerdaten unter diesem nutzdatenstrom ist kann man vernachlässigen. Die Geminhin ~20% Protokolloverhead von PCIe sind in meinen Angeben nicht enthalten.

Ansonsten ja, viel Sachen werden günstiger werden. Es gibt aber derzeit keine mir bekannte Entwicklung, die auch nur bezahlbare Konsumenten Hardware auf 10Gbit Basis ankündigt. Small Business ok, aber eben nicht unter besagten +200€ Switches +200€ Netzwerkkarten.

Auch vergesse ich die Entwicklund der SSDs nicht. Da gibt es schnelle Modelle, nur wenn die ihre paar GB Puffer vollgeschrieben haben brechen die Dinger ein. Daher, auch moderne (und zukünftige) SSDs werden dieses Problem haben solang man nicht die teuren Server SSDs kauft oder auf den Costumer SSD riesen SpareAreas reserviert. Abgesehen davon, außer nur zu meckern, nenn mir eine für Endkunden Reale Datensenke/Quelle!
Klar der RAM und die GPU können enorme Datenraten bereitstellen, aber was willst du mir Arbeitsdatensätzen als Endkunde auf der SSD? Das was der Endverbraucher macht ist: Programm starten, Daten laden, Daten speichern, fertig.
Programmstarts sind seit dem Aufkommen von SSDs wieder CPU limitiert, das laden von Daten auch und das Speichern meist ebenso.

Ich bleib dabei, abgesehen von Enterpriseanwendungen gibt es wenig Szenarien wo DMI 4.0 limitieren wird. Langfristig ja, aber derart langfristig das bis dahin auch Skylake veraltet sein wird.
 
Zuletzt bearbeitet:
"mangelhafte Anzahl" ist mal etwas unglücklich formuliert ... unzureichende Anzahl würde es wohl besser treffen. ;)
 
@Moep89 und Holt:
Nochmal, es geht nicht darum, dass man nicht mehr Daten aus bezahlbarer Peripherie raus holen kann, als das neue DMI verarbeiten kann. Die Frage ist, bei welchen - nichtprofessionellen - Anwendungen brauche ich höhere Datenraten?

Nur um mal ein paar Vergleichswerte zu ziehen: Via DMI 3.0 kann man eine 2TB SSD (bzw. ein Äquivalentes RAID) theoretisch innerhalb von 10 Minuten kopieren, ein 2GB Level File lässt sich innerhalb von einer halben Sekunde in den Arbeitsspeicher transferieren und beim Suspend-to-Disk lassen sich selbst 8 GB Arbeitsspeicher in etwa 2-3 Sekunden auf die Festplatte dumpen (Alles darüber dürfte in 90% der Fälle Filecache sein).
Bei Wahlfreien Zugriffen, wie sie beim Start von Windows oder Programmen auftreten sind SSDs noch weit von ihrem Maximum entfernt und selbst wenn: Was denkt ihr, um wieviel sich der OS Start (in Sekunden) durch eine Verdopplung des DMI Durchsatzes beschleunigen ließe? Ne Sekunde? Ne halbe?

Also, in welchem Anwendungsszenario denkt ihr, dass euch das neue DMI in den nächsten 4 Jahren einschränken wird? Oder anders herum gefragt: Selbst wenn das DMI merklich schneller wäre - denkt ihr, ihr würdet euch dann schnellere und mehr Hardware kaufen um dieses auszureizen? (Für obige Angaben wären bereits 7 Sata SSDs nur auf einer Seite nötig)

Davon abgesehen bin ich allerdings überzeugt, dass Intel nicht gesagt hat "mehr als 4 GB/s wird keine Heimanwender brauchen und daher wäre alles darüber ne Verschwendung und viel zu teuer", sondern eher "4 GB/s wird den Meisten genügen und alle anderen sollen gefälligst unsere E Plattformen kaufen!". Intels Hauptkonkurrenz im Enthusiast- Bereich ist leider Intel selbst.

Geringer Overhead? Träume weiter, PCIe hat mehr Overhead als SATA oder gar Ethernet! Da kann man 20% abziehen, wenn man von Butto auf Netto kommen will.
Bist du sicher, dass du das nicht mit der 8b10b Kodierung bei PCIe 1 und 2 verwechselst? Die ist bei den Angaben bereits herausgerechnet. Oder gibt es da auf höherer Protokollebene noch so viel Overhead? Bei der dritten Version geht durch die Kodierung übrigens weniger als 2% verloren .
 
Zuletzt bearbeitet:
MikelMolto schrieb:
...Selbst wenn man Daten mit 1 GB/s zur CPU schickt, damit die dann damit irgendwas macht, ist doch die CPU der Flaschenhals...

Ist das wirklich so? Oder ist der Bus der Flaschenhals? ;) Zur Zeit gehen vom RAM zwischen 25 und 50 GB/s (theoretisch, "praktisch" weniger) zur CPU...
 
@mr.Seymour Buds:

Also DDR3-1600 schafft je Kanel ~12,6GB/s, DualChanel also ~25GB/s. Bei 50GB/s ist man dann wieder bei Serverhardware ;)

Der Arbeitsspeicher wird großteils mit Arbeitsdatensätzen besetzt. Die Arbeitsdaten nehmen dabei IMMER ein Vielfaches der Daten ein als die Programmdaten, die vom Festspeicher kommen. Schau dir nur mal übliche Browser an, deren Programmordner ist keine 100MB groß, von diesen 100MB wird nur ein Bruchteil zum Programmstart geladen und trotzdem gönnt sich Browser mit nur wenigen Tabs 100MB Arbeitsspeicher und mehr. Wobei diese Arbeitsdatensätze nur sehr sehr sehr selten auf den Festspeicher gezogen werden. Bringt halt wenig.
 
Ist das Serverhardware? Nein, oder?
 
ich_nicht schrieb:
Ja Mensch 4 Lanes mehr da kann man schon mal klatschen: klatsch, klatsch...
Das ist ein Armutszeugnis. Soviel technische Weiterentwicklung und dann so eine Steigerung? Kann doch nicht sein.

Der ATI Xpress 3200 Chipsatz bot damals VIERZIG Lanes an, warum ist das so schwer einfach mal in der heutigen Zeit genug von denen unterzubringen?
 
Naja, ein Unterschied ist natürlich, dass die Grafikkarte nicht über den Chipsatz angebunden werden muss, womit wir dann immerhin FAST Gleichstand hätten. Aber davon abgesehen will Intel wahrscheinlich einfach nur seine Enthusiast Platform abgrenzen.
 
Zuletzt bearbeitet:
Wie auch immer man es drehen mag, erstmal müssen die Busse mehr Daten schubsen können, sonst machen noch mehr Pferdestärken einfach keinen Sinn. 500 PS und nur 2 Radantrieb werden die Leistung nicht auf die Straße bringen.
 
Piktogramm schrieb:
Holt, bei 4x PCIe 3.0 kommt man auf eine Bandbreite von 4GB/s OHNE Protokolloverhead. Das was an Steuerdaten unter diesem nutzdatenstrom ist kann man vernachlässigen. Die Geminhin ~20% Protokolloverhead von PCIe sind in meinen Angeben nicht enthalten.
Wenn Du den Protokolloverhead nicht sehen willst, kann ich Dir auch nicht helfen. Aber überlege mal, was die SSDs mit PCIe 2.0 x2 Interface heute maximal bringen und wie viel ein RAID 0 aus 4 oder mehr schnellen SSDs an aktuellen Z87/97 Chipsätzen maximal seq. durchsetzen und stelle das in Relation zum maximalen theoretischen Durchsatz der Anbindung. Wenn Du dann den Unterschied immer noch vernachlässigst, dann kannst Du den Overhead natürlich nicht sehen.

Piktogramm schrieb:
Ansonsten ja, viel Sachen werden günstiger werden. Es gibt aber derzeit keine mir bekannte Entwicklung, die auch nur bezahlbare Konsumenten Hardware auf 10Gbit Basis ankündigt. Small Business ok, aber eben nicht unter besagten +200€ Switches +200€ Netzwerkkarten.
Solange die Chipsätze keine schnellere Ethernet Ports als Gigabit enthalten, wird sich das natürlich nichts ändern, das habe ich doch geschrieben. Jetzt gibt es eben noch keinen Chipsatz mit 10Gigabit Netzwerk und daher auch keine günstigen Komponenten dafür, weil eben Privatanwender nicht danach fragen und daher die Stückzahlen entsprechend klein sind, weil eben die Zielgruppe auch klein ist und obendrein andere Anforderungen (Managed Switches) stellen, die die Kosten ebenfalls treiben.

Piktogramm schrieb:
Auch vergesse ich die Entwicklund der SSDs nicht. Da gibt es schnelle Modelle, nur wenn die ihre paar GB Puffer vollgeschrieben haben brechen die Dinger ein.
Ein paar GB Puffer? Das hat nur die 840 Evo mit ihren Tubrowrite und dann noch SSDs von OCZ und Toshiba, die ebenfalls Pseudo-SLC verwenden, dann aber meist für mehr als nur ein paar GB. Es gibt aber auch SSDs die die ganze freie Kapazität mit voller Geschwindigkeit beschreiben können, wie z.B. die 840Pro oder die 850Pro, Crucial m550/MX100 um nur einige zu nennen.

Piktogramm schrieb:
Daher, auch moderne (und zukünftige) SSDs werden dieses Problem haben solang man nicht die teuren Server SSDs kauft oder auf den Costumer SSD riesen SpareAreas reserviert.
Wenn die SSD getrimmt wird und man vorher entsprechend viele Dateien gelöscht und dem Controller Zeit gelassen hat, dann kann man bei guten SSDs auch anschließend so viele GB schnell beschreiben, die der Controller an Free Area aufgeräumt hatte.
Piktogramm schrieb:
Ich bleib dabei, abgesehen von Enterpriseanwendungen gibt es wenig Szenarien wo DMI 4.0 limitieren wird.
DMI 4? Wir reden erst einmal von DM3 und wenn Intel sich so viel Zeit mit DMI 4 lässt wie mit den vorherigen Versionen, dann dürfte DMI 4 erst ab 2020 zu haben sein, frühestens.

Miuwa schrieb:
Für obige Angaben wären bereits 7 Sata SSDs nur auf einer Seite nötig
Es geht nicht um SATA SSDs, die werden sehr bald durch solche mit PCIe Anbindung ersetzt worden sein, das geht ja gerade los. Der Chipsatz soll für Lanes bis zu 3 solcher SSDs mit PCIe 3.0 x4 bieten, hat aber selbst nur eine solche Anbindung. Das ist meine Kritik. Man hat 20 Lanes im Ausgang und dann noch 6 SATA6Gb/s, die alleine auch noch mal die Bandbreite vom DM3 auslasten könnten und damit ein Verhältnis von 1:6 bei Eingangs- zu Ausgangsbandbreite.

Die Mainstream CPU haben ja sowieso schon 20 PCIe Lanes, 4 davon für DMI und wenn man nun DMI auf 8 Lanes erweitern würde, wären das nur 20% mehr, also nicht unglaublich viel.

Miuwa schrieb:
Bist du sicher, dass du das nicht mit der 8b10b Kodierung bei PCIe 1 und 2 verwechselst? Die ist bei den Angaben bereits herausgerechnet.
Nein, das verwechsele ich nicht und ja, der ist schon rausgerechnet, denn PCIe 3.0 hat ja auch nur 8GHz Singalfrequent und eben keine 8b/10b sondern 128b/130b, weshalb sich ja auch trotz der nur von 5 auf 8GHz gesteigerten Frequenz praktisch eine Verdoppelung ergibt.
Miuwa schrieb:
Oder gibt es da auf höherer Protokollebene noch so viel Overhead?
Natürlich, oder soll sonst geklärt werde, was für Daten von wo nach wo gehen müssen? Bei allen seq. "Bussen" werden eben nicht nur Nutzdaten übertragen, man muss immer auch ein Protokoll haben um zu wissen, was gemacht werden soll. Der Overhead entsteht auf allen Ebenen, die 8b/10b oder 128b/130b Kodierung ist ja nur die unterste Ebene, der physikalische Transport, darüber gibt es ja zwangsläufig noch mehr, Du hast den Wiki Eintrag doch selbst verlinkt. Lies da mal was dort unter "Übertragungsschichten" steht, dann siehst Du, was ich meine und vielleicht findet auch Piktogramm den Overhead endlich mal.
Miuwa schrieb:
Aber davon abgesehen will Intel wahrscheinlich einfach nur seine Enthusiast Platform abgrenzen.
Das Problem ist ja, dass die Enthusiast Plattform auch nur die DMI Anbindung der Mainstream Plattform bekommt und auch meist noch mit Verzögerung. Dabei wären bei den 44 Lanes des S.2011 (4 davon für DMI) 4 zusätzliche für DMI mit 8 Lanes keine 5% mehr, also bzgl. Kosten und Leistungsaufnahme wirklich zu vernachlässigen.
 
Ich bleib dabei, dass bisschen Overhead macht das Kraut nicht fett ;)

Das Einzige was DMI3.0 (ja ich hab mich mit "4" verschrieben) begrenzt sind Penisvergleiche durch Benchmarks und seltene, sehr extreme Kopieraufgaben. Andere reale Lastfälle gibt es in meinen Augen außerhalb des Enterpriseumfeldes nicht. Holt, bring einfach reale Gegenbeispiele anhand derer wir diskutieren können und fang nicht an mit irgendwelchem sinnigen Overhead Diskussionen an, zu denen du keine validen Quellen vorweisen kannst.

DMI3.0 ist defakto per PCIe 3.0 über 4 Lanes angebunden, ergibt exklusive (!!) Overhead durch PCIe eine nutzbare Bandbreite von 3938 MB/s je Richtung (!). Davon geht im Zweifelsfall durch div. Protokollschichten noch etwas verloren, aber ohne Angaben wie diese Protokolle funktionieren muss man da über Overhead nicht streiten. Im Zweifelsfall ist es eher wenig/unbedeutend.
Wobei ich bisher missachtet habe, dass die ~4GB/s je Richtung möglich sind. Also können gut und gerne 3-3,5GB/s über SSD egal ob Sata, SataExpress oder PCIe gelesen UND gleichzeitig geschrieben werden. Dafür gibt es beim Endkunden noch viel weniger eine Anwendung. Selbst wenn es SSDs gibt die unter nicht Produktiven Szenarien diese Werte schaffen allein oder im Doppel schaffen, was willst du damit?
 
Zurück
Oben