Fischkopp schrieb:
@Eisenfaust:
Meinst du jetzt mich?
Es ging um die Frage warum ein ATX Board mit 14 Anschlüssen ausgestattet wurde, wenn man doch auch ein größeres Board nehmen könnte, nicht wieviele Platten man auf möglichst kleinem Raum unterbringen kann!
Meine Beispiele sollten nur aufzeigen das man auch in einem kleinen Gehäuse viele Platten unterbringen kann, so what?
Aja "adds additional X SAS Ports" heisst nicht ODER, sondern kommen dazu... !
Natürlich mit zusätzlichen PCI-E Lanes, aber davon haben die 2011 CPUs ja genug
Edit: Patsburg D = X79!
C600 (alias Patsburg), Version D != X79! Wenn Du
a) die Meldungen auf dieser und anderen Plattformen verfolgt hättest und
b) das angefügte Blockbild studiert hättest,
dann wäre dieser Unsinn, den Du von Dir gibst, nicht hier gelandet! Noch zur CES war gerüchteweise zu hören, daß Intel mit dem C600-D im Konsumbereich als X79 Fuß fassen möchte. Zur CES wurde entsprechende Platinen gezeigt, die von den Ausstattungsmerkmalen dem C600-D oder -T entsprachen.
Was jetzt als X79 den Markt betritt, ist KEIN C600-D, sondern das Modell C600-B.
Und nochmals: wer lesen kann ist eindeutig im Vorteil!Selbst in diesem vorläufigen, nicht offiziellen Blockbild steht ODER, oder engl. "or" bezgl. der SAS Anschlüsse. Es wird nicht vorkommen, daß zu den SATA Anschlüssen auch noch 8 vollwertige SAS 2.0 Anschlüsse kommen, es sei denn, es handelt sich um SAS 1.0, aber das ist laut Intels Meldungen bezgl. der Ausstattung des Chipssatzes nicht der Fall.
Und aus logischer Sicht ist es entweder nur Unsinn, was Du Dir zusammenreimst oder unsägliches Wunschdenken. 8-Port SAS 2.0 Controller, zum Beispiel von LSI, werden in aller Regel mit 8 Lanes PCIe 2.0 angebunden. Jeder Port ist bei den kleineren Controllern mit 8, bei größeren sogar 16 LUNs, also Geräten, belegbar. SAS ist per definitionem bidirektional. PCIe 3.0 mit 4 Lanes, wie das angedachte DMI 3.0, hätte demnach die äquivalente Bandbreite eines PCIe 2.0 8-fach Anschlusses, um einen SAS 2.0 Controller bedienen zu können. Allerdings würde es mit 12 oder 14 zusätzlichen SATA 6GB Ports dann reichlich eng, wenn nicht gar unmöglich. Und nebenbei bemerkt: Da SAS 2.0 wie auch SAS 1.0 imstande ist, das SATA Protokoll zu handhaben, kannst Du auch an einen SAS Controller billigere SATA Platten anhängen - das machen wir mit den PERC bzw. H200 Controllern (ebenfalls LSI) in unseren Dell Servern auch so. Darüberhinaus wäre es ein sinnloser Aufwand im Chip neben SAS auch noch SATA, und dann gleich zusätzlich, 14 Controller unterzubringen. Rechne Dir mal die notwendige Bandbreite für dieses Plattenmonster aus und dann reden wir weiter.
Herdware schrieb:
Nach dem, was ich gelesen habe, haben die größeren Chipsatz-Varianten für Sockel 2011 zusätzlich zu DMI noch 4 oder 8 PCIe-Lanes, extra für die Anbindung der Massenspeicher.
Die Enttäuschung war ziemlich groß, als bekannt wurde, dass X79 auf eine kleinere Chipsatz-Version aufbaut und diese Zusatzanbindung nicht hat.
Nein, haben sie nicht, das ist eine Fehlinterpretation des Blockbildes. Diesem Irrtum bin ich auch erst aufgesessen, Nachfragen hilft an dieser Stelle. Das Bild ist nicht offiziell von Intel freigegeben.
Der Sandy Bridge E hat nur 40 PCIe Lanes. 32 werden davon auf zwei PEG 16x, 1x PEG 16 und zwei 8x Slots oder vier 8x Slots aufgeteilt, sofern der Root Controller diese Aufteilung zuläßt. Vier Lanes werden für das DMI benötigt, verbleiben also noch 4 Lanes. Und dann sind wir bei exakt der gleichen Konfiguration, wie wir sie beim LGA1366 und X58 gesehen haben. Soweit ich weiß, ist der X58 ebenfalls mit 40 PCIe 2.0 Lanes spezifiziert. 4 Lanes werden zur Anbindung des ICH10R benötigt, 36 Lanes stehen frei zur Verfügung.
Vorausgesetzt, ich habe Recht (ich kann mich auch irren und SB-E hat 44 Lanes). Das würde bedeuten, wenn 4 DMI 3.0 Lanes zusätzlich zu 4 DMI 2.0 Lanes, wie beim jetzigen X97 alias C600-B, angeboten werden würden, daß
a) der MCH C600 insgesamt 8 Lanes zur Verfügung stellen können muß
b) der MCH C600 mit PCIe 2.0 UND PCIe 3.0 im Mischbetrieb hantieren muß
c) die Kosten des MCH C600-D/T jenseits dessen liegen, was bislang die Chipsätze gekostet haben. Ich schrieb jenseits, nicht nahe anbei!
Das halte ich für ausgesprochen unwahrscheinlich. Intel kalkuliert sehr hart und hat noch nie aus Innovationsanspruch mehr als das absolut notwendige an den Mann gebracht. Mit einem DMI 3.0 wird Intel einige Engpässe beheben können, sofern es bei 14 SATA ODER alternativ 8 SAS 2.0 Ports bleibt.
MoD85 schrieb:
- Speicherbänke falsch angeordnet und nur 4 davon
- zu wenige 8x PCI-Express Slots
- nur eine Netzwerkkarte
- kein Serieller Anschluss, dafür viel anderer Müll
das wird wohl nix mit dem Servermarkt.
Über die Anordnung der Speicherbänke kann man sich streiten. Die Mainboards von Supermicro ordnen bei 1P Platinen die Speichersockel in der Regel parallel zum Luftstrom an, wenn die Trajektorie des Stromes von vorne nach hinten weist. Auf den großen 4P Platinen sitzen dann aber die Slots wieder quer. Allerdings werden solche Platinen selten in Standgehäuse eingebaut und haben, in einem 19 Zoll Schrank verbaut, auch eine ganz andere Belüftung.
Eine Netzwerkkarte ist bedauerlich. Allerdings kann ich gut und gerne auf den Realtek oder Marvell Müll verzichten. Deren TX und RX treiberstufen sind, was die mögliche Zyklen pro Zeiteinheit betrifft, arg limitiert was letztlich die Responszeit und Latenz hochschraubt. Leider werden von ASUS selbst auf hochwertigen "Server"-Platinen nur Realtek Chips verbaut. Supermicro hat auf seinen Platinen in der Regel Broadcom oder Intel. Diese Netzwerkchips sind um ein vielfaches flotter in der Antwort als Marvel oder Realtek.
Ein traditioneller RS232-9pol oder RS432 Port ist, solange USB vorhanden ist, nicht mehr zwingend nötig. Man kann selbst Terminals über USB anstöpseln, wenn man die entsprechenden Dekoder zwischenbaut. Aber was ist mit IPMI? Mit nur einer Netzkarte ist dieses in der Serverlandschaft so wichtige Ding kaum vernünftig zu realisieren.
Ergo: Du hast Recht, das Board taugt als Server gar nichts und ist etwas für dumme Schuljungen, die sich von bunten Aufklebern und Werbegeseiere auf den Leim führen lassen.
Kamikaze_Raid schrieb:
Und was bringen eiinen 14 anschlüsse? Das ist dann bereits im Raid Bereich, und Raid 5/6 macht man nicht mit diesen Onboardkram, da muss dann ein Controller ran mit eigener XOR CPU. Oder wer würde 14 Einzellaufwerke anschliedßen. (Raid0 ist Unsinn)
Mitlerweile bin ich von schnellen dedizierten RAID Lösungen abgekommen. Diese kosten in der Regel viel Geld, weil die Kontroller sehr teuer sind und dann besteht oft das Problem, daß bei Wechsel des RAID Kartenherstellers die Metadaten zum Nachfolger inkompatibel sind. Bei der heutigen Mehrkernprozessorleistung ist es viel angenehmer, ein RAID via GEOM und ZFS unter den BSD UNIXen aufzuziehen oder mit LVM unter dem UNIX-ähnlichen Linux. In vielen Fällen sind sogar die Durchsatzraten höher, wenn man ein Software-RAID zum Einsatz bringt. Dann finde ich es schon wünschenswert, viele SAS Ports zu haben - und 8 reichen völlig aus.
Anders sieht es aus, wenn man wirklich große Arrays aufbauen will, die sich über mehrere RAID Gehäuse erstrecken und redundant sein müssen. In der regel sitzen aber dann die FCAL RAID Controller in diesen Kisten und per Glasfaser und HBA werden dann diese Kisten zu einem "geswitchten" SAN zusammengefaßt. Dann wird man ganz gewiß auch keine ASUS Heim-Server-Platine verwenden.
CHAOSMAYHEMSOAP schrieb:
Serverhersteller kaufen auch keinen ASUS Schrott, sondern Boards von Supermicro, Tyan, Intel oder gleich deren Barebones.
Kasjopaja schrieb:
@CHAOSMAYHEMSOAP
Aha, und seit wann ist Asus Schrott?
ASUS hat selber einige Platinen im Angebot und ASUS drängt seit einigen Jahren aggressiv in diesen Markt. Allerdings würde ich auch keine ASUS Platinen mehr einsetzen, wenn ich einen Server fürs Labor zusammenbauen würde. EVGA ist ebenfalls ein großer OEM Serverplatinenhersteller, Supermicro ist ein US amerikanisches Unternehmen mit langer Tradition. TYAN hat mich zuweilen etwas enttäuscht, deren LGA1366-Flotte war ausgesprochen lächerlich und meiner Meinung nach nicht konkurrenzfahig. Und Intel? Wie ich oben schon schrieb, auf diesen Mainboards findet man zum stolzen Preis oftmals nur das absolut nötigste und darauf kann ich auch noch verzichten. Intels Platinen sind eher Evaluationsmaterial. Ich finde bei Supermicro einfach alles, was ich brauche. Kein Schnickschnack, angemessen viele USB Ports, die wirklich wichtigen Anschlüsse im Bereich PCIe/PCI und Netzwekr werden vernünftig und schnell angebunden. Dadurch sehen die Platinen oftmals im Vergleich zum ASUS Unsinn spärlich aus.
Aber wer sich mal die Mühe macht und herausfindet, wie denn, nur als Beispiel, bei den W6T6P WS Revolution oder Workstation die Netzkarten, die USB Anschlüsse und anderes angebunden sind, der wird schnell beim nachzählen feststellen, daß die Rechnung nicht ganz aufgeht. Oftmals müssen sich nämlich USB Controller und Netzwerkcontroller eine Lane teilen und bei der üppigen Anzahl USB Ports auf ASUS Käsebrettern kommt dann doch gewisser Zweifel auf. Welchen Unterschied das im Serverbetrieb ausmacht kann man nur sehen, wenn man belastete Systeme nebeneinander laufen hat. Die "einfach" angebundenen Supermicro Platinen bedienen mit ihren Intel Server NICs (onboard, gleich zwei davon!) NFSv4 Klienten und anderer Netzverkehr deutlich zügiger als ASUS mit Realtek Chip (wohlgemerkt, auch Serverboard).
Irgendwoe steht dem PR-Gesülze der Studienversager dann doch die harte realität und Physik im Wege ...