News Asus: „Sandy Bridge-E“-Platine mit 14 SATA/SAS-Ports

@CHAOSMAYHEMSOAP
Das ASUS Mainstream-Zeugs... ok, aber die Serverhardware von ASUS ist spitze und der Support von ASUS Serverhardware ist um Welten besser als Tyan und auch teilweise besser als Supermicro.
 
Die Anschlüsse wären toll für meinem Videoschnitt-PC, aber dort reicht mir ein kleiner CPU. Da es sowas nicht für SB-E geben soll - leider nichts für mich
 
Deluxe zwölf SAS/SATA-Port in abgewinkeltem Zustand sowie zwei weitere Anschlüssen [...]

Da ist wohl ein "n" zu viel im Text.
 
@ akira883
bei 14 sata anschlüsse brauchste aber schon ein riesen gehäuse um all die laufwerke unterzubringen. ich glaub da is dann e-atx auch kein thema mehr. von daher für mich ein wenig unverständlich
Überhaupt nicht, Midi-Tower reicht aber sowas von locker!
2x das eingebaut:
http://geizhals.at/deutschland/629483
und schon sind 12 Platten auf 2x 5,25" verbaut!
Gerade für Leute die SSDs nutzen sind viele SATA-Ports sehr sinnvoll - denn man will ja auch noch einen DVD-Brenner anschliessen!
 
14 Anschlüsse sind krass, aber wieso müssen die immer abgewinkelt sein? (abgesehen von den 2 senkrechten).

Das ist doch viel fummliger da was einzustecken als bei senkrechten Anschlüssen, oder nicht?
 
Ist nur meine persönliche Erfahrung, aber die abgewinkelten halten besser - zumindet bei denen, die keinen Clip zur Befestigung haben!
Es sieht ganz schön bescheiden aus, wenn vom Brett 8 Kabel senkrecht nach oben abgehen - und stört auch die Luftzirkulation!
Im übrigen waren bei dem von mir geposteten Backplane auch schon abgewinkelte Stecker dabei! Damit ist es ziemlich ideal - bei abgewinkelten Anschlüssen am Board!
 
Angewinkelte halten besser, plus man hat sie nicht quer überm Mainboard hängen.
 
an alle die die farbe an das grün alter boards erinnert:

tut es defintiv!

aber es soll wohl trendy im armystyle sein, daher sehe ich da camouflage.
und schon ist es nicht mehr oldschool, sondern kiddystyle.
mir persönlich würde ein "altes" grün besser gefallen, als der militarylook,
den brauchen wohl nur u16-jährige egoshooterzocker.
 
Fischkopp schrieb:
Wenn die ATX sind, fresse ich einen Besen!

Das kann schon vom Abstand PCIe Slots zur Kante mit den Sata Ports kein ATX sein:
Siehe da:
http://upload.wikimedia.org/wikipedia/commons/thumb/3/31/ATX_Formate.jpg/532px-ATX_Formate.jpg
Na dann guten Appetit. Das sind die Standard ATX-Montagelöcher.
Das EVGA Classified3 ist nen EATX, das geht etwas über die Montagelöcher hinaus. Genau so wie das von dir genannte Maximus 4.
http://www.evga.com/PRODUCTS/enlarge.asp?PN=141-GT-E770-A1&I=5
Das GA-X58A-OC zum Beispiel wird als ATX-Board verkauft, passt aber eigentlich nicht in die Spezifikation hinein, es ist minimal größer. (Aber wird wohl trotzdem in so gut wie jedes ATX-Gehäuse passen.)

Das sollen ja auch Consumer-Boards werden. Da wird man nen Teufel tun und alle Boards im ATX-Format bringen. Da schließt man ja einige Kunden aus.

anexX schrieb:
Angewinkelte halten besser, plus man hat sie nicht quer überm Mainboard hängen.
Ich hatte noch nie Probleme mit rausrutschenden SATA-Steckern, egal ob abgewinkelt oder nicht und mit Clip oder ohne Clip.
Abgewinkelte Stecker sind imho bei großen Gehäusen besser. Bei engen Gehäusen wo die HDDs quer eingebaut nah am Mainboard sind, sind abgewinkelte dagegen eher schlecht.
 
Zuletzt bearbeitet:
Na dann guten Appetit. Das sind die Standard ATX-Montagelöcher.

Hab schon danke, war lecker :D

Das X58 OC ist, wie du schon selber bemerkt hast, eigentlich genaus groß wie das Maximus = ich habe beide hier, also auch eigentlich ein E-ATX Board, weil größer als 9,6 inch (Das Classified ist ja auch genauso groß!).
Aber das ist Erbsenzählerei ;)

Es wundert mich nur, weil mal die Rede davon war das S2011 Boards mit 8 Slots nicht auf ATX passen! Dazu sehen die Asus Boards für mich ziemlich Quadratisch aus, ATX Boards kenne ich eher als Rechteckig :D
Wenn es dann doch in ATX geht = um so besser.
 
Zuletzt bearbeitet:
Hoffe es war nur ein kleiner Handfeger. :D

Quadratisch sind die ja noch lange nicht, da täuscht vielleicht auch die Perspektive. Viele ATX-Boards nutzen nicht die äußeren Löcher und sind dadurch erheblich schmaler.

Die Gerüchte kamen wohl nach der Computex auf wo die Vorserienboards alle nur 4 DIMM-Slots hatten.
Was wohl nicht auf ein ATX-Board passt sind 8 Dimm-Slots und 7 PCIe-Slots. Hab zumindest noch keines gesehen.
 
Was wohl nicht auf ein ATX-Board passt sind 8 Dimm-Slots und 7 PCIe-Slots.

Hmm sind die nicht XL-ATX?
Also für Gehäuse mit 8 bis 10 Slots?
Sprich länger statt breiter!
Siehe Classified 4, Gigabyte Assassin usw.?

Wäre ja seltsam wenn die nur in die Breite gingen, weil ja die Slots "unter" den Speichern sind.
Heisst wohl abwarten bis die Dinger im Handel sind ;)
 
7 Slots passen ja problemlos auf ein ATX-Board. Nur scheint es so, dass man durch 8 DIMM Slots einige Bauteile über oder unter dem Sockel platzieren muss, weil daneben kein Platz mehr ist. Dadurch fehlt dann in der vertikalen der nötige Raum und es fehlt der oberste Slot. Bei nem EATX-Board könnte das dann wieder passen.

Sicher wird es auch XL-ATX Boards geben mit mehr als 7 PCIe-Slots. Nur sind das ja absolute Nischenprodukte. So viele passende Gehäuse gibt es gar nicht.
Vielleicht bekomtm ja auch doch noch einer 8 DIMMs und 7 PCIe-Slots auf nen ATX-Board gequetscht.
 
Habe ich was verpasst?! :D

Wie kommt ASUS in den Bereich von Servern?

Dort stehen doch meist nur SAN's und Bladeserver .. oder halt 19" Server mit mehreren HE's und ECHTEN Serverboards?!
 
Fischkopp schrieb:
@Eisenfaust:
Meinst du jetzt mich?
Es ging um die Frage warum ein ATX Board mit 14 Anschlüssen ausgestattet wurde, wenn man doch auch ein größeres Board nehmen könnte, nicht wieviele Platten man auf möglichst kleinem Raum unterbringen kann!
Meine Beispiele sollten nur aufzeigen das man auch in einem kleinen Gehäuse viele Platten unterbringen kann, so what?

Aja "adds additional X SAS Ports" heisst nicht ODER, sondern kommen dazu... !

patsburg.jpg


Natürlich mit zusätzlichen PCI-E Lanes, aber davon haben die 2011 CPUs ja genug ;)

Edit: Patsburg D = X79!

C600 (alias Patsburg), Version D != X79! Wenn Du

a) die Meldungen auf dieser und anderen Plattformen verfolgt hättest und
b) das angefügte Blockbild studiert hättest,

dann wäre dieser Unsinn, den Du von Dir gibst, nicht hier gelandet! Noch zur CES war gerüchteweise zu hören, daß Intel mit dem C600-D im Konsumbereich als X79 Fuß fassen möchte. Zur CES wurde entsprechende Platinen gezeigt, die von den Ausstattungsmerkmalen dem C600-D oder -T entsprachen.

Was jetzt als X79 den Markt betritt, ist KEIN C600-D, sondern das Modell C600-B.

Und nochmals: wer lesen kann ist eindeutig im Vorteil!Selbst in diesem vorläufigen, nicht offiziellen Blockbild steht ODER, oder engl. "or" bezgl. der SAS Anschlüsse. Es wird nicht vorkommen, daß zu den SATA Anschlüssen auch noch 8 vollwertige SAS 2.0 Anschlüsse kommen, es sei denn, es handelt sich um SAS 1.0, aber das ist laut Intels Meldungen bezgl. der Ausstattung des Chipssatzes nicht der Fall.

Und aus logischer Sicht ist es entweder nur Unsinn, was Du Dir zusammenreimst oder unsägliches Wunschdenken. 8-Port SAS 2.0 Controller, zum Beispiel von LSI, werden in aller Regel mit 8 Lanes PCIe 2.0 angebunden. Jeder Port ist bei den kleineren Controllern mit 8, bei größeren sogar 16 LUNs, also Geräten, belegbar. SAS ist per definitionem bidirektional. PCIe 3.0 mit 4 Lanes, wie das angedachte DMI 3.0, hätte demnach die äquivalente Bandbreite eines PCIe 2.0 8-fach Anschlusses, um einen SAS 2.0 Controller bedienen zu können. Allerdings würde es mit 12 oder 14 zusätzlichen SATA 6GB Ports dann reichlich eng, wenn nicht gar unmöglich. Und nebenbei bemerkt: Da SAS 2.0 wie auch SAS 1.0 imstande ist, das SATA Protokoll zu handhaben, kannst Du auch an einen SAS Controller billigere SATA Platten anhängen - das machen wir mit den PERC bzw. H200 Controllern (ebenfalls LSI) in unseren Dell Servern auch so. Darüberhinaus wäre es ein sinnloser Aufwand im Chip neben SAS auch noch SATA, und dann gleich zusätzlich, 14 Controller unterzubringen. Rechne Dir mal die notwendige Bandbreite für dieses Plattenmonster aus und dann reden wir weiter.

Herdware schrieb:
Nach dem, was ich gelesen habe, haben die größeren Chipsatz-Varianten für Sockel 2011 zusätzlich zu DMI noch 4 oder 8 PCIe-Lanes, extra für die Anbindung der Massenspeicher.
Die Enttäuschung war ziemlich groß, als bekannt wurde, dass X79 auf eine kleinere Chipsatz-Version aufbaut und diese Zusatzanbindung nicht hat.

Nein, haben sie nicht, das ist eine Fehlinterpretation des Blockbildes. Diesem Irrtum bin ich auch erst aufgesessen, Nachfragen hilft an dieser Stelle. Das Bild ist nicht offiziell von Intel freigegeben.
Der Sandy Bridge E hat nur 40 PCIe Lanes. 32 werden davon auf zwei PEG 16x, 1x PEG 16 und zwei 8x Slots oder vier 8x Slots aufgeteilt, sofern der Root Controller diese Aufteilung zuläßt. Vier Lanes werden für das DMI benötigt, verbleiben also noch 4 Lanes. Und dann sind wir bei exakt der gleichen Konfiguration, wie wir sie beim LGA1366 und X58 gesehen haben. Soweit ich weiß, ist der X58 ebenfalls mit 40 PCIe 2.0 Lanes spezifiziert. 4 Lanes werden zur Anbindung des ICH10R benötigt, 36 Lanes stehen frei zur Verfügung.
Vorausgesetzt, ich habe Recht (ich kann mich auch irren und SB-E hat 44 Lanes). Das würde bedeuten, wenn 4 DMI 3.0 Lanes zusätzlich zu 4 DMI 2.0 Lanes, wie beim jetzigen X97 alias C600-B, angeboten werden würden, daß

a) der MCH C600 insgesamt 8 Lanes zur Verfügung stellen können muß
b) der MCH C600 mit PCIe 2.0 UND PCIe 3.0 im Mischbetrieb hantieren muß
c) die Kosten des MCH C600-D/T jenseits dessen liegen, was bislang die Chipsätze gekostet haben. Ich schrieb jenseits, nicht nahe anbei!

Das halte ich für ausgesprochen unwahrscheinlich. Intel kalkuliert sehr hart und hat noch nie aus Innovationsanspruch mehr als das absolut notwendige an den Mann gebracht. Mit einem DMI 3.0 wird Intel einige Engpässe beheben können, sofern es bei 14 SATA ODER alternativ 8 SAS 2.0 Ports bleibt.


MoD85 schrieb:
- Speicherbänke falsch angeordnet und nur 4 davon
- zu wenige 8x PCI-Express Slots
- nur eine Netzwerkkarte
- kein Serieller Anschluss, dafür viel anderer Müll

das wird wohl nix mit dem Servermarkt.

Über die Anordnung der Speicherbänke kann man sich streiten. Die Mainboards von Supermicro ordnen bei 1P Platinen die Speichersockel in der Regel parallel zum Luftstrom an, wenn die Trajektorie des Stromes von vorne nach hinten weist. Auf den großen 4P Platinen sitzen dann aber die Slots wieder quer. Allerdings werden solche Platinen selten in Standgehäuse eingebaut und haben, in einem 19 Zoll Schrank verbaut, auch eine ganz andere Belüftung.

Eine Netzwerkkarte ist bedauerlich. Allerdings kann ich gut und gerne auf den Realtek oder Marvell Müll verzichten. Deren TX und RX treiberstufen sind, was die mögliche Zyklen pro Zeiteinheit betrifft, arg limitiert was letztlich die Responszeit und Latenz hochschraubt. Leider werden von ASUS selbst auf hochwertigen "Server"-Platinen nur Realtek Chips verbaut. Supermicro hat auf seinen Platinen in der Regel Broadcom oder Intel. Diese Netzwerkchips sind um ein vielfaches flotter in der Antwort als Marvel oder Realtek.

Ein traditioneller RS232-9pol oder RS432 Port ist, solange USB vorhanden ist, nicht mehr zwingend nötig. Man kann selbst Terminals über USB anstöpseln, wenn man die entsprechenden Dekoder zwischenbaut. Aber was ist mit IPMI? Mit nur einer Netzkarte ist dieses in der Serverlandschaft so wichtige Ding kaum vernünftig zu realisieren.

Ergo: Du hast Recht, das Board taugt als Server gar nichts und ist etwas für dumme Schuljungen, die sich von bunten Aufklebern und Werbegeseiere auf den Leim führen lassen.


Kamikaze_Raid schrieb:
Und was bringen eiinen 14 anschlüsse? Das ist dann bereits im Raid Bereich, und Raid 5/6 macht man nicht mit diesen Onboardkram, da muss dann ein Controller ran mit eigener XOR CPU. Oder wer würde 14 Einzellaufwerke anschliedßen. (Raid0 ist Unsinn)

Mitlerweile bin ich von schnellen dedizierten RAID Lösungen abgekommen. Diese kosten in der Regel viel Geld, weil die Kontroller sehr teuer sind und dann besteht oft das Problem, daß bei Wechsel des RAID Kartenherstellers die Metadaten zum Nachfolger inkompatibel sind. Bei der heutigen Mehrkernprozessorleistung ist es viel angenehmer, ein RAID via GEOM und ZFS unter den BSD UNIXen aufzuziehen oder mit LVM unter dem UNIX-ähnlichen Linux. In vielen Fällen sind sogar die Durchsatzraten höher, wenn man ein Software-RAID zum Einsatz bringt. Dann finde ich es schon wünschenswert, viele SAS Ports zu haben - und 8 reichen völlig aus.

Anders sieht es aus, wenn man wirklich große Arrays aufbauen will, die sich über mehrere RAID Gehäuse erstrecken und redundant sein müssen. In der regel sitzen aber dann die FCAL RAID Controller in diesen Kisten und per Glasfaser und HBA werden dann diese Kisten zu einem "geswitchten" SAN zusammengefaßt. Dann wird man ganz gewiß auch keine ASUS Heim-Server-Platine verwenden.

CHAOSMAYHEMSOAP schrieb:
Serverhersteller kaufen auch keinen ASUS Schrott, sondern Boards von Supermicro, Tyan, Intel oder gleich deren Barebones. ;)

Kasjopaja schrieb:
@CHAOSMAYHEMSOAP

Aha, und seit wann ist Asus Schrott?

ASUS hat selber einige Platinen im Angebot und ASUS drängt seit einigen Jahren aggressiv in diesen Markt. Allerdings würde ich auch keine ASUS Platinen mehr einsetzen, wenn ich einen Server fürs Labor zusammenbauen würde. EVGA ist ebenfalls ein großer OEM Serverplatinenhersteller, Supermicro ist ein US amerikanisches Unternehmen mit langer Tradition. TYAN hat mich zuweilen etwas enttäuscht, deren LGA1366-Flotte war ausgesprochen lächerlich und meiner Meinung nach nicht konkurrenzfahig. Und Intel? Wie ich oben schon schrieb, auf diesen Mainboards findet man zum stolzen Preis oftmals nur das absolut nötigste und darauf kann ich auch noch verzichten. Intels Platinen sind eher Evaluationsmaterial. Ich finde bei Supermicro einfach alles, was ich brauche. Kein Schnickschnack, angemessen viele USB Ports, die wirklich wichtigen Anschlüsse im Bereich PCIe/PCI und Netzwekr werden vernünftig und schnell angebunden. Dadurch sehen die Platinen oftmals im Vergleich zum ASUS Unsinn spärlich aus.
Aber wer sich mal die Mühe macht und herausfindet, wie denn, nur als Beispiel, bei den W6T6P WS Revolution oder Workstation die Netzkarten, die USB Anschlüsse und anderes angebunden sind, der wird schnell beim nachzählen feststellen, daß die Rechnung nicht ganz aufgeht. Oftmals müssen sich nämlich USB Controller und Netzwerkcontroller eine Lane teilen und bei der üppigen Anzahl USB Ports auf ASUS Käsebrettern kommt dann doch gewisser Zweifel auf. Welchen Unterschied das im Serverbetrieb ausmacht kann man nur sehen, wenn man belastete Systeme nebeneinander laufen hat. Die "einfach" angebundenen Supermicro Platinen bedienen mit ihren Intel Server NICs (onboard, gleich zwei davon!) NFSv4 Klienten und anderer Netzverkehr deutlich zügiger als ASUS mit Realtek Chip (wohlgemerkt, auch Serverboard).
Irgendwoe steht dem PR-Gesülze der Studienversager dann doch die harte realität und Physik im Wege ...
 
Gut- bei dem Support den Supermicro bei ihren WS/Serverboards leistet ,kann sich ASUS ne`dicke Scheibe abschneiden.Tyan ist Tristesse pur...:rolleyes: EVGA von der Qualität natürlich vor ASUS.Aber von allem Schrott,der so auf die Consumer losgelassen wird ist ASUS immer noch das kleinste Übel,wenn man ein begrenztes Budget hat.Gigagyte hat sich zwar schon gebessert,würde ich mal als Nr. 2 durchgehen lassen-aber was dann kommt kann zu 50 % ein Reinfall werden..Wer z.B. jetzt sagt
Foxxcon ist doch eigentlich der größte Lieferant hat wohl recht.Aber da kommt der meiste Schrott her - einmal Foxxcon und nie wieder!:freak:
 
wer lesen kann ist eindeutig im Vorteil!Selbst in diesem vorläufigen, nicht offiziellen Blockbild steht ODER, oder engl. "or" bezgl. der SAS Anschlüsse.

Öhm wenn schon dann steht da
die Grundausstattung blabla
dann:

Patsburg Entry -A
4 Ports of Scu Sata 6GB/S
Patsburg B
Erweitert um 6 Gb/S SAS Support
Patsburg D
erweitert um WEITERE 4 6 Gb/S Sata ODER 8 SAS Ports!

Ob das Schaubild nun stimmt oder nicht ist mir in diesem Moment ehrlich Scheissegal, aber wenn man schon jemandem vorhalten will nicht lesen zu können, sollte man erstmal selbst alles lesen wa DA steht und nochmal nachdenken!
Ich bin des Englischen aus dem täglichen Sprachgebrauch und durchs Berufsleben/praktisches ausführen vor Ort durchaus mächtig ;)

Das man auch Sata Platten an SAS hängen kann sehe ich jeden Tag an meinen LSI Controllern von denen ich selber mehrere im Einsatz habe, aber Danke für die erneute Aufklärung!

Übrigens auch was die SAS Sache angeht, scheinbar stimmt da was nicht!
Denn es wundert mich das es schon laufende Boards mit SAS und SATA zu geben scheint, aber da irren sich die Herren wohl die die Boards seit ein paar Wochen benutzen ;)

Man wird es ja sehen wenn die Boards da sind, gell?
Schönen Tag noch :)

Edit: Aja
Was Meldungen auf diversen Seiten angeht, so würde der SB-E erst im Januar erscheinen, weil der Patsburg noch gar nicht fertig sein könnte. Würde es aktuell noch keine Sockel 2011 CPUs ohne Virtualisierungsfehler geben da Intel erst noch am Stepping arbeiten muss, würden alle X79 Boards nur 2 Sata 6GB/s Anschlüsse haben, gäbe es keine Boards mit PCI-E 3.0 (bzw. einige Seiten haben wenigstens geschrieben das es ja dann doch den Herstellern überlassen bleibt!) usw.
Ich vertraue lieber nicht auf Glaskugelleser, sondern benutze andere Quellen :)
 
Zuletzt bearbeitet:
Ist das ein hässliches Bord! Zudem mag ich es überhaupt nicht, dass alle SATA-Anschlüsse abgewinkelt sein müssen. Ist zwar platzsparend, aber wenigstens zwei Stück könnte man wenigstens normal raufpacken.
 
Zurück
Oben