10 GbE Videoschnittserver - Selbstbauberatung

Damit LACP sauber funktioniert braucht man aber einen L3 Switch ...
Warum micht einfach eine 40GbE Netzwerkkarte und einen Switch der QSFP+ und 10GBaseT unterstützt?
 
Diese ganze Bündelei wird vielleicht gar nicht benötigt.

Er hat 2 Karten im Rechner.

IP 1 und IP 2

10 Rechner werden nun so eingestellt das NAS über IP1 zu erreichen, 10 Rechner über IP 2.
Das sollte doch klappen oder?

Es gibt dann nur keine Lastverteilung zwischen den Karten.
(Wenn nur Rechner 1-10 verwendet werden, wird nur diese Karte ausgelastet)

Ich hätte aber trotzdem Zweifel ob das mit dem Schneiden direkt über Netzwerk gut klappt.
Weder LAN, noch Sata SSD Raid mag viele kleine Zugriffe.
(performant kann das nur sein, wenn die Zugriffe "sequentiellem lesen" ähneln)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bob.Dig
IBISXI schrieb:
Ich hätte aber trotzdem Zweifel ob das mit dem Schneiden direkt über Netzwerk gut klappt.
Weder LAN, noch Sata SSD Raid mag viele kleine Zugriffe.
(performant kann das nur sein, wenn die Zugriffe "sequentiellem lesen" ähneln)
Da habe ich ehrlich gesagt noch nicht viele Gedanken dran verschwendet. Dachte das wäre Standart in Produktionsfirmen. Ist hier jemand der damit Erfahrung hat.

Ist alles Black Magic 6k Raw meist 12:1 höchstens 6:1. Wir scheiden und graden mit Premiere. Effekte selten mal was.
 
IBISXI schrieb:
Diese ganze Bündelei wird vielleicht gar nicht benötigt.

Er hat 2 Karten im Rechner.

IP 1 und IP 2

10 Rechner werden nun so eingestellt das NAS über IP1 zu erreichen, 10 Rechner über IP 2.
Das sollte doch klappen oder?

Es gibt dann nur keine Lastverteilung zwischen den Karten.
(Wenn nur Rechner 1-10 verwendet werden, wird nur diese Karte ausgelastet)

Ich hätte aber trotzdem Zweifel ob das mit dem Schneiden direkt über Netzwerk gut klappt.
Weder LAN, noch Sata SSD Raid mag viele kleine Zugriffe.
(performant kann das nur sein, wenn die Zugriffe "sequentiellem lesen" ähneln)

Das Problem wird das Gateway sein.
Dann müsste jede NIC in ein anderes Netz gesteckt werden. und selbst dann braucht der Rechner eine default route, und die kann halt nur über eine NIC in dem Fall laufen laufen.

Müsste man also auch Server-Seitig "statisches routing" betreiben. sprich welcher Client geht über welche NIC raus
 
Zuletzt bearbeitet:
Ein Server:

Karte 1: 192.168.0.100 -->SWITCH --> Rechner 192.168.0.10 bis 192.168.0.20
Karte 2: 192.168.1.100 -->SWITCH --> Rechner 192.168.1.10 bis 192.168.1.20



Egal ob alles an einen Switch hängt oder an zwei.
Selbst wenn die Serverkarten eine IP Adresse im selben Netz haben:

Karte 1: 192.168.0.100 <-- Rechner 192.168.0.110 bis 192.168.0.120 (K1)

------------->SWITCH->

Karte 2: 192.168.0.200 <-- Rechner 192.168.0.210 bis 192.168.0.220 (K2)


Wobei hier nicht klar ist ob der Rechner weiß über welche Karte die Pakete gesendet werden müssen.
Wie läuft das?
 
Zuletzt bearbeitet:
razzy schrieb:
Das Problem wird das Gateway sein.
Warum?
razzy schrieb:
Dann müsste jede NIC in ein anderes Netz gesteckt werden.
Warum?
razzy schrieb:
und selbst dann braucht der Rechner eine default route, und die kann halt nur über eine NIC in dem Fall laufen laufen.
Und was ist daran ein Problem?
razzy schrieb:
Müsste man also auch Server-Seitig "statisches routing" betreiben.
Warum?

Beide Lösungen (selbes Subnetz auf den NICs und unterschiedliche Subnetze auf den NICs) müssten mMn funktionieren. Mit unterschiedlichen Subnetzen wäre es theoretisch sauberer - in dem Fall kriegt nur ein Adapter ein Default-Gateway konfiguriert. Die Clients kriegen am besten alle eine sekundäre IP-Adresse in diesem zweiten Subnetz konfiguriert. Dann kann jeder Client den Server über beide NICs erreichen.
Ein Default-Gateway braucht man für dieses zweite Subnetz weder auf dem Server noch auf den Clients.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IBISXI
DFFVB schrieb:
Mit den Asus Karten (Marvell, ehemals Aquantia) wirst Du unter FreeBSD vermutlich nicht so viel Freude haben, wenngleich es mittlerweile wohl sogar Treiber gibt...

Ich nutze die Karten in meinen FreeBSD Servern seit ca 1 Jahr - bisher ohne Probleme
 
  • Gefällt mir
Reaktionen: FabianX2 und DFFVB
IBISXI schrieb:
Ich hätte aber trotzdem Zweifel ob das mit dem Schneiden direkt über Netzwerk gut klappt.
Weder LAN, noch Sata SSD Raid mag viele kleine Zugriffe.
(performant kann das nur sein, wenn die Zugriffe "sequentiellem lesen" ähneln)
Hab zumindest über SMB so meine Probleme und mache es doch alles lokal, obwohl NVMe im Server.
 
  • Gefällt mir
Reaktionen: IBISXI
gaym0r schrieb:
Warum?

Warum?

Und was ist daran ein Problem?

Warum?

Beide Lösungen (selbes Subnetz auf den NICs und unterschiedliche Subnetze auf den NICs) müssten mMn funktionieren. Mit unterschiedlichen Subnetzen wäre es theoretisch sauberer - in dem Fall kriegt nur ein Adapter ein Default-Gateway konfiguriert. Die Clients kriegen am besten alle eine sekundäre IP-Adresse in diesem zweiten Subnetz konfiguriert. Dann kann jeder Client den Server über beide NICs erreichen.
Ein Default-Gateway braucht man für dieses zweite Subnetz weder auf dem Server noch auf den Clients.

OK. Meine Aussagen beziehen sich darauf, dass die Clients in einem ganze anderem Netz sind als der Server.
Wenn man es natürlich so bastelt, dass der Server und die Clients in dem gleichen Netz sind, bzw das pro NIC aufteilt... ok.
Ansonsten schickt der Server für ihn unbekannte Netze, welches ein anderes Netz der Clients wäre, die Kommunikation über das Gateway (Routing)

ich bin "nur" Netzwerker, und aus Netzwerksicht sind secondary Adressen das "unsauberste" was man machen kann.

Aber vielleicht sollte man dann erstmal klären, wie die Netze vor Ort überhaupt sind.
 
@razzy
Da es den Server noch nicht gibt und es auch keinen performanten Router geben wird, weiß ich nicht warum die in verschiedenen Netzen sein sollten. Mit einem vernünftigen Router und verschiedenen Netzen wirds aber noch einfacher.
 
Bob.Dig schrieb:
Hab zumindest über SMB so meine Probleme und mache es doch alles lokal, obwohl NVMe im Server.
wie genau stellen sich die Probleme dar? Wäre eine enorme zeitersparniss direkt vom Server scheiden zu können. Würde das Projekt sehr ungern aufgeben.

Zuhause schneide ich ohne Probleme vom Server (R7 2007/128gbECC/X470D4U/Intel 10GbE Nic). Da ist es allerdings nur ein einzelner PC. Das klappt sowohl von dem nvme (1x 2TB 980) pool. Als auch von dem SATA SSD Raid super (3xMX500 2TB).

Was die Netzwerk conig angeht kann ich euch ehrlich gesagt nicht folgen. Zuhause hat der Server auch 3 Nics. 1x10GbE direkt zur Worksation und 2x1GbE. Und halt noch der Ipmi. Das klappt problemlos. Ich kann den Server über meinen rechner je nach gewählter IP so über 10GbE oder 1 GbE erreichen.
 
Zuletzt bearbeitet:
Mir ist aus der Beschreibung nicht ganz klar ob gleichzeitig an der gleichen File gearbeitet wird oder nur grundsätzlich gleichzeitig... Wenn letzteres ggf auch ISCSI?
 
Am gleichen Projekt ist die absolute Ausnahme. Wenn überhaupt dann an verschiedenen Abschnitten mit hoch wahrscheinlich verschiedenen Files. Das gleiche File ist quasi nie genutzt oder extrem selten.
 
Na dann könnte ISCSI was für dich sein...
 
Damit habe ich mich noch nie auseinader gesetzt. Gibt es gravierende Nachteile? Bzw. Empfehlungen zur Lektüre der Basics ?
 
Hab ich jetzt nichts parat, aber vereinfacht gesagt ist ein mounten auf Blockebene, sprich wie eine Festplatte für das jeweilige Gerät, müsstest mal rumprobieren ob das für den Workflow passt, da afaik kein Protokoll wie SMB, sprich wenn es fertig ist, wie du es ‚rausbekommst‘
 
Du solltest als erstes mal Testen ob schneiden auf einem SMB Share klappt.

Teste mal mit einer SSD anstatt 10 und mit 1Gb/s anstatt 10.
Oder mit 2 SSD im Raid0 und 2,5Gb LAN.

Übrigens, der 5700G unterstützt kein ECC.
Von den APUs nur die PRO Modelle.
Von den Desktop Chips alle.
 
Zuletzt bearbeitet:
IBISXI schrieb:
Du solltest als erstes mal Testen ob schneiden auf einem SMB Share klappt.
Grundsätzlich klappt das schonn jetzt von der 920 runter. Aber eben nur in reduzierter Auflösunng und nur bei einem Nutzer. Dann aber selbst mit HDDs in der 920 stressfrei.
IBISXI schrieb:
Übrigens, der 5700G unterstützt kein ECC.
Ahh danke das wusste ich nicht. Dann wird es entweder doch ein Brett mit IPMI, ich stecke eine der altenn ausgemusterten Grakas rein R9 290 oder so oder es gibt eben eine 30€ Karte die nicht ganz so viel schluckt.

Ich fühle mich mit dem Projekt ein wenig in dere Sackgasse. Ohne "massive" Investitionen kann ich nicht testen. EIne Garatnie das es mit invest xy läuft gibt es nicht. Ich neige daher leider fast dazu aufzugeben und weiter wie gehabt die zu bearbeitetend Datein auf die jeweiligen Worksations intern zu ziehen.
 
Es wird hier niemand die Hand ins Feuer legen und sagen: Das klappt.

Netzwerk ist generell viel schlechter als direkt auf SSD.
Viele Sata SSDs parallel haben zwar eine größere Rohdatentransferrate, die IOPS bleiben unter denen einer einzelnen SSD.

Raid Controller oder ZFS können zusätzliche Flaschenhälse haben. (Chippower, Anbindung, Speicher)

Und dann hängt es auch noch von der Software und vom zu bearbeitenden Material ab.
 
Zuletzt bearbeitet:
Zurück
Oben