Hi Leute,
ich hatte schon einmal einen Thread erstellt, hatte dann aber noch auf den Release der Threadripper Platform gewartet.
Ich möchte ein Multi-GPU System für Deep Learning aufbauen. Dazu sollen mehrere Grafikkarten von Nvidia zum Einsatz kommen.
Ganz grob soll folgendes verbaut werden:
Threadripper 1950x
TR4 Mainboard mit ECC Support
128 GB DDR4 ECC Speicher
4x Nvidia 1080 ti (oder Titan X)
Wasserkühlung?
Netzteil?
Gehäuse?
Festspeicher ist schon vorhanden in Form einer Samsung 850 Pro.
Dazu habe ich folgende Fragen:
CPU: Ich würde gerne AMD anstatt Intel nehmen, obwohl es da recht wenig Erfahrung in diesem Bereich für AMD CPUs gibt. Denkt ihr, dass da Überraschungen zu erwarten sind? Die CPU Leistung ist gar nicht so wichtig; bei den Projekten wurde allerdings immer eine 6950x CPU empfohlen. Die AMD Platform erscheint aufgrund der hohen Anzahl der PCIe Lanes sehr attraktiv..
Grafikkarte: Wird demnächst etwas Neues von Nvidia released werden und lohnt sich eventuell das Warten? Für Deep Learning ist die Bandbreite des RAMs entscheidend. Wenn man ein Custom Design nimmt und den Speicher leicht übertakten möchte, welches Modell sollte man dann nehmen?
MB: Ich denke, hier ist vor allem der ECC Support wichtig. Welche anderen Punkte müsste man noch bedenken?
RAM: Limitiere ich mich durch ECC stark? Ich habe nur DDR4 2400 MHz Speicher gefunden, wobei man bei Vollbestückung vermutlich eh nicht besonders hoch gehen kann. Es ist kein unbedingtes Muss, allerdings hätte ich ECC schon gerne, da lange Berechnungen durchgeführt werden. Welchen Speicher würdet ihr empfehlen?
Netzteil: Wie viel Watt braucht man für diese Konfiguration?
Wasserkühlung: Damit kenne ich mich überhaupt nicht aus. Wie schwierig ist die Installation und gibt es ein System, mit dem sich alle Komponenten vernünftig kühlen lassen würden?
Gehäuse: recht unwichtig, aber vielleicht habt ihr da auch einen Tipp.
Hier mal der Link zu einem Blog, der sich mit Hardware für DL auseinandersetzt:
http://timdettmers.com/2014/09/21/how-to-build-and-use-a-multi-gpu-system-for-deep-learning/
Könntet Ihr mir eine Empfehlung aussprechen? Gibt es im Raum Berlin/Potsdam jemanden, der das Wissen hat und bereit wäre, das System mit mir zusammenzubauen?
Danke
Alexander
ich hatte schon einmal einen Thread erstellt, hatte dann aber noch auf den Release der Threadripper Platform gewartet.
Ich möchte ein Multi-GPU System für Deep Learning aufbauen. Dazu sollen mehrere Grafikkarten von Nvidia zum Einsatz kommen.
Ganz grob soll folgendes verbaut werden:
Threadripper 1950x
TR4 Mainboard mit ECC Support
128 GB DDR4 ECC Speicher
4x Nvidia 1080 ti (oder Titan X)
Wasserkühlung?
Netzteil?
Gehäuse?
Festspeicher ist schon vorhanden in Form einer Samsung 850 Pro.
Dazu habe ich folgende Fragen:
CPU: Ich würde gerne AMD anstatt Intel nehmen, obwohl es da recht wenig Erfahrung in diesem Bereich für AMD CPUs gibt. Denkt ihr, dass da Überraschungen zu erwarten sind? Die CPU Leistung ist gar nicht so wichtig; bei den Projekten wurde allerdings immer eine 6950x CPU empfohlen. Die AMD Platform erscheint aufgrund der hohen Anzahl der PCIe Lanes sehr attraktiv..
Grafikkarte: Wird demnächst etwas Neues von Nvidia released werden und lohnt sich eventuell das Warten? Für Deep Learning ist die Bandbreite des RAMs entscheidend. Wenn man ein Custom Design nimmt und den Speicher leicht übertakten möchte, welches Modell sollte man dann nehmen?
MB: Ich denke, hier ist vor allem der ECC Support wichtig. Welche anderen Punkte müsste man noch bedenken?
RAM: Limitiere ich mich durch ECC stark? Ich habe nur DDR4 2400 MHz Speicher gefunden, wobei man bei Vollbestückung vermutlich eh nicht besonders hoch gehen kann. Es ist kein unbedingtes Muss, allerdings hätte ich ECC schon gerne, da lange Berechnungen durchgeführt werden. Welchen Speicher würdet ihr empfehlen?
Netzteil: Wie viel Watt braucht man für diese Konfiguration?
Wasserkühlung: Damit kenne ich mich überhaupt nicht aus. Wie schwierig ist die Installation und gibt es ein System, mit dem sich alle Komponenten vernünftig kühlen lassen würden?
Gehäuse: recht unwichtig, aber vielleicht habt ihr da auch einen Tipp.
Hier mal der Link zu einem Blog, der sich mit Hardware für DL auseinandersetzt:
http://timdettmers.com/2014/09/21/how-to-build-and-use-a-multi-gpu-system-for-deep-learning/
Könntet Ihr mir eine Empfehlung aussprechen? Gibt es im Raum Berlin/Potsdam jemanden, der das Wissen hat und bereit wäre, das System mit mir zusammenzubauen?
Danke
Alexander
Zuletzt bearbeitet:


