Welche Grafikkarte für 3D Modellieren und Machine Learning?

MBD321

Cadet 1st Year
Registriert
Jan. 2021
Beiträge
12
Hallo,

ich bin gerade dabei, mir einen PC selbst zusammenzubauen und benötige unter anderem auch eine Grafikkarte. Ich schwanke zwischen RTX 3060 Ti und RTX 3070. Meine hauptsächlichen Anwendungsbereiche sind einerseits 3D-Modellierung (in Blender), 3D-Animationen und andererseits Machine Learning (z.B. Model Training). Die Karte sollte unbedingt CUDA unterstützen.

Fürs Gaming wird sie nicht benötigt. Hat jemand Erfahrung mit diesen Karten/Anwendungsbereichen und möchte bitte seine Erfahrungen/Empfehlungen schildern? Ich wäre auch für Vorschläge anderer Grafikkarten in dem Preissegment der oben genannten Karten offen, insofern sie CUDA unterstützen.

Eine andere Sache ist, dass ich den Rechner dann öfter transportieren muss und deshalb wäre mir dieses PC-Gehäuse in den Sinn gekommen. Es wird dann zwar vermutlich ziemlich knapp werden mit dem Platz aber es sollte gehen. Was hält ihr davon? Bei den anderen PC-Komponenten bin ich noch am suchen und wäre ebenfalls über Vorschläge dankbar.

Ich freue mich auf eure Ideen/Ratschläge/Kritik!

Vielen Dank!
 
Zuletzt bearbeitet:
Mach das vom modell training abhaengig. 3060 ti und 3070 haben nur 8GB VRAM.
Behalte auch im Auge, dass die 3060 12GB VRAM hat
 
Schreiben die Programme Quadro Karten vor?
 
Was genau bei Machine Learning? Da stößt man mit aktuellen Modellen schnell an die Grenzen „normaler“ Hardware. Ich hab z.B. mit einem Projekt an der Uni zu tun, das Modell braucht ca. 60Gb Speicher zum Training. Das sind dann mal eben zwei GPUs mit 40Gb Speicher, die man benötigt. Kosten: ~5-20k€, wenn du die in deinem Rechner verbauen willst.

Insofern würde ich eine GPU mit großen VRAM nehmen oder das Training als „nett“ zu sehen, aber die 3D-Modellierungs-Performance vorziehen.

Lg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Roesi
und vergiss das thermische ned.
denn das case ist klein, wenig volumen und viel nichtatmendes glas.
du brauchst was, was das thermisch auch bei stundenlanger graka last trägt. und die verbraten einiges, die grakas. und alles wird zu wärme.
und das sehe ich bei dem case nicht, denn der sommer, er kommt jedes jahr. und da wird es starke&laute lüfter brauchen.
 
MBD321 schrieb:
andererseits Machine Learning (z.B. Model Training)
Je nachdem was genau du machst und wie gross Trainingsdaten und Modelle werden, wuerde ich persoenlich eher dann fuer das Training alternativ ueber On-Demand GPU Server nachdenken, so mache ich das privat und auch im Job. Z.B. Lambdalabs funktioniert sehr gut fuer meine Workflows - aber wenn du nur kleine Daten hast und ausreichend Zeit, dann wird es natuerlich auch eine GPU in deinem lokalen Rechner tun. Vermutlich weisst du aber eh noch nicht wie gross dein ML Anteil sein wird, und fuer Blender brauchst du ja eh eine GPU. Aber falls du beim ML doch mal an Grenzen stoesst, evtl. denk dann ueber On-Demand GPU Server nach.
 
  • Gefällt mir
Reaktionen: MBD321 und madmax2010
@abcddcba danke für den Tipp mit den On-Demand GPU Servern! Also die ML Sachen sind dann auf Uni-Niveau und bei größeren Projekten könnte ich dann switchen. Die Karte sollte halt für mittlere Projekte (aufwärts) gut sein. Wenn jemand einen Vorschlag hat für eine Karte, die nur "etwas" teurer ist, aber halt jemand mit so einer Karte in diesen Bereichen gute Erfahrungen gemacht hat, bin ich auch dankbar über eure Tipps. Die 3080 und die 3090 o.ä. sind mir aber dann definitiv zu teuer.
 
Mitlere Projekte und aufwaerts: Rtx3090 - Selbst 12 GB Vram sind eigentlich bei Sprachmodellen, Generativen Netzen und so ziemlich allem was in Bildverarbeitung angeht das Minimum was man haben sollte. Nanogpt zu trainieren, ist bspw. ein super dokumentierter Einstieg in Sprachmodelle. Das absolute minimum um sich damit sinnvolll zu beschaeftigen, ist eine RTX3090, wobei man dann 2-3 Wochen nichts anderes machen kann.
Mit 300+GB VRam in einem System mit 8 A100 Karten dauert das Training schin je nach Datenset 3+ Tage.

8GB VRAM wuerde ich auf keinen Fall machen. Fehlende Rechenpower kannst du durch warten erschlagen. Wenn das modell nicht in den VRAM passt, musst du auf die CPU oder Cloud ausweichen
 
  • Gefällt mir
Reaktionen: schnälli
@madmax2010 okay vielen dank für die ausführliche Antwort hinsichtlich ML. Ich denke, im bereich 3D-Modellierung/Animation wird auch der vRAM eine der größten Rollen spielen. Wie sieht es da aus mit den 8 GB der beiden Karten RTX 3060 Ti, 3070? Reicht das für mittlere Projekte+ eurer Meinung? Oder sind da andere Karten in dieser Preisklasse (oder minimal höher) besser?
 
Zurück
Oben