Quadro und Geforce Karte in einem PC? Quadro Fragen

domidragon

Fleet Admiral
Registriert
Juli 2008
Beiträge
11.532
Hallöchen

Hab da paar Fragen bezüglich Quadro Karten. Hab schon viel gehört davon, aber leider keine Eindeutigen Infos.

Ich mache als Hobby auch Videoschnitt und rendere in 3D Programmen wie C4D, Vue etc. Szenen/Bilder.

Das dauert bekanntlich eine halbe ewigkeit, trotz dem i7...

Situation:

Ich habe die beiden Systeme in der Sig vorhanden(Links, Mitte). Der linke ist mein Hauptrechner, der mittlere mein Fileserver. Mom. versuche ich das ganze übers Netz mit mehreren Rechner zu rendern(die in der Wohnung rumstehen).

So nun habe ich aber noch eine Quadro Karte da, die Quadro NS 290. Die hat nen speziellen Ausgang, wofür das passende Kabel fast mehr Wert hat als die Karte selber... Desshalb muss ich diese als 2. Karte einbauen...

Die Fragen:
a) Kann ich die NS 290 beim Hauptrechner oder beim 2. einbauen, neben der Geforce, damit die Quadro dann die Renderaufgaben übernimmt?

b) Lohnt sich das überhaupt? Also kann die Quadro wirklich einen spürbaren Unterschied ausmachen beim Rendern? Wie gross kann dieser ungefähr sein?

c) Wie funktioniert das genau beim rendern dann. Erkennt die Software, dass eine Quadro drin ist und nimmt diese zum rendern oder muss man das im Programm angeben?(Für C4d und Vue)

d) Wenn man das angeben muss, unter welchen Punkt geht das denn? OpenGL ist es hoffentlich nicht, weil bei dieser Auswahl rendert er einfach die "Vorschau" wie ich sie im Editor sehe -.-

e) Rendert der Prozessor dann auch noch, auch wenn eine Quadro drin ist, oder übernimmt diese die ganze Arbeit?

f) Laut Wikipedia kann man Geforce Karten ummodden, damit sie als Quadro erkannt werden(Per Software, Bios, Löten). Ist das mit den 8800er möglich? Wie viel würde das bringen? (Ich wechsle demnächst auf die 580er, da könnte ich die 88er dann ja "verbasteln" und als Quadro Karten nutzen^^)

So dann bin ich ja mal gespannt, ob ihr mich Aufklären könnt. Im Internet findet man nicht gerade hilfreiche Dinge dazu. Erlöst mich von den langen Renderzeiten :D

THX

greez

PS: Wenn jemand Vue kennt, bitte per PN melden, hab da paar fragen bezüglich netrendering...
 
die nvs290 hat vergleichsweise wenig leistung . an deiner stelle würde ich die 8800 ultra auf quadro ummodden, gibt weit mehr leistung, insbesondere im sli.
hab den link grad leider nicht zur hand, aber google hilft da wohl weiter.

das ganze geht rein per software und du machst nix damit kaputt.
 
Vergleichsweise wenig Leistung ist noch sehr charmant ausgedrückt. Der Sinn der NVS-Karten mit Unterstützung von nur 2 Displays hat sich mir auch nach Jahren noch nicht ergründet. Zum rendern ist sie jedenfalls nicht die richtige Karte.
 
Was wäre den eine gute und günstige Alternative einer Quadro Karte? Dann würde ich diese dann in den 2. Rechner bauen und die 88er ummodden und so übers netz rendern. hoffe mal das geht? :D

thx für die auskunft bis jetzt
 
Es gibt Anleitungen wie man die 8800GT wohl zu einer Quadro FX3700 modden kann. TechArp.com beschäftigt sich relativ stark mit diesen Mods.

Zu der Software die du da einsetzen willst kann ich dir leider gar nichts sagen. Folglich auch null komm nix über die günstige Alternative :p
 
Ganz modden geht wohl nicht. Man kann zwar den Treiber nehmen, jedoch sind einige Dinge Hardware seits gesperrt


Siehe dazu den Bericht aus der Gamestar zur Quadro FX 5800

Zitat Gamestar:
" Als weiteren Kaufanreiz für Entwickler beschert Nvidia den Quadro-Karten zudem einige Fähigkeiten, die bei den Geforce-Chips entfernt beziehungsweise mechanisch im Chip zerstört wurden. So kann eine Quadro etwa die Linien, aus denen ein typisches Drahtgittermodell besteht, mit Hardware-Beschleunigung zeichnen, während eine Geforce dazu auf Software-Rendering zurückgreifen muss und so etwa zwanzig Mal langsamer ist.

Zudem kann eine Quadro bis zu 65.000 Fenster gleichzeitig darstellen, ohne dass die Performance einbricht, da ihr Speicher mit einer speziellen Architektur arbeitet (»unified backbuffer«), während bei einer Geforce der Speicher irgendwann voll läuft und die Performance stark einbricht. Dass ist auch ein Grund, warum viele Spiele bei einer Geforce im Fenstermodus zicken"

http://www.gamestar.de/hardware/tes.../geforce_gtx_285_gegen_quadro_fx_5800_p3.html
 
Ich wollte nur sagen das man es mit vorsicht genießen muss. NV verkauft die Karten nicht umsonst für nen 1000 mehr. :-)
 
das ist allerdings wahr^^ naja vor allem der support ist n ganz anderer, sowas kostet halt sein geld. bis zur gf7 konnte man noch einfach per rivatuner auf quadro umstellen, das hat man dann ab gf8 softwareseitig unterbunden und als findige tüftler das auch umgangen haben ist nvidia halt hingegangen und hat den laser angesetzt, um endlich ruhe zu haben :D
 
3ds Max 2011 ist derzeit das einzige (mir bekannte) Programm was zum Rendern eine CPU-GPU-Kombination fährt.
Alle anderen Programme rendern weiterhin über die CPU.
Das Rendern der Ansicht, also das Fenster in dem gemodelt wird wird hier und da beschleunigt.
Bei der Quadro kannste da halt ohne Grafikfehler die angewendeten Filter aktiv schalten und sparst dir das Testrendern. Glaub da sollteste aber ne 2000 oder gar 4000 reintun, sonst wird das auch nix. Von der reinen Framerate sind Consumerkarten durchaus schneller, aber qualitätiv nicht besser. Spielerein wie Anti Aliasing im Windows sind halt auch reine Treiberoptionen.

Projekte wie Gelato sind im Sande verlaufen und zwecks CUDA geopfert. Was ebenwürdiges hab ich bisher nicht gesehen. Gelato war aber auch sowieso nich wirklich sinnvoll.

Die NVS-Serien sind beginnend mit der 300 keine Quadros mehr, und das sagt denke ich genug über die Marktposition aus. Außer für massive Multimonitorumgebungen wie bei der Börse haben die keinen Zweck.

Nvidia verkauft die Karten vor allem wegen der Treiber teurer, die Hardware ist quasi identisch. Unterschiede gibt es erst bei der Quadro 5000/6000 wo ECC RAM schaltbar ist. Die Double Precision Leistung wird über den Treiber geschaltet, da is nix Hardware. DP interessiert hier aber eh nicht.
 
Hm ich werds mit den 88er dann versuchen, wenn ich die neue habe. ;) Vlt. klappts ja und wenn nicht, auch egal. Ich such mir mal ne Second Hand Quadro :D

Also versteh ich das richtig, die Quadro übernimmt nur bei der Vorschau, da wo gemoddelt wird die arbeit? Das wäre ja nen Witz wenn die beim rendern nichts macht :D Kann ich mir nicht vorstellen ^^

hm die Karten ab der 2000er serie werden erst so richtig teuer :D Ach man.

auf Techarp habe ich auch eine Anleitung gefunden, wie man 88er ummodden kann. Das geht aber nur mit wenigen. Das werde ich dann testen, wenn die Zeit gekommen ist.

Ich schau mal noch auf der Herstellerseite von Vue, da sollte doch was stehen, ob Quadros unterstützt werden. Ein solches Programm ohne Quadro unterstützung wäre ja auch nen Witz :D Ich brauche für ein Bild in 720p über 5h zum rendern. Wenn man da eine Sequenz von 10 Sekunden hat, sind das schon Wochen :D (1250h)

Danke


greez
 
Also versteh ich das richtig, die Quadro übernimmt nur bei der Vorschau, da wo gemoddelt wird die arbeit? Das wäre ja nen Witz wenn die beim rendern nichts macht Kann ich mir nicht vorstellen ^^
Du hast gefragt, ich hab geantwortet.
Der Stand der Dinge ist nunmal so.

hm die Karten ab der 2000er serie werden erst so richtig teuer Ach man.
Wie mans sieht. Ich finde das nicht teuer wenn man das benutzen muss
weil es sonst gar nicht geht.

Ich schau mal noch auf der Herstellerseite von Vue, da sollte doch was stehen, ob Quadros unterstützt werden.
Unterstützen heißt nicht nutzen. Was wo wie viel genutzt wird steht auf einem anderen Blatt.
 
So also hab mich mal etwas auf der Seite umgesehen. Es scheint einige Modelle (Auch Geforce Karten) zu unterstützung für die OpenGL berechnung, also die Vorschau. Das nen ich ja mal krass, tausende von Euro, damit die Vorschau schneller und besser ist -.-

Ich suchte eine Lösung, damit das rendern einiges schneller von statten geht. zum Glück hab ich erst gefragt, vielen Dank jungs(und mädels, man weiss ja nie ;) )

Hm wenn ich günstig an eine Quadro komme, schlage ich zu, sonst werde ich mal noch versuchen, die Vorschau auf den 88er wiedergeben zu lassen, die werden laut der HP unterstützt dafür ;) (zumindest steht die 88gt drin)

und wenn die neue kommt, werde ich den versuch mal wagen, mit dem ummodden, das wird aber noch ein weilchen dauern, denn 600+ CHF für eine Graka ist mir doch etwas zu viel. Mal schauen wie es nach Weihnachten ausschaut. ;)

Kann mir einer erklären wie ich das netrendern richtig einrichte? oO Ich hab zwar ne Anleitung in nem Forum gefunden, alles so gemacht, was eigentlich auch klappt, nur wenn ich es dann anfange zu rendern, rendert nur der "host" in dem sinne.

Da gibt es so einen manager(hyperVue manager doer sowas). Da drin kann man per "add" button ne IP oder Computername eingeben. Auf diesem muss dann der renderCow client laufen, was bei mir der fall ist. nach kurzer zeit erkennt er diesen dann auch und listet den host und den client auf. also 2 Rechner.

nur, beim client steht da immer "disconnected..." oder "busy" oder so, aber ich frag mich wieso, im client fenster steht "warte auf weitere jobs" wie kann er busy sein? :D zudem zeigt er mir hinten beim host eine Build Nummer an, beim anderem rechner ist da nur ein ? .

nun es stand auch schon idle, dann versuchte ich zu rendern, bzw. drückte auf rendern. dann bereitet er alles vor, schickt die szene (zum host, wieso auch immer) aber beim client passiert nichts, der bleibt auf idle oder sonst was, was er vorher schon hatte...

hoffe jemand kennt sich damit aus, hab das damals schon bei C4D nicht hinbekommen :(

greez
 
Zuletzt bearbeitet:
hm gibt was.

hab letztens einen bericht gesehen.
ein Schweizer hat sich 25 ps3 Verkabelt und Benutz somit die Fetten 7(8) Kerner der PS3 Sprich 1 PC wo er Sitzt und 25 PS3 mit dem Dickel Cell die Schuften


ich mein 2 oder 3 PS3 mit Grafik Fehlern würden dir Reichen.
 
also ich würde mir günstig ne GTX260 o.ä. holen, softmod drauf und fertig... die nvs290 is fürn Eimer!
Das mit den PS3 geht auch, allerdings auch nicht ganz billig. Kommt eben immer drauf an was, wieviel und wie häufig man was macht. Vorallem aber was es einem Wert ist. Ich mein man kann sich auch AMD-Serverplattformen auf Magny-Architektur zulegen, dann hat man schnell mal nen 24 Kerner, die Frage ist nur obs Sinn macht und bezahlbar.

PS: ich hab für meine GTX285 2GB auch nen FX5800 Softmod drauf und somit einige Features mehr, vorallem wichtig auch genug RAM auf der Karte! Für PS, AE und C4D echt klasse!
 
ich dachte ab der 200er serie ist das nicht mehr möglich? muss es eine bestimmte sein?

du hast beide karten im rechner, sag mal, läuft die 285er also als Quadro und die 470er normal? wie funktioniert das so mit dem dual betrieb? also kannst du zocken und rendern ohne ständig was umstellen zu müssen? wie siehts mit den bildschirmen aus, kriegst du so auch mehr als 2 monitore an dein system?

ich benutze selten PS, AE dafür sehr oft. C4D immer wieder mal und seit neuem eben Vue ;) (schnittprogramme wie sony vegas unterstützen die quadros nicht nehme ich an)

sonst hol ich mir auch eine second hand 285 mit 2gb und modde die um, wenn die 88er nicht gehen ;)
 
ich weiß der Thread ist alt aber hab grade ne Ähnlichkeit Situation ...
will mir n laptop kaufen in den 2 grakas verbnaut werden können,
Standard ist da ne ATI HD6970M - 2GB verbaut die sich zu einer firepro umflashen läst.

die frage ist jetzt die wenn ich mir jetzt noch ne geforce oder ne andere ati in den laptop baue zum zocken und die HD6970M zu einer firepro flashe, wie läuft das dann mit 3dsx max, maya photoshop etc,

erkennt die software die graka anhand des Treiber und bios? und verwendet automatisch diese für das viewport rendering,
oder muss ich dann immer ein karte deaktivieren bevor ich zocken oder arbeite ?
 
ich glaube das geht über den treiber. daher setzt nvidia auch soviel daran, dass man die treiber möglichst nur auf quadro karten nutzen kann.

nebenbei, habe mittlerweile ne FX3800er erhalten. So begeistert bin ich davon noch nicht. da fahre ich mit den 580ern einiges besser -.-

aber vlt. liegt irgendwo noch ein wurm begraben :)

und wie haben die mehr Vram, die 3800er hat nur grad 1gb, ist ja nicht wirklich viel :)
 
Zurück
Oben