Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im professionellen Markt hat Nvidia unter anderem die Quadro-FX-4800-Serie platziert, die zwar nicht die Speerspitze des eigenen Portfolios darstellt, aber schon zu den schnelleren Lösungen gehört. Bis jetzt gab es die Karte aber nur für einen PC, was sich am gestrigen Tage geändert hat.
Und wieder der Standardpost nach einer Quadro/FireGL-Meldung:
Nein, diese Karten bringen Spielern nichts. Zwar bieten sie z.B: mit AA-Lines auch mehr Funktionalität, aber auch die interessiert Spieler nicht. Das ist eher für CAD eine feine Sache, aber auch nicht zwingend nötig.
hehe, ich wollte es auch gerad schreiben. Wer sich informieren will, tut das am besten bei Google! Der hohe Preis kommt insbesondere durch den deLuxe-Support zustande .
Freut mich... dann gehen GTX260/GTX280/GTX285 endlich auch im Hackintosh... da ab da offiziell der GT200b Chip supportet wird. ^^
P.S. Nicht der Support (welcher gut ist) macht den Preis, sondern die diversen optimierungen im Treiber für Programme bzw. in Windows sogar spezielle Treiber für Anwendungen machen das. Denn das alles kostet viel Zeit und Geld.
Schlimm nur das diese FX4800 auch das Spulenfiepen haben wird... so ein Premiumprodukt und nur bescheidene Bauteile!
Wer weis ob da ev. doch nicht noch was geändert wird an denn PCB, ev. bessere Quali?
Ich finde dieser News etwas kommisch... seit wann hat eine G200b Chip einen 384bit Speicher Interface?
G80 -> 384bit mit 768MB bzw. 1.5GB
G92 -> 256bit mit 512MB bzw. 1GB
G200(b) -> 512bit / 448bit mit 896MB bzw. 1GB
Also muss der SI mindestens 448bit sein meiner Meinung nach wenn ein G200b darin werkelt
und wozu soll bei einer solchen karte ein S-Video-Ausgang gut sein? das ist ja so, wie wenn man einem Ferrari noch reservespiegel für einen Fiat beilegt...
Ganz einfach... es gibt auch noch analoge Bildgeräte.
Desweiteren sollen die das PCB extre ändern? Die Karte ist nichts anderes als ne GTX216² mit 1,5GB VRAM und Quadro Bios!
@Project-X
ICh sehe gerade ist gibt auch ne FX3800 mit GT200 Chip aber nur 256bit Interface. Anscheinend kocht NV bei den Quadros ein anderes Süppchen.
Bei Geizhals sieht man öfters fehlerhafte Angaben. Wenn Nvidia auf der Homepage ein 384-Bit-SI angibt, dann wird das schon seine Richtigkeit haben.
Ich hab mal den Geizhals-Fehler gemeldet, vielleicht wirds dann in ein paar Minuten schon korrigiert.
Die technischen Daten der Quadro FX 4800 sind wie folgt:
- Single-Precision-ALUs: 192 (G80: 128)
- Double-Precision-ALUs: 24 (G80: 0)
- TMUs: 64 (G80: 64)
- TAs: 64 (G80: 32)
- Speicherinterface: 384 bit (G80: 384 bit)
- ROPs: 24 (G80: 24)
In erster Linie hebt sich die Quadro FX 4800 durch die Double-Precision-Einheiten von den G80-Varianten ab.
Das Speicherinterface vom GT200(b) muss einfach nur ein Vielfaches von 64 bit breit sein.
Der GT200b besteht aus ROP-SI-Partitionen mit jeweils einem 64-bit SI und 4 ROPs und aus TMU-ALU-Clustern mit jeweils 3*8 Single-Precision-ALUs, 3 Double-Precision-ALUs und 8 TMUs/TAs.
Im Vollausbau sind 8 ROP-SI-Partitionen und 10 TMU-ALU-Cluster vorhanden.
Bei der Quadro FX 4800 sind nur 6 ROP-SI-Partitionen und 8 TMU-ALU-Cluster freigeschalten.
Open GL Performance unter Cinema 4D (= meistgenutze 3D Software am Mac) wird wohl wie bei 5600 wieder mal grottig (!) ausfallen...
Das Hauptproblem bei Apple ist halt nicht die Hardware sondern die schrecklich programmierten Grafik Treiber. Verbessert mich, falls sich seit letztem Jahr daran etwas fundemantal geändert hat.
Und wieder der Standardpost nach einer Quadro/FireGL-Meldung:
Nein, diese Karten bringen Spielern nichts. Zwar bieten sie z.B: mit AA-Lines auch mehr Funktionalität, aber auch die interessiert Spieler nicht. Das ist eher für CAD eine feine Sache, aber auch nicht zwingend nötig.
@Romsky: ich meine auch nicht die Renderperformance (die ist unter windows64 tatsächlich minimal schneller), sondern den Viewport, für den man sich eine Grafikkarte wie die 4800 ja auschliesslich kauft.
Unter nem 3Ghz Octacore Macpro mit ner Quadro 5600, war der Viewport Anfang 2008 unter R10 langsamer, als mit meiner betagten Geforce 7600GT am PC - man konnte nichtmal ein Hardware OpenGL Preview rendern (Absturtz). Alles Fehler die Maxon bekannt waren. Man hat uns auf Support Nachfrage freundlich auf Apples wunderbar programmiert Quadro Treiber hingewiesen.
Das Problem war/ist, dass (bisher?) unter Mac OS Apple die Treiber selbst schreibt - im Gegenstatz zu Windows, wo Nvidia bzw. ATI selbst dafür verantwortlich sind.