News IDF: PCI Express von XGI und S3

Christoph

Lustsklave der Frauen
Registriert
Jan. 2002
Beiträge
3.100
Während die beiden Branchenriesen nVidia und ATi schon seit dem Launch von Intels neuer Chipsatz-Plattform Grafikkarten für PCI Express anbieten, sah es bei den beiden Herstellern XGI und S3 bislang eher dürftig aus. Auf dem IDF in der vergangenen Woche hatten wir die Chance, uns vom Gegenteil überzeugen zu lassen.

Zur News: IDF: PCI Express von XGI und S3
 
Ob XGI irgendwann doch noch ins Rennen kommt?

Ich wage es einfach mal zu bezweifeln :)
 
value schrieb:
Ob XGI irgendwann doch noch ins Rennen kommt?

Ich wage es einfach mal zu bezweifeln :)
Wer hätte 1996/97 Aktien von Nvidia gekauft?
 
der wäre jetzt ein glücklicherer mensch
 
Ja zugegeben XGI hatte einen sehr unglücklichen start (Verlustleistung) und auch der Versuch die Geschwindigkeit mit "angepassten" Treibern zu otpimieren ging nach hinten los!

Zur Zeit meckt man auch es echt sehr ruhig um XGI geworden ist, hoffen wir aber deswegen weil die einfach in Ihrem Kämmerlein an neuen Chips basteln! ;)
 
Also bis auf ein paar Treiberprobleme sollen CGI-Karten sehr gut sein. Zwar sind die Topmodelle von CGI in der Spieleperformance nicht vergleichbar mit den Karten von Ati oder Nvidia, aber ich lass mich einfach mal überraschen was da noch kommt :]
 
also die graka von s3 sieht für mich nicht so aus als ob da mehr als 75watt verbraten werden. da ist der lüfter viel zu klein für, der könnte soviel wärme gar nicht abführen. ich halte es da für wahrscheinlicher das s3 den bridge-chip ins gpu-design integriert hat, mit dem nachteil das nur soviel strom aufgenommen werden kann wie über den agp-port möglich. oder der zusätzliche stecker ist nur ne atrappe um leistung vorzuteuschen...
 
Oder aber der Lüfter ist verdammt schnell und damit laut und somit nicht gerade empfehlenswert für gute Ohren :rolleyes:
 
"Interessant ist auch, dass die hier abgebildete GammaChrome noch einen Stromanschluss im Floppy-Design auf dem PCB hat. Dies impliziert zum einen, dass diese Grafikkarte mehr als 75 Watt verbraucht,[...]"

Vom Delta-Chrome mit <20W zum Gamma-Chrome (steh übrigens auch auf der Platine..) mit >75W?

Ich glaube fast nicht - insbesondere, wenn ich den Schalter direkt neben dem Floppy-Stecker sehe. Anscheinend dient das Ding, da ja ein Debug-Board, eher dazu, evtl. auftretende Probleme sicher von der Stromversorgung des Mainboards ausschließen zu können.
 
Zurück
Oben