News Im Test vor 15 Jahren: Schummelei wurde beim SiS Xabre 400 groß geschrieben

Pisaro schrieb:
Bitte lese seinen Beitrag nochmal, er meint das genau umgekehrt. Spiele noch schlechter aussehen zu lassen damit die auch auf älteren Grafikkarten laufen.

Genau das. Vor allem bei spielen mit schlechten Grafik Ports auf z.B Intel grafikeinheiten vernünftig zum laufen zu bringen.

Geht ja nicht darum eure (oder meine) Ansprüche zu genügen..
Grade auch da wo kein vram verbaut ist..
 
cele schrieb:
Kann mich auch nicht mehr daran erinnern. Schön, die "Im Test vor 15 Jahren" Artikel!
Zu der Zeit war ich noch mit der gforce 2mx unterwegs. wurde aber alsbald von der gf 4 ti4200 abgelöst, damit konnte ich mich an farcry und doom3 wagen. richtig rund liefen die beiden spiele bei mir aber erst mit der radeon 9600 xt (tx?) nochmal npaar jahre später.

Kann ich mir nicht so wirklich vorstellen. Mit meiner Radeon 9600@pro (welche zum release von Doom 3 und FC1 hochaktuell war, die Geforce 4200Ti war schon alt) konnte ich Doom 3 lediglich in 800x600 und hohen Settings und Far Cry in 1024x786 mit mittleren Settings spielen und das bei knappen 30 Fps. Die 9800XT, welche zu diesem Zeitpunkt die schnellste Karte auf dem Markt war schaffte knapp 100% mehr Fps, so dass man die Spiele in den gleichen Settings in 1280x1024 zocken konnte oder eben 1024x786 mit hohen Settings. Wirklich rund liefen die Spiele erst mit der kommenden Geforce 6800 GT/Ultra bzw. der Radeon X800pro/XT.
 
Zuletzt bearbeitet:
Acrylium schrieb:
Da habe ich auch dran denken müssen, SiS hat wirklich nur den übelsten Bodensatz an Chipsätzen produziert und vermarktet. War zwar billig, aber grausigst instabil und leistungsschwach.

Zu SiS: Ich hatte einen Pentium-100 auf einem Board mit SiS-Chipsatz. Und ja, es war eine sehr günstige Alternative zu teuren Intel-Boards. Vielleicht war es auch leistungsschwach (mir hat es damals jedoch gereicht, allerdings hat mir der Vergleich gefehlt), aber grausigst instabil? Diese Erfahrung kann ich nicht teilen. Wenn, dann war doch damals das Win 95 nicht gerade das stabilste Betriebssystem. ;)
 
Natalie das Ding kam 80€ für den Preis würde ich sagen man bekommt was man zahlt. Von daher sehe ich es eigentlich entspannt.
 
Erstaunlich dass diese Grafikkarte an mir auch völlig vorbeigegangen ist. Ich hab mir eingebildet dass ich alle kenne (außer Workstation-Grafikkarten).
 
Jetzt wo bald Elex erscheint, wäre es doch eine nette Sache, Gothic 1 oder 2 neu zu entdecken, nicht? :)


Ich hatte mal eine SiS Mirage als onboard Chip und weiß noch ganz genau, dass die selbst mit den einfachsten Desktop-Grafikkarten Probleme hatte. War wohl nur für Notfälle gedacht. Schade allerdings, dass es diese Firma nicht mehr gibt. Konkurrenz ist immer gut.
 
SethDiabolos schrieb:
Kann ich mir nicht so wirklich vorstellen. Mit meiner Radeon 9600@pro (welche zum release von Doom 3 und FC1 hochaktuell war, die Geforce 4200Ti war schon alt) konnte ich Doom 3 lediglich in 800x600 und hohen Settings und Far Cry in 1024x786 mit mittleren Settings spielen und das bei knappen 30 Fps. Die 9800XT, welche zu diesem Zeitpunkt die schnellste Karte auf dem Markt war schaffte knapp 100% mehr Fps, so dass man die Spiele in den gleichen Settings in 1280x1024 zocken konnte oder eben 1024x786 mit hohen Settings. Wirklich rund liefen die Spiele erst mit der kommenden Geforce 6800 GT/Ultra bzw. der Radeon X800pro/XT.

Genau so habe ich das auch in Erinnerung. Ich hatte 2004 sogar schon eine brandneue 6600 GT, die beste damals erhältliche Mainstream-Karte, und die kam bei Doom 3, Farcry und Escape from Butchers Bay auf meinem 19-Zöller deutlich ins Straucheln. Auf 1024 mit mittleren Details, an AA war da nicht zu denken. :D
Battlefield 2 hat der Karte dann schließlich den Rest gegeben, und ich habe sie ein Jahr später bereits durch eine X800 Platinum ersetzt. Mit der liefen diese Spiele dann endlich flüssig bei hohen Details UND Schatten auf max. Und man konnte es wagen, die Auflösung eine Stufe höher zu setzen.

Schon witzig, wie hoch damals die Leistungssprünge zwischen den Grafikkartengenerationen waren. Heute kann man problemlos auch mal ein oder zwei Generationen aussetzen. Das war zu der Zeit nicht denkbar, da musste fast jedes Jahr eine neue Karte her und alle drei Jahre ein komplett neuer Rechner.
 
Zuletzt bearbeitet:
Den Test hatte ich 2002 hier schon mal gelesen. Ein Jahr früher gab es den Kyro II von Videologic, der erfolgreicher war.
Die Konkurrenzkarten, denen ein Feature fehlt, das vom Marketing von Nvidia als unverzichtbar angepriesen und von der Fachpresse gebetsmühlenartig wiederholt wird, auch wenn es noch gar nicht sinnvoll genutzt werden kann, gehen wieder unter. Sei es SiS, VideoLogic oder 3dfx, auch wenn sie in der Praxis überzeugen konnten.
 
Zuletzt bearbeitet:
Wie immer ein schöner Test ! Danke CB. Weiter so !

Die Karte ist auch bei mir vorbeigegangen. Kann mich zu seiner Zeit nicht daran erinnern !:freak:

@CB: Wann kommt der Test der 3dfx Voodoo's ?

Schönes Wochenende.
 
+üpouz
 
Problem damals war auch AGP 8x der andere Spannungen hatte.
TNT2 Karten waren auch sehr zickig und liefen nicht in jedem Board.

Die gf4-440mx war aber glaub nur eine gf2 aber auch sehr kühl.
Hatte selber eine passive und für damals reichte es mir. Habe aber ein 486er Quirl draufgepappt.

SiS Chipsätze hatte ich auch auf einigen Boards und seltsamerweise waren diese meist stabiler als die VIA Dingens.
Ein K7S6A mit AthlonXP und SiS745 läuft heute noch als MusikPC.

Geil waren auch Spiele die vorhandene neuere DX Versionen mit älteren überschrieben und dann gar nix mehr lief.
Schuld war natürlich MS mit deren doofen DX-Installern.
 
Zuletzt bearbeitet:
Crass Spektakel schrieb:
SiS war halt immer der Billigheimer obwohl die Chips selbst durchaus schlau durchdacht waren - ich hatte von SiS einen 471-Chipset im Einsatz mit dem ich ein ziemlich bombastisches 486-System betrieben habe - ein AMD 5x86-PR75 übertaktet auf 4x45=180Mhz, 64MB RAM - dank getauschtem Cache und nachträglich verlegten Adressleitungen sogar voll gecached - und jede Menge knallharte ISA und VLB-Hardware, z.B. die 100MBit-Karte 3c515 "Corkscrew", eine S3 Virge als VLB-Karte, einen Adaptec 2840 als VLB-Karte mit 2x2GB SCSI im RAID0, einen DMA-PATA66-Controller als VLB-Karte, 6x RS232, 3x V24, 2x USB 1.1 als ISA-Karte.... Basteltechnisch ein Traum und stahl bei roher Leistung und Wupptizität noch so manchem Pentium-133 mit PCI-Grafik die Schau.

Allerdings waren SiS-Chips immer auf billigsten Lösungen verbaut und obwohl die Chips gut waren haben die Implementierungen vieles versaut. Mainboards mit SiS-Chipset litten besonders an den gammeligen Kondensatoren der Jahrtausendwende, teilweise sind die Kondensatoren schon nach einem halben Jahr ausgefallen. Ein Kunde hatte ein Dutzend Dell-Rechner mit diesem Chipset, nach dem ersten Ausfall haben wir eine Garantieverlängerung dazugebucht und in den gesamten drei Jahren kamen wir auf fast 40 Austauschvorgänge. Nach Ablauf der Garantie haben dann der Azubi und ich alle Kondensatoren durch hochwertige getauscht, damit liefen die Rechner bis einschliesslich Windows 7, erst Windows 8 lief nicht mehr. Und ja, mit guten Kondensatoren waren die auch sehr zuverlässig. Ich wette ein paar von denen laufen heute noch weil die Geizhälse in dieser Klitsche echt jedem Euro nachweinen...


Kann mich noch an Ein Mobo Chipsatz erinnern der auf einem K7s5a verbaut war. Ja es war ein billigheimer gegen KT266, KT266a und KT333 aber man sollte angebloch SD oder DDR Speicher nutzen können. Mit SD lief es bei uns nie stabil. hatten wohl keinen passenden Ram. mit DDR war es aber absolut ok. Stabil und günstig.
Privat waren mir aber Via Chips und später Nvidia lieber. Und dann kam die Zeit, als nurnoch die CPU Hersteller selbst gute Chipsätze gebaut haben.
 
K7S5A hatte glaub mehrere Revisionen und bei mir liefen 2 Bretter immer stabil mit SD133-Ram.
Ja damals musste man beim RAM auch sehr aufpassen.
Ging sogar soweit dass man Slots vertauschen musste oder gar einen frei lassen musste.

Hatte damals sogar meist Mischbestückungen laufen. 64MB/128MB/256MB usw.
Doppelseitige RAMs machten oft auch Problem und wurden eventuell nur mit halber Kapazität erkannt.

Übrigens war das bei EDO und FP-RAM mischen auch oft so ne Sache.
An die KT133/266 Bretter erinnere ich mich nur noch ungern zurück.
 
Zuletzt bearbeitet:
Betrug als Feature verkaufen.
Das kennt man sonst nur noch von nVidia.
Zumindest aus der letzten Generation.
 
"ATi und Nvidia hatten es teils heimlich gemacht, bei SiS wurde es als Feature verkauft: Die Bildqualität über den Treiber zu beschränken, um die Leistung zu steigern."

Und machen es heute noch. Mit viel mehr Aufwand. Shader austauschen, Tesselationsstufen beschränken.. Vermutlich glauben viele Leute wirklich, dass "Treiberoptimierungen" für neue Spiele wirklich selbiges sind. Nein.. optimiert wird da gar nix. Anpassungen daran, wie die Engine mit der Hardware interagiert, hätten schon längst während der Spieleentwicklung passieren müssen, und zudem viel mehr Aufwand gekostet als es in 1, 2 Wochen mit einem neuen Treiber passieren kann. Nein, bei letzterem werden einfach diverse Objekte, die auf der eigenen Hardware schlecht laufen, ausgetauscht, oder in der Qualität runtergeschraubt.

Das ist Cheating. Beide Hersteller machen es. Und es wird heute überhaupt nicht mehr angesprochen.
 
Bei den Ultima 9 screenshots bekomme ich sofort ein Ohrwurm vom "Lord Britsh's Castle" soundtrack. :D
 
Sehr schön, sogar meine erste Grafikkarte, die GeForece 4 MX 440 ist im test vertreten :)
Unglaublich, wie sich die Leistung im Laufe der Jahre weiterentwickelt hat!
 
GrKa von mit Sis Chipsatz hatte ich keine aber ein Epox (Kann mich nicht mehr an die Bezeichnung erinnern) Motherboard mit SiS Chipsatz mit dem Celeron A 300MHz der durch Nagellack/Tesafilm Trick mit 450MHz zu betreiben ging wie der damalige Pentium II :D
Müsste so 1998 gewesen sein ...
Später hatte ich noch ein Soyo SY-P4S Dragon Ultra MB mit SiS Chipsatz für einige Jahre im Einsatz.
Kann nix negatives berichten ...
 
Zurück
Oben