Radeon 7500 gegen GF2 !?

JackDaniels

Lt. Junior Grade
Registriert
Jan. 2002
Beiträge
385
Hi,

hab grad mal die tests angeguckt, die radeon 7500 scheint schon bisschen besser als die Geforce2 zu sein, oder? Hab auch mal gelesen dass die Farben und der TV-Out der Radeon besser sein soll, is das so korrekt?

danke mal,
 
In 16-Bit-Anwendungen hat die GF2 wohl die Nase vorn, beim 32-Bit-Rendering kann sie ihre (eigentlich deutlich überlegene) Füllrate allerdings bei weitem nicht ausspielen, während die Radeon mit HyperZ punktet.
 
hat die Radeon nicht auch Trueform oder gabs das erst ab der 8500er
 
wie siehts denn nun mit dem TV-Out aus? is der bei ati besser?
kann mit den begriffen leider net viel anfangen...... :/ was isn z.B. eine 16 und 32 bit anwendung?
 
Original erstellt von JackDaniels
wie siehts denn nun mit dem TV-Out aus? is der bei ati besser?
kann mit den begriffen leider net viel anfangen...... :/ was isn z.B. eine 16 und 32 bit anwendung?

Ja der TV-Out ist bei Ati besser, vor allem bei diesem Vergleich. 16 bzw 32 bit ist die Bezeichnung der Farbtiefe, was nichts anderes bedeutet als die schiere Anzahl der dargestellten Farben. 16bit -> ca. 65000 Farben
32bit -> ca. 16,7 mio Farben
Bei vielen nicht ganz neuen Spielen fällt er Unterschied nicht besonders auf, aber besonders neue Spiele verwenden meist Texturen und Lichteffekte bei denen der Unterschied doch ziemlich deutlich zu erkennen ist. Viele neue Spiele verlangen auch 32 bit zwingend.
Die 7500 ist auf einem starken Rechner zu 90% schneller als ein GF2 Ultra, ABER auf langsamen Rechnern ist sie fast immer schneller! Bei deiner CPU würds wohl nurmehr 6,5 zu 3,5 ausgehen (für die Radeon). Aber wie das genau aussieht kannst die hier studieren:
http://www.rivastation.com/review/vgacharts2/vgacharts2/vgachartsp2_3.html
 
ok, danke dir!! das wollte ich hören/lesen :D
die karte ist für den pc meiner freundin, der wird zwar jetzt aufgerüstet wird aber langsamer als meiner bleiben ;)

also denn die Radeon, alles klar, thx!
 
Bei 16Bit fällt das auf GeForce-Karten gut auf, ist nähmlich so ein komisches Muster/Raster auf dem ganzen Bildschirm gesäat schwach zu erkennen, dabei meine ich nicht das Dithering zwischen den Farbverläufen.
Einzig alleine bei der Half-Life1 Engine ist dieses Muster bei 16Bit für mich schwer auszumachen, nur einigen Situationen erkenne ich es wieder.
Nicht dass ihr denkt ich hätte einen Defekt an meiner Grafikkarte, das sah ich schon damals auf der GF1, GF3ti und meiner heutigen GF4ti.
Vielleicht weiss einer von den Profis was dieses Raster auf sich hat, für mich ist 16Bit auf Nvidia-Karten ein absolutes Unding.
 

Anhänge

  • raster.png
    raster.png
    1 KB · Aufrufe: 485
Das sieht ja fast aus wie die Checkerboard-Artefakte die ich nach freischaltung diverser Pipelines in den Radeon Karten hatte. Was hast du denn da wieder gedreht? :D
 
Original erstellt von JackDaniels
was isn z.B. eine 16 und 32 bit anwendung?
Das ist die Farbtiefe des Framebuffers. Gerendert wird seit langem mit mindestens 8 Bit pro Kanal (Rot, Grün, Blau, Alpha) also 32 Bit. (In fact wird genauer gerendert bzw. gesampelt.)

Nun muss jeder gerenderte Pixel in den Framebuffer geschrieben werden. 16-Bit-Grafik macht aus dem 8-8-8-RGB-Wert einen 5-6-5-RGB-Wert. Dabei kommt in der Regel außerdem ein (ordered grid) Dithermuster zum Einsatz.

32-Bit-Rendering speichert 8-8-8-RGB +8 Bit Alpha. Statt 16 Bit Farbe hat man also 24 Bit Farbe.
 
Original erstellt von DvP
Das sieht ja fast aus wie die Checkerboard-Artefakte die ich nach freischaltung diverser Pipelines in den Radeon Karten hatte. Was hast du denn da wieder gedreht? :D
Rumgewerklet habe ich an meinen Karten nichts, auch installierte und verwendete ich die Treiber ordnungsgemäß.
Scheint wohl um diesen Ordered Grid zu handeln, worüber aths geschrieben hat.
Für mich ist das unter aller Sau, dass man das erkennen kann, allerdings und einzig alleine nur unter 16Bit bei allen meinen Nvidia-Karten.
Die ATi Rage 2C, SiS 635 und die 3Dfx Voodoo2 waren frei von diesem Artefakt.

 
Zurück
Oben