Radeon 9700 od. nv30 was meint ihr ?

Original erstellt von DjDino
Ich hab mal das Ergebniss mit meiner Geforce4Ti4600+P4 @2.6Ghz(RamBus) verglichen :

3DMark Score :
[snip]
Fill Rate (Single-Texturing)
1157.6
2013.3

Fill Rate (Multi-Texturing)
2471.3
2848.8
[snip]

Und nun rechne ich mal nach:

2848,8 MTex/s geteilt durch 8 TMUs = 356 (MHz) ---> Radeon9700 dreist übertaktet, Ergebnis nicht nur durch Extrem-CPU irrelevant, aber nichtsdestotrotz nicht zu verachten.
 
Es soll ja auch noch eine abgespeckte Version der Radeon 9700, die Radeon 9500 dieses Jahr kommen. Die könnte so um die 300€ kosten.
 
@Carsten

Verstehe, 1ne TMU schafft 1MTexel in einem Durchgang, 1 Durchgang=1Rechen b.z.w. Taktzyklus(Chip->Mhz) - sag mir wenn ich falsch lieg. Dann dürfdest du auch bemerkt haben das meine Graka leicht übertaktet war - rate mal auf wieviel, ich weis es genau :D
 
Das wird schon schwieriger. Bei der Radeon isses relativ einfach, da man mangels verlässlicher Vergleichswerte erstmal 100%ige Effektivität annehmen muss.

Die GF4 liegt erfahrungsgemäß bei ca. 97% Effektivität beim MT, also würde ich bei deiner so auf ca. 320MHz tippen, etvl. etwas mehr.

1 TMU schafft pro Taktzyklus 1 Texel (1MTex wäre schön *gg*), also gilt, daß die theoretische Füllrate bei MT bei Chiptakt*Anzahl TMUs liegt. Da diese bei GF4 und R9700 gleich ist, müsste auch grob dieselbe MT-Füllrate rauskommen (abzgl. der Effektivitätsunterschiede).
Das Design mit 8*1 (Pipelines*TMUs) ist trotzdem deutlich effektiver als ein 4*2 Design, vorausgesetzt der Chip beherrscht ausreichend "tiefes" Loopback. Jedesmal, wenn eine ungerade Anzahl von Texturen auf einem Objekt liegt, hat das 8*1 Design Vorteile, da keine TMU brach liegt, die vorhandene Füllrate also effektiver genutzt werden kann.
 
Nehme mal an bei 8 TMUs ist dann die Auslagerung auf diese effektiver - fallen bei ungünstiger Situation von 4TMUs 1ne weg bleiben 3 =25% Verlust. Fällt bei 8 TMUs eine weg bleiben aber immer noch 7 = nur ~ 15%Verlust - b.z.w. sind dann auch z.b. 5 von 8 möglichen mehr als 2 von 4 möglichen (2,5 geht ja nicht) - ersteres kann also mit höhere Chance die Pipeline mit texture mapps besser ausgelastet/gestopft halten ?

Und ja sie war auf exakt 320Mhz getaktet !
 
Das gute an dem 8*1 Design ist, dass eigentlich gar keine TMUs wegfallen, da ja jedes Pixel mit mind. einer Textur beklebt ist.

4TMUs (wie in deinem Beispiel) kommt ja auch nicht so ganz hin, da alle aktuellen Grakas (GF3, 4TI, Radeon8500, Radeon 9700) 8TMUs haben, sie sind nur etwas anders verteilt.

Nehmen wir mal an, UT2003 nutzt im Schnitt 4 Texturen (Base, Detail, Specular und Bump) so könnte im Schnitt die GF4 genauso effektiv (nicht genauso schnell!!) rendern, wie die Radeon9700.

In bestimmten Situationen aber, wo nur drei, oder aber 5 Texturen benötigt werden, wird die Rechnung etwas anders.

Beispiel 1 (3 Texturen):
Radeon9700 braucht pro Pixel 3 Durchläufe (aber nur einen Rendering-Pass, weil sie erst nach den 3 aufgetragenen Texturen in den Speicher schreibt), kann dafür aber in diesen 3 Zyklen 8 Pixel bearbeiten (wegen der 8 parallelen Pipelines).
Ergebnis (zur besseren Vergleichbarkeit auf das KGV gerechnet): 6 Zyklen, 16 dreifach texturierte Pixel, zwei Passes
GeForce4Ti braucht pro Pixel nur zwei Durchläufe (ebenfalls nur einen Rendering-Pass, weil sie einfaches Loop-Back beherrscht), nutzt aber im zweiten Durchgang nur eine der beiden TMUs je Pipeline. Sie berechnet in 2 Zyklen 4 Pixel mit je drei Texturen.
Ergebnis (zur besseren Vergleichbarkeit auf das KGV gerechnet): 6 Zyklen, 12 dreifach texturierte Pixel, drei Passes

--> Also hier schon ein 33% Vorteil für das 8*1 Design (sogar ohne die zusätzliche Bandbreite für den zusätzlichen Pass)

Beispiel 2 (4 Texturen):
Radeon9700: 4 Zyklen, ein Pass, 8 Pixel

GeForce4 TI: 2 Zyklen, ein Pass, 4 Pixel

Normalisiert sind hier die Designs gleichwertig, da hüben wie drüben alle TMUs vollständig genutzt werden können (außer, daß die GF4 für dieselbe Anzahl Pixel (8) einen kompletten zweiten Rendering-Pass benötigen würde, welcher natürlich nicht zum Preis von weiteren 2 Zyklen zu bekommen ist, also ein deutlicherer Vorteil für das 8*1 Design).

Beispiel 3 (5 Texturen):
Radeon9700: 5 Zyklen, ein Pass, 8 Pixel

GeForce4 TI: 3 Zyklen, zwei Passes, 4 Pixel

Nun wird's kriminell: Auf 15 Zyklen normalisiert, schafft die Radeon 24 fünffach Texturiert Pixel in drei Rendering-Passes. Die GeForce4 schafft in 15 Zyklen 20 Pixel mit je fünf Texturen, braucht allerdings 10 Rendering-Passes dafür.


Ich hoffe, ich bin verständlich geblieben..... :)
 
Dann wirkt sich das z.b. in Doom3 stark verwendete Multi Texturing (viele Texturen auf einem Pixel gelegt)stark auf die Leistung der Grafikarten aus, die nur wenigere Textureinheit pro Renderingpipeline haben. Die müssen pro Textur mehrere Taktzyklen machen was bremmst oder (falls vorhanden) weitere Renderingpipelines nutzen.

Bei Doom3 dürfte hier die Radeon9700 um einiges besser gewapnet sein ?!

Hab da was gefunden was mit geholfen hat zu verstehen :

mtperfo.gif
( Quelle : http://www.ati.com/ )
 
also über die benchmarks musste ich schon lachen. so der knaller ist die ati radeon echt nicht. 17000 punkte ist für ne next generation karte lächerlich, noch dazu auf einem 3,1 ghz- system.
lächerlich deshalb, weils genug leute gibt, die mit langsameren pcs und gf4 ti karten über 16000 points bekommen.
(ich such gleich maln link, zum beweis)

ich zweifel nicht an der leistungsfähigkeit der 9700er, aber das benchmarkergebnis ist total lächerlich.

cya
 
Zuletzt bearbeitet:
Hi!

Das was man da so hört und liesst macht eigentlich schon wieder Lust auf eine neue Grafikkarte. :volllol:

Auf der anderen Seite wärs auch wieder zu hart, gleich zwei Grafikkarten pro Jahr zu wechseln.....

Naja, wenn´s so läuft wie bei meiner jetzigen Radeon (Spotpreis im Ausverkauf eines pleite gegangenen kleines Shops) werd ich vielleicht wieder zuschlagen.

Ich hoffe d. ATI und NV sich dieses Jahr noch einmal gegenseitig kräftig auf die Rübe haun und wir die Verbraucher durch günstige Preise partizipieren.

Also ein Grund für mich, auch auf eine schnelle NV-Karte zu warten, dann kann ich vielleicht getrost dieses kleine Höllenteil erwerben.

Na dann.... schaun mer ma

CU
 
jungs jungs... wartet doch bis Doom3 und Unrel2 kommt.
Wie war das denn noch vor ein paar Jahren, als die Games rauskamen (UT,Q3) mit ihren neuen Engines.
Das war die Zeit um in den PC-Laden zu rennen und sich ne neue Graka zu kaufen!
Die ganzen Games nutzen doch immer noch die ollen paar Jahre alten Engines (CS ->HL Engine; JK2 -> Q3-Engine; die UT Engine will keiner mehr...), also wartet doch ab... damit es sich wenigstens lohnt ;) . Mit den Games fallen sicher auch die Preise und Grafikkarten kommen um ruckelfrei spielen zu können und nicht um bei 3D-Mark den längeren "Schwanz" zu haben.
Ich sitze hier gerade wegen Geldmangel mit ner Kyro2 und ich verstehe nicht, warum ihr sooo super Grakas braucht, wenn Doom3 auf der neusten Nvidia Karte trotzdem mit 30fps rumruckelt. Wenn ihr den Herrstellern Geld schenken wollt, dann gebt es mir lieber! Bekommt auch ne selbstgemalte Sonne von mir :D .
Ich würde außerdem die ATI Karte nur aus Protest kaufen, da sich NVIDIA bald 3DFX nennen dürfen, wenn die weiterhin nur auf die Performance achten!

Vielleicht sollte man den Programmierern in den Arsch treten, damit die nicht mehr so ne verbugte scheiße wie bei GTA3 rausbringen argh.

mfg Sick_Boy

PS:meine Kyro2 hat 50€ gekostet, also könntest du dir 6 Stück für 300€ kaufen...
 
Radeon9700pro bei Chip-Online im Test :

http://www.chip.de/produkte_tests/produkte_tests_8788072.html

3DMark2100SE :
http://www.chip.de/artikelbilder/2728312_7beb92a37f.jpg

hmm.....ca 20% mehr ? Wenig - naja gut, synthetischer Benchmark und Beta-Treiber und so...

DirectX8-Poylgon und Füllratenmonster "Codecreautures Pro" :
http://www.chip.de/artikelbilder/2728326_341a8ce8d0.jpg

Eindeutig für Poylgon und Füllratenmonster ausgelegt die Karte ;)

Aber jetzt die Überaschung unter OpenGL : "Vulpine GLMark 1.1p" :
http://www.chip.de/artikelbilder/2728304_341a8ce8d0.jpg

in 1024x768 50% >hinter< der Ti4600 ?

ATI hate schon immer Probs in der OpenGL-Perfomance, aber dieser Rückstandt bei nem 256Bit-Speicherinterface,u.s.w. ?

Also insgesammt ( trotz sicher unausgereifter Treiber) finde ich den Vorsprung unter Direct3D bei extremlastigen Spielen auf jeden Fall beachtenswert, bei OpenGL muss aber was gemacht werden - das ist ja irre !
 
Radeon9700pro in Unreal Tournament 2003

Radeon9700pro in Unreal Tournament 2003 : http://www.anandtech.com/video/showdoc.html?i=1683&p=8

Die extremsten Beispiele :

dm-antalus @ 1024x768 :

ATI Radeon 9700 Pro : 142.5 fps
NVIDIA GeForce4 Ti 4600 : 104.7 fps

dm-inferno @ 1024x768 :

ATI Radeon 9700 Pro : 133.7 fps
NVIDIA GeForce4 Ti 4600 : 89.7

Mal ehrlich, 89.7fps tuns doch auch oder ? So in diesem Sinne mein ich ...
 
Man Leute macht euch doch nicht so wild wegen ner ollen GraKa.
Was wollt ihr den mit ner 9700 Pro oder mit ner GF5 ?????
Klar man kann gut prollen wenn man so eine Karte hat, aber wer zum Teufel brauch so ein Teil??? Ich hab bis vor kurzem auch nur ne Voodoo3 3k gehabt und damit lief alles. Nur NWN leider nicht und desshalb hab ich jetzt ne GF4 Ti 4200. Die muss aber auch die nächsten 2-3 Jahre halten. Vorher giebts keine neue. Also lockerbleiben und lieber was günstigeres kaufen, das reicht allemal.

MfG Der Tierarzt
 
Ich habe irgendwo gelesen, dass der NV30 garnicht für den Mainstream-Markt gemacht wird sondern auf den Highend-Bereich zielen wird(>500EUR)
 
Original erstellt von MoF
Ich habe irgendwo gelesen, dass der NV30 garnicht für den Mainstream-Markt gemacht wird sondern auf den Highend-Bereich zielen wird(>500EUR)


ahhh. endlich mal einer der es geschnallt hat. HAbt ihr mal überlegt für wenn die zusätzlichen features sein sollen ??? Für Gamer uninteressant, auf jedenfall nicht in bezahlbaren Regionen. Ich selber gehe auch davon aus, das das NV30 Topmodell den R300 Speddmäßig stehen läßt, aber nicht so stark wie die meißten vermuten. das wäre für Nvidia der Overkill, weil wo will man da in der nächsten Chipgeneration nochwas rausholen, was noch bezahlbar sein soll?
 
Original erstellt von MoF
Ich habe irgendwo gelesen, dass der NV30 garnicht für den Mainstream-Markt gemacht wird sondern auf den Highend-Bereich zielen wird(>500EUR)

ja, das glaub ich dürfte jeden klar sein. is auch nichts besonderes, schau dir mal die preise der anderen karten an: die gf2 gts hat ab 800 dm gekostet, die gf2 ultra hat 1300 dm gekostet, die gf 3 hat 500€ gekostet, die radeon 8500 hat ca 400 € gekostet, die gf 4 ti 4600 kostet 400 -500€ und die radeon 9700 wird auch ca 450€ kosten.
das alles waren und sind highend karten, also die besten und logischerweise teuersten karten überhaupt.
mainstreamkarten sind zb geforce 2mx, radeon 7500, gf 4 mx und radeon 9000. für den mainstream markt wirds sicher auch wieder ne neue, billigere nvidia karte geben.

cya
 
ahhh. endlich mal einer der es geschnallt hat. HAbt ihr mal überlegt für wenn die zusätzlichen features sein sollen ??? Für Gamer uninteressant, auf jedenfall nicht in bezahlbaren Regionen. Ich selber gehe auch davon aus, das das NV30 Topmodell den R300 Speddmäßig stehen läßt, aber nicht so stark wie die meißten vermuten. das wäre für Nvidia der Overkill, weil wo will man da in der nächsten Chipgeneration nochwas rausholen, was noch bezahlbar sein soll?

Soviel ich gelesen habe soll die Performance der Karten ausreichen um alle Spiele nächsten 2 Jahre flüssig spielen zu können die Karten unterstützen bereits jetzt Techniken die noch keine Software nutzen kann (DIRECT X 9) vielleicht sogar noch darüber hinaus wenn das stimmt dürfte NVidia und ATi die nächsten 2 Jahre keine neue Chip Generation veröffentlichen was die eigene Kasse entlasten dürfte. fragt sich nur inwieweit sich das verwirrklichen läßt?
 
Original erstellt von Blackdawn


Soviel ich gelesen habe soll die Performance der Karten ausreichen um alle Spiele nächsten 2 Jahre flüssig spielen zu können die Karten unterstützen bereits jetzt Techniken die noch keine Software nutzen kann (DIRECT X 9) vielleicht sogar noch darüber hinaus wenn das stimmt dürfte NVidia und ATi die nächsten 2 Jahre keine neue Chip Generation veröffentlichen was die eigene Kasse entlasten dürfte. fragt sich nur inwieweit sich das verwirrklichen läßt?

Glaube ich nicht. Die Chipdesigner werden nur soviel speed zur verfügung stellen, wie gerade benötigt. Mehr käme ja einem Selbstmord gleich, wer soll den dann noch Kartenkaufen wenn keine neuen mehr kommen ?
Ich denke mal das die Grafikchiphersteller jetzt soweit sind das die Karten nicht mehr auf speed getrimmt werden, sondrn das jetzt mehr und mehr effekte einzug halten, bis wir irgendwann mal beim Photorealistischen Rendering sind, bzw echtzeit Raytraicing in Hardware.
 
Original erstellt von DjDino
@Hellracer

Trotzdem hier noch was für die Augen : http://james.mpaska.com/quakecon/day2/DSC00402.JPG

*seufz*

also wenn das auf den bildern, die da noch auf der site sind, ne radeon 9700 ist, was ich annehme, weils auf allen postern rundrum zu lesen ist, dann hat sie ne externe stromversorgung. es ist soweit.

http://james.mpaska.com/quakecon/day2/DSC00402.JPG

http://james.mpaska.com/quakecon/day2/DSC00403.JPG

http://james.mpaska.com/quakecon/day2/DSC00404.JPG


gruß palo
 
Zuletzt bearbeitet:
Zurück
Oben