GeForce 9X00 Serie Testen.

TheDuque

Lt. Junior Grade
Registriert
Aug. 2006
Beiträge
352
Hallo Zusammen.

Leider habe ich keine GeForce Grafikkarte und obendrein noch nen MAC, daher ist dieser Test für mich selbst nicht durchführbar.

Durch eine News bezüglich der RV770 und möglichen Benchmarks, kam mir die Frage auf wieviel mehrleistung ein ATI/AMD Chip hätte wenn die Shaderdomain höher Taktet wie der Chip selbst.

Oder anders rum, was für Werte/Benches bekommt man, wenn man bei einer GeForce die Shaderdomain gleich wie den Chip takten.

Wäre jedenfalls sehr foh wenn sich jemand meinem Anliegen erbarmen würde und dies kurz mit einen kleinen Benchmark oder so mir mitteilen.

Danke schon mal im Voraus.
Duque
 
Ich versteh die Frage nicht ganz... außerdem bei den neuen HD4000er wird der Shaderdomain höher getaktet als der Chip, also nicht wie bei HD3000er und früher... somit würde das eine spürbare Mehrleistung geben... sie holen wohl also mehr Leistung aus dem Takt raus als Nvidia...
 
Also was ich möchte ist folgendes.

Es wird ja gemunkelt dass die HD4000 Serie eine eigene, höher getaktete Shaderdomain haben wird -> so wie de ganzen GeForce Modelle.
Nun gibt es eingie Stimmen (auch hier im Forum) die sich einen grösseren Lesitungsschub druch eine eigens getaktete Shaderdomain nicht vorstellen können.

Da die HD4000 noch nicht mal Vorgestellt wurde, Interessiert mich nun wie es bei einer GeForce Karte ausschaut.

Wenn dort der Chip und die Shaderdomain gleich getaktet sind -> Also den Referenz Takt des Chips haben.
Wie schaut es dann mit der Leistung einer GeForce Karte aus.

Gruss
Duque
 
Abwarten und Tee trinken. Nur noch einen Monat, dann kannst du dich selbst überzeugen.

Greez
 
@Saromis: Wattn ? nur noch einen Monat, das kann ich fast nicht Glauben........ oder doch ?

Ja. aber mich wurde es auch Interessieren wie eine GeForce läuft, wenn bei der Chip und Shader genau gleich Takten.

Gruss
Duque
 
was du verlangst dürfte garnicht möglich sein, da sich der shadertakt in einem bestimmten verhältnis zum chiptakt verhält (bei NV 1 zu 2,5), du kannst die gpu auf 1mhz runterbremsen, die shader laufen dann immer noch mit 2,5mhz...
 
ich glaub man kann die taktraten schon angleichen. es gibt ja auch diverse oc-modelle bei denen der gpu-takt angehoben wurde, aber der shadertakt auf standart läuft.
@TheDuque: ich find das ne gute idee. würde mich auch interessieren, wie sich das auf die leistung auswirkt. leider hab ich auch keine gf9^^
das wäre doch was für unsern spezialisten y33h@... ;)
 
Zuletzt bearbeitet:
ja wäre interessant wie weit man mit dem shader takt runter kommt chip gleiuch shader setzten und dann mal sehn wie die karte noch so arbeitet
 
@Lübke: Meinst du y33h@ könnte des ganze mal ausprobieren ?
Wieso kenn ich keinen der ne NV Graka hat :(
 
@TheDuque

Die HD4xxx Reihe wird doch mitte Juni das Licht das Welt erblicken. Oder nicht? Oo

Greez
 
*HEUL* Ja dann hoffen wir mal es bleibt bei Juni.
Und dann gleich eine MAC Pro Edition oben drauf und ich wäre auch Glücklich.
 
das ist aber ein komischer vergleich
das G89/G92 konzept ist ja darauf ausgelegt die shader viel höher zu takten. dementsprechend wurde ja auch das verhältnis zwischen shader- und textureinheiten gewählt
wenn man bei der karte dann nachträglich die shader runtertaktet stimmt ja das verhältnis gar nicht mehr

amd wird ja auch nicht ein design entwickeln und nachträglich mal schauen ob man die shader höher taktet
es muss ja ein ausgewogenes verhältnis aller einheiten bestehen
man hat ja nur ein begrenztes "transistoren-budget" zur verfügung, da wird man keine verplempern
 
Ich schnapp mir heute Nacht meine GTS und benche mal CoD4, Crysis und evt. noch Turok :)

cYa
 
Danke dir für deine Bemühungen !
 
Sooo, bin nun daheim :)

EDIT

blubb58q.jpg


cYa
 
Zuletzt bearbeitet:
w00t.

Echt klasse von dir y33H@, dickes Lob.
Sieht ja gar nicht mal so schlecht aus.
Zudem schön zu sehen dass es je nach Spiel deutlicher ausfällt.

und so im Schnitt können wir sagen ne eigene Shaderdomain bringt 10fps mehr auf Nvidia Karten.
Mal schauen wie sich ATI/AMD da anstellt.

Gruss
Duque
 
bei den benches bewegt sich der unterschied zwischen 10-50%. wenn man das so übertragen kann,stimmen die News,dass der HD4000 das 1,6fache der HD3000 leistet, vor allem,da sie ein deutlich schnelleren Speicher hat.
 
in wie weit sie vom speicher profitieren kann muss sich noch zeigen. bei der r600 hat man ja gesehn dass es fast keinen unterschied zwischen 256bit und 512bit gibt. gleiches gillt anscheinend auch für die 3870. wurde hier mal n artikel zu veröffentlicht... bin also mal gespannt ob die neue hd4k einen nutzen aus mehr speicherdurchsatz ziehen kann... aber das mit der eigenen shaderdomäne bringt offensichtlich schon was...
 
Zurück
Oben