Test Test: GeForce 180.47 in fünf Spielen

y33H@ schrieb:
@ Antimon

PP2.0 funktioniert doch - der Takt geht runter und die VCore auch. Clock-Gating kann man imo nicht einfach so nachprüfen.

cYa

Ja doch ich weiß es, einigen wir uns halt wieder darauf, dass PP2.0 noch optimierungsbedürftig ist da der GDDR5 Speicher noch zu viel frißt :p

die Temperaturen spielen eine große Rolle. Je höher die Temp um so stärker wird das Material und die Komponenten strapaziert. Wenn eine karte mit 90° läuft, steigert sich der Altersprozess schon enorm, was viele schon in Form von Rauch gesehen haben.
Bei 70° ist die gefahr deutlich geringer.

Ob die GPU nun auf 50 Jahre Laufzeit bei 70° kommt oder nur auf 25 Jahre bei 90°....ich muß gestehen, bei mir hat noch keine Hardwarekomponente so lange im eingebauten Zustand überlebt, vorher gab´s was neues. Und selbst die gute alte X850XT was n paar Wochen mit verstaubtem Kühler bei 115° gelaufen is lebt heute noch, sie hat halt brav bei 115° angefangen zu throtteln.
 
Antimon schrieb:
Ob es sich dabei um einen nennenswerten Vorteil handelt lässt sich streiten, nutzbare Anwendungen sind bis heute Mangelware, trotz großflächiger Unterstützung der NV Karten.
Besser siehts mit DX 10.1 auch nicht aus, eher sogar noch sehr viel schlechter.



Mit Hybridpower verhält es sich im Moment wie mit PP2.0 alle die sich eine Kombination gekauft haben in der Hoffnung jene mittels Hybrid Power zum Stromsparen zu verwenden warten auf einen Treiber welcher die Funktion auch zuverlässig funktionieren lässt.
Nö, funktioniert schon seit ein paar Monaten wunderbar mit Mainboards die dafür gedacht sind.



Ob jetzt eine GraKa mit 50°, 60°, 70°, 80° oder 90° läuft ist im Prinzip Jacke, wenn sie für diese Temperaturen ausgelegt ist und fehlerfrei läuft. Die niedrigeren Temperaturen sind zwar für Temperaturfetischisten ganz nett, den Otto Normaluser tangieren sie nicht wirklich.
Die Grafikkarte gibt ihre Hitze auch an andere Komponenten weiter. Außerdem, je wärmer die Grafikkarte, desto lauter wird sie.



Darüber kann man nun streiten, mir ist z.B. rätselhaft warum sich Leute eine Grafikkarte kaufen wollen die im IDLE wenig Strom verbraucht wenn sie die Karte in ihrer IDLE Phase eh mit Folding@Home beschäftigen :rolleyes:
Du glaubst wirklich dass das jeder macht? :lol:
Nichtmal die meisten werden das machen. Die ihre eigenen Stromrechnung bezahlen sowieso nicht.




OC ist immer ein kann sein, leider nie ein ist so ;)
Trotzdem bekommt man nen Mittelwert, und der ist bei den 200ern sehr viel besser.



Über diese Aussage scheiden sich die Geister, zumindest gibt es diese Diskussion seit es Grafikkarten gibt :p
Mag sicherlich teilweise richtig sein, aber wenn man es mal ganz neutral betrachtet, ist Nvidia da nunmal weiter.
Das werden die Fanboys hier natürlich nicht zugeben.
 
Zuletzt bearbeitet:
für 189,-€ is die 4870 dennoch ne gute wahl^^
die "kleine" 260er kostet knappe 40,-€ mehr.

mfg
 
@ Antimon

Jopp, AMD sollte dem GDDR5 nen 2D-Takt spendieren, das wärs. Aber offenbar ist das PCB für so krasse Taktsprünge nicht wirklich ausgelegt, im Test ist mir eine da gerne mal gefreezt (Fur an, Fur aus, Fur an, Fur aus, freeeeeeez *g*).

cYa
 
yuhu:D nicht mehr lange und bald wissen wir alle, was noch in den hd48xx karten steckt...
 
Also ich kann diesen Tests einfach nicht mehr glauben, ich habe mal von zig versch. Hardwareseitenm die benches verglichen. Jeder hyped ne andere Karte. logischerweise habe ich immer dieselben settings verglichen. von ca. 9 seiten haben 4 die G200er hochgejubelt, 2 Die 9800GX2 und 3 Die HD4870X2 (das relative verhältnis stimmt jedenfalls ziemlich genau).
Es GIBT KEINE objektiven Tests mehr, zumindest könnte man das meinen wenn überall andere ergebnisse rauskommen, und selbst wenn 3 seiten die selbe karte hypen aber bei denselben settings (ich beachtete auch das Testsystem) wirklich komplett andere FPS ergebnisse haben.
Mir kann doch keiner erzählen das eine X2 50% schlechter ist als in einem anderen Test.
Die suche habe ich schon kurz vor release gemacht, aber geändert hat sich da wohl kaum was. Jeder schreibt was er will bzw. wie ihm "gesagt" wird.


vergleicht mal mehrere benches mit denselben settings. es ist zum kot**n. Wie soll da der käufer wissen was jetzt für ihn das beste ist?
das einfachste ist, man bestellt sich die karten, baut Sie sich ein testet z.B. seine 3 favoriten bei mir wärens dann HD4870, GTX260 und 280. meine CPU ist zwar was eingerostet aber wird OCed wohl reichen.

E6300 @ 3,4GHz (standard OC 3,2Ghz)
MSI P35 Neo2-FR
OCZ2G8002GK (800er DDR2 2GB Kit OCZ RAM)
(noch) X1950XT.


ich weiß nicht was ihr von diesen tests haltet, aber die sind auch erst seit dem neuen "fight" zwischen den HD4xxx und G2xx entstanden, andere tests stimmen ziemlich gut überein oder haben halt typische schwankungen die auch am system hängen.
Habt ihr da noch nie bemerkt das andere Test von Hardwareluxx, CB oder PCG etc. sich unterscheiden (weiß jetzt nicht ob genau die sich utnerscheiden, aber wenn man mehrere benches anguckt fällt einem das schon auf)?
 
Wenn man nicht zwischen maximalen, minimalen und durchschnittlichen FPS unterscheiden kann, entsteht der Eindruck wohl wirklich. :lol:
 
4D!0z schrieb:
Also ich kann diesen Tests einfach nicht mehr glauben, ich habe mal von zig versch. Hardwareseitenm die benches verglichen. Jeder hyped ne andere Karte. logischerweise habe ich immer dieselben settings verglichen.
...
Habt ihr da noch nie bemerkt das andere Test von Hardwareluxx, CB oder PCG etc. sich unterscheiden (weiß jetzt nicht ob genau die sich utnerscheiden, aber wenn man mehrere benches anguckt fällt einem das schon auf)?

Du widersprichst dir oder ich verstehe deine Aussage nicht. Entweder man kann die Test verschiedener Redaktionen im Detail vergleichen oder nicht.

Hinter den "Settings"
  • Auflösung,
  • Qualitätsstufen
steht das Test-System:
  • Board (mit welcher PCIe-Anbindung ?),
  • CPU (übertaktet per welchem FSB ?),
  • RAM (wie genau übertaktet ?)
  • Treiber-Versionen,
  • Spiele-Patch-Versionen,
  • getestete Demos, Spielstände, Zahl der Durchläufe
  • etwas vergessen ? Meßverfahren der fps evtl.
  • Uhrzeit der Messung, Mondstand, Gezeiten, Sternenkonstellation :evillol:
Und dies alles war bei deinen Vergleichen - objektiv - identisch ?

So schwierig finde ich die Interpretation der Ergebnisse wirklich nicht, ich habe ein Budget, dafür kaufe ich mir die schnellste(fps)/interessanteste (Features)/langfristig kostengünstigste (Strom) Karte. Und dafür bietet die Angabe der "Preis-Leistung" in den CB-Test ein solide Grundlage. Wenn mir zwei, drei Tests nicht reichen, nehme ich das arithmetische Mittel der fps, mathematisch nachvollziehbar. Oder ich will spezielle (nVidia-/ATI-)Spiele spielen. Das "Beste" gibt es nicht objektiv, nur im Kopf als gebildete Summe meiner Vorstellungen/Anforderungen. ;)
 
nun ist ja erstmal eine beta version zum download bereit, oder? also von 8.12
hier also ich persönlich freue mehr eher auf ati stream:D
 
Zuletzt bearbeitet von einem Moderator:
mich würde bei diesen Spielen interessieren, wie die sich auf der xbox 360 machen, da bei dieser ja ein ATI-Chip verbaut ist. Vielleicht hat jemand einen direkten Vergleich (also nicht bloß 2 gameplay-Trailer auf You Tube)

Speziell "Dead Space", was laut diesem Test ja wirklich eine außergewöhnliche Performance erreicht.
 
was willste denn da vergleichen?
der sind 2 verschiedene systeme.
wenn alle computer die gleiche graka und cpu etc. hätten, ist es ein leichtes für spielehersteller darauf zu optimieren.
beim pc ist das aber nunmal nicht der fall.

also kein vergleich. und dennoch werden sicher einige spiele aber genau so programmiert ;)

mfg
 
Zurück
Oben