Test Test: ATi Radeon HD 4830 Nachtest

Was wollt ihr alle mit 1920x1200?! Wer die Auflösung fährt, kauft eh ne andere Graka, (mindestens ne 4850) teilweise waren die Spiele eh schon nimmer lauffähig.

Bei stärkeren Grakas testet Wolfgang die wieder mit, ist ja klar.

Framesverlauf kannste in die Tonne treten, wer will mir bitte erzählen, dass er sich für die (ansonsten evtl. schlechtere) Konkurrenz entscheidet, weil in irgendeinem Bench der Frmeverlauf bissl komisch aussieht. Pfffft.

RacedriverGrid find ich als Bench bissl sinnfrei, das läuft ja selbst auf alten Grakas top, ich glaub da hängt auch viel vom CPU ab.

Sonst fänd ich den einen oder anderen Strategietitel oder Rollenspieltitel auch nicht verkehrt, sind ja fast nur noch Shooter vertreten.

Den Verzicht auf den 3d06 find ich ein bissl schade, ich persönlich kann damit immer noch am meisten anfangen, da man schon nicht mit verschiedenen Settings hantieren muss und man zu älteren Grakas auch einen guten Bezug hat.

Das war meine kleine Kritik, macht mit eurer super Arbeit weiter!!!
 
Wünsche mir ebenfalls mehr Rücksicht auf das Verhältnis von Watt und Leistung in den Tests. Wie auch immer diese Leistung definiert wird.
 
KAOZNAKE schrieb:
Was wollt ihr alle mit 1920x1200?! Wer die Auflösung fährt, kauft eh ne andere Graka, (mindestens ne 4850) teilweise waren die Spiele eh schon nimmer lauffähig.

Ich hab einen 24" und zocke in 1920x1200 auf einer Radeon HD 2900 Pro. Die Karte ist übertaktet und liegt irgendwo zwischen der HD 3850 und der HD 3870 von der Performance her. Zuletzt habe ich Mass Effect durchgespielt, das lief ohne AA, aber mit AF bis auf wenige Stellen mit über 30 fps.
Half-Life 2 Episode 2 konnte ich in 1920x1200 mit 4xAA und 16:1 AF problemlos spielen.
Call of Duty 4 habe ich auch überwiegend in 1920x1200 mit 4xAA und 16:1 AF gezockt. Anfangs sogar mit adaptivem AA, aber das saugte irgendwann zu stark. In einem Level habe ich ganz auf AA verzichten müssen. Aber an der Auflösung und dem Detaillevel (max.) musste ich nie schrauben.
Auch Oblivion ist in der Auflösung mit HDR-Rendering und 4xAA spielbar. Ich hab dort sogar adaptives AA aktiv. Trotzdem fällt die Framerate nie unter 20 fps (was bei Oblivion irgendwann tatsächlich reicht, weil man meistens nur noch in Dungeons und Städten rumrennt, wo die Framerate generell gut ist).
Need for Speed Pro Street zocke ich in 1920x1200 mit 4xAA und 16:1 AF und zwar konstant und ohne Einbrüche mit um die 30 fps, was mir reicht. Ich erhalte ja auch noch über mein Lenkrad und über die Lautsprecher ein Feedback ;).
Auf Crysis habe ich bislang verzichtet, vielleicht werde ich es mal am CRT wagen. Aber wahrscheinlich warte ich bis ich mir eine schnellere Grafikkarte leisten kann.
Assasin's Creed habe ich ebenfalls in 1920x1200 mit 4xAA und 16:1 AF durchgespielt, hier lag die Framerate fast durchgehend über 30 fps.
Eine GeForce 8800 GT hatte ich auch mal probeweise drin, da war sogar UT3 mit 1920x1200 und 4xAA + 16:1 AF drin (wo meine 2900 Pro völlig versagt). Andere Games liefen trotz höherer durchschnittlicher Frameraten dagegen subjektiv teils schlechter als auf der HD 2900 Pro (Fraps-Messungen zeigten ein ähnliches Verhalten wie bei den SLI-Mikrorucklern, wenn sich der Speicherfüllstand der 8800 GT änderte).

Also mich interessiert sehr, was die Grafikkarten von Mainstream bis High End in 1920x1200 mit AA leisten, damit ich den Leistungsvorteil durch die Anschaffung einer neuen Karte abschätzen kann.
 
Zuletzt bearbeitet:
Die Karte ist schon toll, wenn sie nur weniger kosten würde(ca. 90e ), wäre es sofort meine Neue:rolleyes:
 
@ lübke:
stimmt hast recht.

vllt kommt die karte aber ein wenig zu spät.
 
Lübke schrieb:
@NoD.sunrise: wieso ist maximal watt nicht aussagekräftig? es wird doch die maximale leistung gemessen. wenn du lustig bist, kannstes dann gerne auf idle umrechnen, denn ein karte, die idle mehr verbraucht, wird idle nicht soweit runtergefahren, d. h. sie hat im idle auch mehr leistung ;) das verhältnis bleibt also das gleiche...

Der gemessene maximalwert ist ein temporärer wert, die karte benötigt auch im spieleeinsatz nicht durchgehend die maximale leistung. Auf idle runter rechnen ist sinnlos, auf dem desktop gibts keine leistungsunterschiede da zählt nur wer weniger verbraucht.
Aber selbst wenn man den max wert nimmt bleibt noch immer die frage welchen leistungswert unter welchen einstellungen man nimmt.



KAOZNAKE schrieb:
Was wollt ihr alle mit 1920x1200?! Wer die Auflösung fährt, kauft eh ne andere Graka, (mindestens ne 4850) teilweise waren die Spiele eh schon nimmer lauffähig.

Bei stärkeren Grakas testet Wolfgang die wieder mit, ist ja klar.

Ist das wirklich so angedacht dass es bei stärkeren karten auch höhere auflösungen gibt? Hatte mir nicht so den anschein.
 
@NoD.sunrise: ich gebe dir ja recht, dass im idle nicht die leistung sondern der geringere verbrauch zählt, aber das kann man ja nicht in leistung pro watt darstellen. der idle-verbrauch muss natürlich ein abschnitt für sich bleiben.

@theorist: nein 40% sinds sicher nicht. die 4830 ist gleichschnell wie die 8800gt, die ihrerseits etwa 10% vor der 3870 liegt.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Was wollt ihr alle mit 1920x1200?! Wer die Auflösung fährt, kauft eh ne andere Graka, (mindestens ne 4850) teilweise waren die Spiele eh schon nimmer lauffähig.

Da möchte ich widersprechen. Viele Leute schließen ihren Rechner zum Zocken an den FullHD-TV an, und haben dann auch ne 1920er-Auflösung.

Ich habe nen SyncMaster T240 mit ebenfalls dieser 1920x1200er Auflösung, befeuert wird der von einer 8800 GT AMP!, und die meisten Spiele sind damit problemlos mit vollen Details spielbar. Somit würde mich auch bei MidRange-Karten, die ähnliche Performance liefern wie meine 8800GT AMP!, die 1920er-Auflösung interessieren.
 
Ernie123 schrieb:
Was ist denn hiermit? https://www.computerbase.de/2008-01/ati-karten-nun-in-unreal-engine-3-spielen-mit-aa/
Also wenn das seit Catalyst 8.3 drin ist, dann ist das ein alter Hut. (Habs selbst noch nicht getestet, trotz Catalyst 8.10)
Ob alt oder nicht ist in dem Fall irrelevant.
UE3 ist eine wichtige Engine, bei der es lange gedauert hat, bis AMD den Hack rausgebracht hat.

Experte18 schrieb:
Du weist aber schon das zb bei Pure nur antialiasing auf Ati Karten geht oder=?
Nein wusste ich nicht. Aber bei dem Geschmiere was Pure auf den Bildschirm zaubert ists so oder so nichts für BQ Fans.

Gehts bei AMD ohne exe renaming?
2min Google veraten mir, das MSAA ohne Postprocessing funktioniert.
 
An dieser Stelle möchten wir nochmal um ein kurzes Feedback im Forum bezüglich des neuen Testparcours bitten. Verbesserungsvorschläge können aktuell noch umgesetzt werden.

DX9 Spiele könnt ihr weniger werden lassen, die Wahl der DX10 Spiele ist genau richtig.

Den syntetischen Benchmark wie zb. Vantage könnt ihr auch weg lassen.

Die VC-1-/H.264-Wiedergabe könnt ihr euch auch sparen um die Zeit für wichtigere Tests frei zu haben. Von Zeit zu Zeit einen extra Artikel über die Qualität und Geschwindigkeit der Videofunktionen der Grafikkarten ist allerdings schon wünschenswert.

Die "Übertaktbarkeit" solltet ihr nicht streichen.

Auflösungen bitte komplett auf TFT Größen umstellen, jetzt ist wirklich der Zeitpunkt gekommen um die 16:9 Auflösungen zu Testen.
Finde 3 Auflösungen sind schon sinnvoll, die oberen 3 also:2560x1600(4:3); 1920x1080(Full HD); 1680x1050
Wenn das zu aufwendig wird, nur die oberste und unterste : 2560x1600; 1680x1050

+Ganz wichtig finde ich auch, das ihr bei der Lautstärkemessung keine 40db Geräuschquelle neben der zu testenden Grafikkarte im Rechner habt. Müssen ja nicht 0db sein aber 10-20db währen schon OK.
Die Lautstärke mit Furmark zu testen ist auch nicht verkehrt, weil zb. PhysX die Grafikkarte schon voll belasten kann.

Das ihr die Preis/Leistung weg gelassen habt finde ich sehr gut, hat aufgrund der hohen Startpreise nicht richtig geklappt.
+Anstatt dieser könnt ihr ja eine Performance/Watt Tabelle anlegen. In unserer heutigen Zeit ein wichtiges Kaufargument.

Die Frametimeverläufe sind sehr gut gelungen, leider aufwendig, lieber weniger DX9 Spiele und 3D Marks.

+Ganz wichtig finde ich auch das ihr bei der Leistungsaufnahme auch mit Furmark testet, um die 100% (GPGPU;CUDA,PhysX;CTM) Leistungsaufnahme bestimmen zu können. Auch die Wahl des Netzteiles wird mit diesem "Furmark Peak Wert" bestimmt.

GPGPU Leistung testen mit Folding@Home währe auch eine gute Idee. Geht ja bei NV und bei ATI gleichermaßen.

MfG Kasmo
 
Zuletzt bearbeitet:
Lübke schrieb:
@NoD.sunrise: wieso ist maximal watt nicht aussagekräftig? es wird doch die maximale leistung gemessen. wenn du lustig bist, kannstes dann gerne auf idle umrechnen, denn ein karte, die idle mehr verbraucht, wird idle nicht soweit runtergefahren, d. h. sie hat im idle auch mehr leistung ;) das verhältnis bleibt also das gleiche...

Dir ist aber schon klar, was idle bedeutet?

Letzlich finde ich die gegenüberstellung von Performance und Watt eher sinnlos.

Der Maximalverbrauch ist relativ egal, hier ist mehr die dadurch eventuell entstehende Lautstärke wichtig. Für den Stromverbrauch ist vor allem der idle verbrauch wichtig - denn in diesem Zustand befindet sich die Karte 90% der Zeit (mindestens). Und zwischen Idle Verbrauch und Performance gibt es nun eben keinen Zusammenhang.

lg
Lion
 
StuffedLion schrieb:
Für den Stromverbrauch ist vor allem der idle verbrauch wichtig - denn in diesem Zustand befindet sich die Karte 90% der Zeit (mindestens). Und zwischen Idle Verbrauch und Performance gibt es nun eben keinen Zusammenhang.

Leiser Einwand aus der Nicht-Spieler-Ecke, auch wenn nur bei ~43.000 Grafikkarten, die für FAH gerechnet haben, den ~9.000 GPUgrid-Gemeldeten und 80 Millionen CUDA-fähigen Grafikkarten, bei diesen paar Fällen kann der Vollast-Verbrauch eine entscheidende Größe darstellen. Die Zeiten, eine GPU nur für Pixel-Darstellung zu verwenden, sind glaube ich vorbei. Und natürlich muss man das Potential der Hardware von tatsächlicher Nutzung unterscheiden, dies vorneweg. Und gerade der Vollast-Verbrauch mag ein Faktor für die Besitzer sein, sich eben nicht (mehr) an solchen Projekten zu beteiligen.

ATI will ja zukünftig den Hybrid Power von nVidia nachbauen (siehe News), irgendwann wird der Idle-Verbrauch tatsächlich irrelevant, doch das dauert noch ein paar Jährchen, fürchte ich.

Bei den Powerplay- bzw. "Idle/2D-Modus" fähigen Karten ist es praktisch möglich, den Idle-Takt fest einzustellen und mit dieser Taktgrenze "Vollast" zu crunchen (ja, das bedeutet Mehrverbrauch), eine stromsparende Variante mit immer noch erstaunlicher Leistung gegenüber der CPU-Leistung - pro Watt gerechnet durchaus lohnenswert/problemlos kühlbar und mit Standard-Software (Treiber, Tools) realisierbar. Von Undervolting bei GPUs und Bios-Modifikationen rede ich mal nicht, das ist nur für Freaks. :evillol:

Ich plädiere folglich dafür, den Idle-Verbrauch sowie die "Idle-Leistung" nicht lapidar unter den Tisch fallen zu lassen, zieht eine Grafikkarte Strom, kann sie gleich was Sinnvolles rechnen ohne gleich im anderen Extrem völlig nutzlos Wärme auszubrüten. Es gibt einen goldenen Mittelweg, der kaum Strom=Geld kostet.
 
@StuffedLion: ja ich weis was idle ist. der idleverbrauch wird ja auch schon seit langem angegeben. aber performance pro watt ist bezogen auf idle eine sinnfreie aussage, weil es im idle nicht mehr um leistung geht. die 4870 kann im idle genauso wenig watt im verhältnis zur performance verbrauchen wie die gtx260, obwohl sie nicht runtertaktet. sie läuft also mit hoher performance, die nicht gebraucht wird weiter und verbraucht mehr strom. im verhältnis zur leistungsfähigkeit wäre der verbrauch nicht unbedingt schlecht, aber die leistung bleibt halt ungenutzt und darum machen im idle nur die totalen werte sinn.
 
was soll man sagen die Karte scheint doch eine respektable leistung zu bringen.
(aus dem winkel gesehen das sie beschnitten wurde)

[Mal ganz am rande muss ich sagen das eine Performance pro Watt Tabelle für manche User ganz interessant sein würde, z.B wenn man nachrüsten möchte und eine Grafikkarte haben möchte die net all zu viel leistung für,s schöne daddel,n bracht :D ]
 
Erstmal sorry für die späten Antworten. Aber es gab einfach zu viel zu tun :)

Wie sieht es eigentlich damit aus, in Zukunft z.B. Fallout 3 mit in den Parcour zu nehmen?
Schauen wir mal, halte ich persönlich aber für unwahrscheinlich.

Ich find das klasse das ihr endlich die Auflösung umgestellt habts, wär fein wenn ihr in Zukunft auch noch eine 1900x1200 testen könntet!
Darauf habe ich gewartet:D Also 1920x1200 wird es auch in Zukunft nicht geben, bei den High-End-Karten eben noch 2560x1600. Eine vierte Auflösung wäre einfahc zu viel Arbeit und 2560x1600 brauchen wir, um die High-End-geschosse richtig auslasten zu können.

1. eine performance pro watt skala, auch wenn das ges. system gemessen wird, sollte es einigermaßen brauchbar sein
Schon öfters angefragt, aber diese wird es auch in Zukunft nicht geben. Ich sehe keine Chance so etwas mit unserem Equipment gut zu realisieren.

2. furmark testen...der bringt evtl. mal spannungswandler zum abrauchen und deutet somit auch auf ein schwäche hin
Den Furmark wird es nicht geben. Alleine deswegen schon nicht, da ATi diesen ausbremst. ich weiß, .exe-Renaiming, aber trotzdem...

nicht gut: Command Conquer Tiberium Wars in den Testparcour aufnehmen, von mir aus ansonsten auch das neue CnC Alarmstufe Rot stattdessen.
mfg illegalz

Edit: was hat sich am Testsystem an sich geändert?!
C&C ist sehr CPU-limitiert und hat zudem bei 30FPS einen Framelimiter. Also unmöglich zu benchen. Im Testparcours hat sich nur das Mainboard geändert, da unser altes den Geist aufgegeben hat.

Ich find's schade, dass der Anno 1701-Test rausgefallen ist. Natürlich ist das Spiel nicht mehr ganz neu. Es ist aber - wenn ich mich nicht täusche - das einzige, wo der Spieler einerseits zur Übersicht auf Weitwinkeleffekt mit entsprechenden Anforderungen an den Rechner und die Grafikkarte angewiesen ist, aber anderseits auch immer mal wieder in die Nahansicht wechselt, um bestimmte Details anzuschauen oder, beispielsweise in einer Schlacht, gezielte Befehle zu geben.
Anno1701 ist doch schon länger nicht mehr im Parcours drin. Das Spiel ist mittlerweile einfach komplett CPU-limitiert.
 
thx für die antworten, aber furmark lastet die karten dennoch besser aus, als alle anderen tools.
für temperatur- & stromverbrauchsmessungen schon sinnvoll.

für cpu´s wiederrum interessant:
die neuesten versionen von

Core2MaxPerf - CPUTempWatch - PerfWatch...diese sind nun angepasst für core i7 und amd´s phenom.
über 90% echte auslastung, nicht wie der windows-taskmanager es weiß machen will.

mfg
 
Zurück
Oben