Test Test: ATi Radeon HD 4830 Nachtest

Killermuecke
Ja und jetzt?

Habe ich etwas anderes behauptet? ;)

_______
btw. Wer warum muss man die Karten durch einen 15 avgFPS Crysis Kurs schicken?
 
Zuletzt bearbeitet:
Danke für den schnellen Nachtest, die Karte ist jetzt in der Tat viel interessanter, mal schaun ob sie sich um die 100€ einpendelt.

Dai6oro schrieb:
Wie ich sehe habt ihr endlich 1680x1050 anstatt 1600x1200. find ich TOP.

Full ACK!

Ich wäre auch ganz stark für eine Performance pro Watt Tabelle!

Oh ja, das wäre auch sehr interessant!
 
Zu den Auflösungen:
was ist mit 1920x1200?
1680 ist ja schonmal schön aber darüber sollte man doch auch noch etwas haben.
Jeder der sich heute nen schönen 24" leistet hat 1920...


suessi22 schrieb:
Wieso wird die Leistungsaufnahme der 4830 der 9800gt gleichgestellt - wo die ATI doch 20 Watt im IDLE weniger verbraucht - und da bewegt sich die Karte ja zu 80-90%?

Genau das dachte ich mir auch als erstes - in meinem Fall wäre der idle anteil sogar weit über 90%.

Somit ist die 4830 in sämtlichen Punkten etwas besser und sobald sich der Preis eingependelt hat gibts hier wohl nichts mehr zu überlegen welche die bessere Karte fürs geld ist.
 
Zuletzt bearbeitet:
Zum neuen Testparcour wünsche ich mir auch Unreal Tournament 3 rein, wegen der weit verbreiteten UT-Engine. Und nein, Rainbow 6:Vegas basiert nicht auf der UT3-Engine. Bioshock hingegen schon, aber IMO ist es besser, wenn man die Original-Engine testet, weil man nicht weiß, inwieweit die Lizenznehmer an der Engine rum gepfuscht haben.

Als zweiten Punkt wünsche ich mir noch eine Performance-/Watt-Statistik. Gerade heute hat man eigentlich mehr Leistung als man braucht und für viele dürfte (sollte) der Stromverbrauch auch entscheidend sein.
 
Performance/Watt wär ne schöne sache ich frage mich nur gerade wie man das praxisnah umsetzt

Welchen wert nimmt man als Performance? Performancerating in welcher auflösung mit welchen einstellungen?
Was nimmt man als Watt? Nur der Maxwert ist eigentlich nicht aussagekräftig...

Nicht so leicht das ganze so umzusetzen dass am ende alle zufrieden sind.
 
jetzt haben wir bei 9800gt/4830 das umgedrehte verhältnis von 9800gtx/4850 ;) gleichwertige karten aber einmal ist ati etwas teurer einmal nv. ^^
wie ich amd kenne, werden die aber die preise noch nachbessern :)

@NoD.sunrise: wieso ist maximal watt nicht aussagekräftig? es wird doch die maximale leistung gemessen. wenn du lustig bist, kannstes dann gerne auf idle umrechnen, denn ein karte, die idle mehr verbraucht, wird idle nicht soweit runtergefahren, d. h. sie hat im idle auch mehr leistung ;) das verhältnis bleibt also das gleiche...
 
Zuletzt bearbeitet:
mumpel schrieb:
Zum neuen Testparcour wünsche ich mir auch Unreal Tournament 3 rein, wegen der weit verbreiteten UT-Engine. Und nein, Rainbow 6:Vegas basiert nicht auf der UT3-Engine. Bioshock hingegen schon, aber IMO ist es besser, wenn man die Original-Engine testet, weil man nicht weiß, inwieweit die Lizenznehmer an der Engine rum gepfuscht haben.
[...]

1. Nutzt Rainbow Six: Vegas sehr wohl die Unreal Engine 3 und 2. gibt es keine original Engine, es gibt nur ein Grundgerüst welches dann angepasst wird. Ob das jetzt Bioshock oder UT3 ist, ist doch egal.
 
Ich reagiere ausschliesslich auf den Schlusssatz:
Test schrieb:
Nichtsdestotrotz würden wir uns über ein erstes Feedback freuen, da wir darauf noch reagieren können.
Ich find's schade, dass der Anno 1701-Test rausgefallen ist. Natürlich ist das Spiel nicht mehr ganz neu. Es ist aber - wenn ich mich nicht täusche - das einzige, wo der Spieler einerseits zur Übersicht auf Weitwinkeleffekt mit entsprechenden Anforderungen an den Rechner und die Grafikkarte angewiesen ist, aber anderseits auch immer mal wieder in die Nahansicht wechselt, um bestimmte Details anzuschauen oder, beispielsweise in einer Schlacht, gezielte Befehle zu geben.

Natürlich trifft das auch auf World in Conflict zu, aber "hübsch" ist das viel weniger als bei Anno 1701.

Es gibt noch eine weitere Begründung, Anno 1701 beizubehalten oder durch einen vergleichbaren Titel zu ersetzen: Eltern, die ihren Kindern einen Rechner anschaffen (gilt auch für andere Personen, die keine Shooter spielen), wollen oder können nicht den neusten Shooter als Benchmark heranziehen. Mit Anno 1701-Benchmarks konnte jedoch beurteilt werden, ob die ins Auge gefasste Hardware ausreichend für den Einsatzzweck ist.
 
wär vllt besser gewesen, wenn man vllt noch die 4850 zum vergleich in den test geschickt hätte...
aber ich finde, dass ati seinen job nicht wirklich gut gemacht hat, wenn man mal bedenkt, dass die 9800 (8800) gt schon sehr lange auf dem markt ist.
hab mir ehrlich gesagt merh erhofft
 
dass es die 8800gt schon länger gibt, heißt doch nicht, dass die schlecht ist. auch wenn sich die karte "nur" gleichauf bewegt, ist das dennoch eine sehr gute leistung. und wäre sie deutlich schneller, würde sie der 4850 die existenzberechtigung nehmen. das war leistungsmäßig eine punktlandung von ati. sie haben jetzt ein passendes gegenstück zur 9800gt. genau das war sinn dieser karte.
 
@marVland

Ich verstehe auch nicht recht, was du willst? Wenn sie einiges schneller gewesen wäre, würde man hier Beschwerden hören, welche Existenzberechtigung dann die 4850 hat usw. Nvidia und ATI vesuchen ständig auf allen Produktlinien etwa auf gleicher Höhe zu sein - nur halt ein kleines Stück besser als der Konkurrent (die 8800 GTX Dominanz mal aussen vor)...

MfG
 
Ich dachte, eure alte HD 4830 hätte 560 Shadereinheiten aktiv gehabt wie bei jedem anderen Review auch. Darauf deuteten auch eure Pixelshaderbenchmarks hin.
Ich dachte zumindest, dass die 480 Shadereinheiten in GPU-Z ein Auslesefehler seien.

/EDIT: Ok, vereinzelt sind die Unterschiede im neuen Review so groß, dass die alte Karte wohl tatsächlich 480 Shadereinheiten gehabt haben muss.
 
Zuletzt bearbeitet:
Unyu schrieb:
Nein. Beispiel Bioshock, Gothic 3, UE-3.
Was nützt mir die Leistung, wenn ich Dinge wie AA nicht nutzen kann?
Davon ab, verändern Marktanteile noch lange nicht direkt den Entwicklersupport des IHV.

Du weist aber schon das zb bei Pure nur antialiasing auf Ati Karten geht oder=?
 
Nur ein paar Anregungen:

1. Wie mindestens einer der Vorgänger angemerkt hat, fände auch meiner einer die Aufnahme von 1920 x 1200 sinnvoll, wegen 24-Zoll.
2. Auch die Aufnahme eines leistungsschwächeren Prozessors in zumindest ein oder 2 Benchmarks fände ich toll, damit man sieht, wie die Graka skaliert. Zu mir kommen manche Leute die meinen: "Bei CB ist die Karte so viel schneller als bei mir, wieso?" Und denen muss man dann immer erklären, dass die Leistung halt auch mit der CPU und dem Rest des Systems skaliert - wobei heut zu Tage die CPU wohl stärksten Einfluss hat - und ein C2Q, der zudem auf 4 GHz rennt, ist wohl doch etwas schneller als der Durchschnitts-PC heutzutage :D.
Mir ist natürlich klar, dass das Zeit kostet, aber es soll nur eine Anregung sein ;).
3. Auf Seite 4/19 im COD4-Benchmark 1280 x 1024 ist bei 8xAA/16xAF die 4830 mit 480 aktiven Shadern schneller. Sind da die Werte vertauscht?

Die Games finde ich okay, stellen die eingesetzten Enginges doch die leistungshungrigsten Vertreter derzeit dar. Einzig ein Spiel mit aktueller IDSoftware-Engine fehlt mir, wobei hier die Grakas derzeit kein Problem haben sollten, allerdings fände ich dadurch auch OpenGL abgedeckt (wobei OpenGL in Zukunft, bei dem Entwicklungsstreitigkeiten und der geringen Featureaufnahmen im nächsten Milestone wohl eher keine Rolle mehr spielen wird).

Gruß an das CB-Team und vielen Dank für Eure tolle Arbeit und die Akribie mit der Ihr an die Tests rangeht.

Im Stile von Hans Rosenthal gibt's noch ein "Das war spitze" :D
 
Ich finde schade, dass Anno1701 raus ist. Die Grafik ist immer noch prächtig und fordert die GPU. Bei vielen Einheiten wird auch die CPU massiv belastet, auch wenn dass Spiel nur bedingt von zwei CPU Kernen profitiert.

Ansonsten fehlt mir noch CoH als DX10 Bench. Der war doch bisher immer dabei.

Zur 4830 kann ich nur sagen, dass sie genau da ist wo sie hingehören sollte. Sie wurde auf Augenhöhe der 9800GT positioniert und durch die "Kastration" ist sie dort auch.
 
Die Stromaufnahme des alten und neuen Modells ist mir noch ein Rätsel, meine konkrete Frage insbesondere mit Blick auf die schnelleren HD4850/4870: funktioniert auf der HD4830 Powerplay 2.0 ? Oder liegt die geringere Stromaufnahme an fehlenden/deaktivierten Einheiten im Chip ? Betrifft die Idle-Stromaufnahme.

Die 15 Watt weniger der 9800 GT (unter Last) halte ich angesichts des annähernd vergleichbaren Leistungsniveaus für ein schlechtes Zeugnis moderner Chip-Architektur und Modell-Platzierung auf Seiten von ATI. Unter
  • (0) dem Leistungsaspekt
dürfte bei dem geringen Aufpreis jeder kundige Käufer - ohne Rücksicht auf die Stromaufnahme - eine HD4850 wählen, jedoch eine 9800 GT unter den Kriterien
  • (1) weniger Geld,
  • (2) geringere Auflösungs-/Qualitätsansprüche oder
  • (3) stärkere Gewichtung der Stromkosten-Einsparung (die nach wie vor Hybrid Power unterstützt).
Ein Dank für die Mühen des Nachtestes, der direkte Vergleich alter und neuer Bios-Situation ist überaus lobenswert. Für folding@home hätte mir eine HD4830 selbst mit "defektem" Bios gut gefallen, falls der Preis entsprechend günstig wäre. Die Chancen für so ein Schnäppchen sind durch die verfügbare Bios-Fehlerbeseitigung leider gesunken :lol:
 
Guter Test! :daumen:
Auch ich wünsche mir wie die meisten hier eine Perfomance zu Watt Tabelle. :)
 
coole karte und ich finde sie ist der nvidia karte schon etwas überlegen, vor allem beim verbrauch, aber der preis ist wegen den währungskursen noch etwas zu hoch
 
Wäre auf für Tests in 1920*1080 (oder *1200), mittlerweile ist das auch nicht mehr so selten.
 
Zurück
Oben