Test Test: ATi Radeon HD 3650

Muss ja totlangweilig gewesen sein das zu benchen, immer das gleiche Ergebnis ;)
War richtig langweilig das alles anzuschauen, im Gegensatz zur 3870X2

Bei den Preisen ist leider auch bissl was durcheinander, wie schon jemand angemerkt hat, gibts die 3650 bereits ab 60€:

http://geizhals.at/deutschland/?cat...h=3650&filter=+Angebote+anzeigen+&pixonoff=on

Die XTREME PCS allerdings erst ab 94€:

http://geizhals.at/deutschland/a309534.html

Die 83€ gehören zur normalen Powercolor:

http://geizhals.at/deutschland/a309535.html

Dann noch ne andere Frage, wo ist denn die 3870 X2 generell abgeblieben? Bin ich blind? Auch bei Leistungsaufnahme, Temperatur und Lautstärke nix zu sehen.

Und noch ein grammatikalischer Hinweis.

"Unter Windows messen wir gerade einmal eine Temperatur von 36 Grad Celsius, was nicht nur ein neuer Rekordwert ist, sondern wohl auch recht nahe am Optimum liegt."

Da fehlt noch ein "ist" IMO.

Ich denke schon das da noch ne 3670 kommt, ich mein das kann ja nicht alles gewesen sein. Wie will man da der 9600 Paroli bieten? Ich tipp mal, so will man verhindern, das der Abverkauf der 2600XT den BAch runtergeht, wenn das erledigt ist, wird schon noch was kommen. Wobei die Xtreme PCS schon mal vormacht, wies aussehen könnte. Viel mehr dürfte allerdings nicht passieren.
 
Die 9600GT ist eher auf die HD3850 gerichtet, preislich und leistungsmäßig.
Die HD3650 in den zwei Ausführungen (DDR2/GDDR3) wird vorerst die einzige Karte in diesem Segment seitens ATI bleiben.
Ich finde den Test und die Karte gut, nur verstehe ich nicht, warum ATI trotz kleinerer Fertigung (55nm vs. 65nm) den GPU-Takt gesenkt hat. Man sieht auch, dass die Powercolor mit 800Mhz sich vom Referenzdesign und der 2600XT etwas absetzen kann. Insofern kann ich die Beurteiling seitens CB verstehen.
Was auch etwas enttäuschend ist, ist der Stromverbauch in Anbetracht des kleineren Fertigungsprozesses plus Powerplay.
 
Ich hab schon andere Benchmarks der HD 3450, 3470 und der HD 3650 gesehen. Die Leistungen, die hier angegeben werden, kann man noch als sehr geschönt ansehen. Wenn man sich die Minimum FPS der Karten anschaut, geht das ins Bodenlose. Selbst bei 1024x768 versagen die Karten bei aktuellen Spielen. Es wird auch keine 3670 Serie geben.
Diese Karten sind schon eher was für HTPC Systeme. Die 3850 wird in Fachkreisen für ihre sehr gute Bildqualität und die Videobeschleunigung gelobt, bei gleichzeitig geringem Stromverbrauch und CPU-Entlastung. Wohlgemerkt, diese Karten laufen dann so gut wie immer im Idle. Angeblich können Receiver der 1000 € Klasse mit den Atis in punkto Bildqualität nicht mithalten. Wie dem auch sei. Diese Karten würde ich anstatt der 3850 für HTPCs oder ältere Systeme nehmen ohne grosse Gamingambitionen.
Eine 3650 AGP für 70 € wäre toll und würde in Punkto Performance vs CPU, Stromverbrauch, Lautstärke und Temperatur noch Sinn ergeben. Eine 3850 AGP für fast 200 € hingegen ist einer der überzogensten Preise, wie ich sie seit langem auf dem Grafikkartenmarkt nicht gesehen habe. Die Sapphire Version scheint als einzige den Preis etwas runtergesetzt zu haben.
 
ScoutX schrieb:
Ich hab schon andere Benchmarks der HD 3450, 3470 und der HD 3650 gesehen. Die Leistungen, die hier angegeben werden, kann man noch als sehr geschönt ansehen. Wenn man sich die Minimum FPS der Karten anschaut, geht das ins Bodenlose. Selbst bei 1024x768 versagen die Karten bei aktuellen Spielen. Es wird auch keine 3670 Serie geben.
...

Das hat nix mit geschönt, zu tun. Immer dran denken da steht alles auf High Details. Ich kann z.B. CoD4 (Demo) zocken mit ner 7800GT@1680x1050 alles auf medium (1GB RAM + 3800+ X2@2,0GHz). Und die 2600/3650 ist locker 30% schneller als die 7800GT. Von versagen kann da keine Rede sein, schon gar nicht bei 1024x786, man darf natürlich keine Grafikwunder erwarten.
 
@ScoutX: komisch ich spiele seit Jahren Egoshooter (sprich ich weiss was flüssig ist und was nicht) und bei mir läuft UT3 mit 50-60 FPS in 1280x1024 Very high mit AA & AF! Ja und jetzt rate mal dicke was für ne Karte ich habe. Richtig HD2600XT, die billigste von Sapphire.

Also sorry, wenn man ne GTX oder ne X2 hat kann man sich das vielleicht nicht vorstellen oder nicht wahrhaben aber es ist so. Ich kann gerne mal Fraps ne halbe stunde laufen lassen und die via Torrent oder FTP das ding zukommen lassen.

Also bitte nicht so nen Blödsinn hergeben. Ich finde das Rating hier schon recht scharf. Hier wird ja im Fazit davon gesprochen das man Aktuelle spiele nicht vernünftig damit Spielen kann. Also das kann ich so einfach nicht bestätigen.

@Wolfgang: Naja wieso sollten sie Risko eingehen wenn die Karte doch bisher auch wunderbar sich verkauft hat. Das beste ist man macht nun endlich mehr Profit damit. Genau das was AMD/ATi fehlte. Also das es OC karten gibt ist ja auch bei der HD2600 nicht neu.

Das Risiko einzugehen dann mit zu hohen Taktraten, neuen Bit Interface usw zu riskieren das man in der Klasse wo man an sich ungeschlagen ist noch auf den Knutscher fällt ist ja nicht notwendig. Zudem hatte ja die X2 vorrang in der Entwickelung.

Also ich finde das alles nachvollziehbar. Zudem wie du schon sagtest machen die Hersteller dann schon ihr eigenes ding. Wenns dort genug OC Karten gibt wird ja auch der Preis nen bisschen fallen.

gruss Jens
 
Na ja Man muss es mal so sehen. Die HD 3650 kann man eigentlich nicht mit der HD 2600XT gleichsetzen, da die xx50 eigentlich das ehemalige Pro oder gar GT bedeutet. Sprich das ist der Nachfolger der HD 2600pro. Der Richtige Nachfolger der HD 2600XT ist ja eigentlich die HD 3690 und die ist schon um einiges Stärker. Aber 70€ find ich schon nen bisschen heftig, da die ja teurer und etwas langsamer als eine HD 2600XT (GDDR3) ist. Aber ich denke, dass der Preis dieser Graka schnell fallen wird. Die Temps von der Powercolor find ich sehr gut.

1. ATI Radeon HD 2600 Pro 38%
2. ATI Radeon HD 3650 46%
3. ATI Radeon HD 2600 XT (GDDR4) 57%
4. ATI Radeon HD 3690 84%
5. ATI Radeon HD 3850 100%

Ach ja damals mit meine 7600GT konnte ich Crysis @ 800x600 und auf mittleren Details gerade so zocken (~25 FPS). Ich kannte jemaden und der hat eine HD 26600XT (GDDR3) und er konnte schon auf hoch zocken @ 1024. Er meinte, dass es in sehr wenigen Stellen ruckelt. Also wahrscheinlich auch ca 25 FPS.
 
Zuletzt bearbeitet:
2 Sachen, die mir aufgefallen sind:

1. bei der Temperatur seid ihr etwas mit den verschiedenen 2600XT-Karten durcheinandergekommen. Ihr habt die Werte der DDR4-Version mit der 3650 verglichen. In dem Test der 2600XT (DDR3) "ATi Radeon HD 2400 XT und HD 2600 XT" kommt die 2600XT auch auf sehr gute Werte. Die damals geteste Karte war auch von PowerColor und hatte das gleiche Kühlsystem.

2. Bei der Videobeschleunigung im Artikel "Avivo HD und PureVideo HD im Vergleich" scheint die Beschleunigung bei der 2600XT zu funktionieren und ist besser als die der Vergleichs-Karten.

Sonst finde ich den Artikel wieder sehr gelungen. Macht weiter so.
 
Toller Test, danke.

Von der Leistung bin ich jedoch nicht soooo sehr enttäuscht. Für 60€ erwartet man hoffentlich nicht viel mehr - allerdings der Unterschied zum Vorgängermodell ist nicht gerade berauschend.

Was mich allerdings erstaunt: Wie langsam meine 6800 GT inzwischen ist :( Die ist ungefähr auf dem Nivau der 60€ Grafikkarten, trotzdem bin ich mit der Leistung wirklung zufrieden. Gerade Spiele aus der HL2 Generation sind sehr gut spielbar (also CS:S oder TF2). Selbst Crysis läuft noch auf Low-Details mit spielbaren FPS (z.T. sogar über 60).

PS: und die Karte ist schön leise :)
 
crustenscharbap schrieb:
Der Richtige Nachfolger der HD 2600XT ist ja eigentlich die HD 3690 und die ist schon um einiges Stärker.

Das ist ja mal ein Stuss... die 2690 basiert auf dem RV670 - also eine abgespeckte Version eines High-End Chips... im Vergleich sollte man hier die X1800GTO nennen...
 
Ich beziehe mich auf aktuelle Spiele: UT 3 ist nun nicht sehr aktuell.

Guckt euch diese Benchmarks an. Crysis wurde auch getestet, zugegeben wohl nur mit der Demo.
http://www.legitreviews.com/article/652/8/

Was gibt es da zu diskutieren: Auf hoher Detailstufe etc. pp. ist die Leistung indiskutabel.
Das heisst doch nicht, dass man damit nicht bei mittleren Details auf kleineren Auflösungen doch ruckelfrei spielen könnte. Auch wenn ich mich wiederhole; für ambitionierte (!) Spieler sind diese Karten nicht geeignet.

Da fühlen sich einige gleich angegriffen, obwohl ich privat schon seit Jahren kaum ein Game anrühre, geschweige denn eine Grafikkarte besitze, die neuer als 3 Jahre ist.
 
ch hätte da auch einen Vorschlag bezüglich den Mid Range Karten. Wäre es nicht besser auch einen 1024x768 Auflösungstest für Midrange in die Tests aufzunehmen, da diese Karten meist Gelegenheitsspieler adressieren und die wohl kaum über dieser Auflösung spielen werden.

Außerdem wie sinnig wäre es High End und Midrange nicht in einer Liste zu führen sondern in 2 Getrennten? Wenn man sich die Performance Vergleichsliste mit Balkendiagramm ansieht, glaubt man das jede Midrange low end ist, wenn man dann zu einer GTS hochschaut.
Solche Überlegungen hatten wir auch schon angestellt, haben uns aber dagegen entschieden. Auf dem ersten Blick ist dies zwar eine gute Idee, diese würde aber diverse Probleme (die sicherlich für die meisten nicht so einfach ersichtlich sind) erzeugen. Die Vergleichbarkeit wäre kaputt, diverse Diagramme wären komisch und wann entscheidet man, welche Karte in 1024 getestet wird und welche nicht. Zudem nutzt heutzutage immer weniger Leser 1024x768

Das mit den zwei getrennten Listen wäre auch nicht so übel, aber auch hier gäbe es Diagrammprobleme und die Frage, ab wann eine Karte denn wozu gehört.

Warum ist die normale HD3650 für 70€ geführt, wenn es sie schon für 60 gibt? Das würde sie in dem Preis/Leistungsrating nach oben katapultieren!
Ist angepasst. Als der Artikel fertiggestellt worden ist, sahen die Preis eleider noch etwas anders aus.

zumindest ist wird die 3650er ganz bestimmt nicht die leistungsstärkste in der 3600er serie sein
bzw. geh da sehr stark davon aus.
Ich fürchte doch. Zumindest für den europäischen Markt.

Dann noch ne andere Frage, wo ist denn die 3870 X2 generell abgeblieben? Bin ich blind? Auch bei Leistungsaufnahme, Temperatur und Lautstärke nix zu sehen.
Die Radeon HD 3870 X2 und die GeForce 8800 Ultra haben wir absichtlich draußen zu lassen. Dadurch werden die Diagramme etwas übersichtlicher und zudem haben die beiden Flaggschiffe mit einer 3650 wirklich gar nichts zu tun.

Ich denke schon das da noch ne 3670 kommt, ich mein das kann ja nicht alles gewesen sein. Wie will man da der 9600 Paroli bieten? Ich tipp mal, so will man verhindern, das der Abverkauf der 2600XT den BAch runtergeht, wenn das erledigt ist, wird schon noch was kommen. Wobei die Xtreme PCS schon mal vormacht, wies aussehen könnte. Viel mehr dürfte allerdings nicht passieren.
Der Gegener für die GeForce 9600 GT lautet Radeon HD 3850 ;)

1. bei der Temperatur seid ihr etwas mit den verschiedenen 2600XT-Karten durcheinandergekommen. Ihr habt die Werte der DDR4-Version mit der 3650 verglichen. In dem Test der 2600XT (DDR3) "ATi Radeon HD 2400 XT und HD 2600 XT" kommt die 2600XT auch auf sehr gute Werte. Die damals geteste Karte war auch von PowerColor und hatte das gleiche Kühlsystem.
Ja, da hast du recht, das ist aber absichtlich so. Da wir von der GDDR3-Karte keine im Referenzdesign da hatten haben wir diese bei den Messungen absichtlich rausgelassen.

2. Bei der Videobeschleunigung im Artikel "Avivo HD und PureVideo HD im Vergleich" scheint die Beschleunigung bei der 2600XT zu funktionieren und ist besser als die der Vergleichs-Karten.
Auch das stimmt, irgendwann ginbgs dann aber plötzlich nicht mehr. Wer weiß warum.
 
ScoutX schrieb:
Ich beziehe mich auf aktuelle Spiele: UT 3 ist nun nicht sehr aktuell.
jo ist immerhin schon 4 monate alt :lol:
und crysis ist ja so viel jünger :freak:

@topic
ich frag mich ob die powerplay nur so zum spass als feature bewerben
wahrscheinlich wird da nicht mehr gemacht als beim vorgänger auch, der ja kein powerplay inne hat

funktionseinheiten werden hier mit sicherheit nicht deaktiviert
 
Zuletzt bearbeitet:
Hm naja was soll man dazu sagen? ENTTÄUSCHEND!
Fassen wir doch mal zusammen
-nicht schneller als eine HD2600XT
-teurer
-verbraucht mehr Strom trotz 55nm und geringerem Takt
-Powerplay bringt nix im Vergleich zur HD2600XT

Einziger Vorteil ist der UVD wobei der ja scheinbar bem Computerbase-Test der HD2600XT garnicht funktionierte, aber in anderen Tests schon, ist wohl eine Treibersache...

Ich hatte mir von der Karte schon mehr erhofft, so 5-10W weniger unter Last und ebenfalls im idle. Was ich ebenfalls beunruhigend finde ist das AMD den Verbrauch mit 75W angibt, bei der HD2600XT waren es noch 45W, es könnte also passieren das hier einige Karten noch mehr brauchen als die Powercolor...

TRAURIG!


Spiele ja schon seit längerem mit dem Gedanken eine HD2600XT zu nehmen und habe jetzt auf die HD3650 gewartet, aber wenn das mit dem UVD bei der HD2600XT geklärt wäre gäbe es doch keinen einzigen Grund eine HD3650 zu nehmen! Was hat sich AMD dabei nur gedacht???
 
was sie sich gedacht haben? geld sparen
durch den shrink ist die gpu kleiner und somit billiger zu fertigen
ne schnellere gpu brauchen sie eigentlich nicht, da ja ab 120€ schon die 3850 rangiert
die karte soll das gleiche segment wie die 2600 abdecken
 
bensen schrieb:
jo ist immerhin schon 4 monate alt :lol:
und crysis ist ja so viel jünger :freak:

Mein Fehler: Ich meinte eigentlich die Unreal Engine 3, die die Harwareanfordrungen eines PC Anno 2006 in etwa reflektieren soll.
Obwohl die Gameengine ständig erweitert wird, sind UT3s Hardwareanforderungen, die auf der Gameengine aufbauen, wirklich nicht so gross. Bioshock belastet die Engine deutlich mehr meiner Meinung nach.
 
Zuletzt bearbeitet:
RubyRhod schrieb:
Ich erinnere mich noch an meine gute alte 9800 Pro.. die war, so hab ich den Eindruck, längst nicht so groß (vllt 50% oder sogar weniger) ... das war wohl für damalige Verhältnisse näher am High-End...
ist ja auch kein wunder, da sich die transistorzahl vervierfacht hat (r300 ~100 mio, rv635 378 mio). obwohl, im gleichen atemzug brauchte ein transistor in 150nm die neunfache fläche wie in 55nm ;)
tatsache ist, der rv635 ist kleiner als ein gddr3-chip, der r300 größer als ein gddr-chip. (wobei sich das format etwas geändert hat).


was ich von der 3650 halte? ein kalter aufguss einer mitte 2007 schon lauwarmen karte :/ wenn sie wenigstens etwas schneller wäre als eine 2600 xt... so wird sie regelmäßig von einer 3850 um das 2,5-fache übertroffen, welche man mittlerweile schon ab +-120 eu bekommt.
 
Zuletzt bearbeitet:
also ich denke, das ist eine sehr gute und günstige option für einen kompakten multimedia- bzw. HT-PC.

edit:
Schade, dass ihr Stalker nicht mit "statischer Beleuchtung" getestet habt. Das läuft auf meiner 7800 GS (die sicherlich 30-40% langsamer als die Testkarte ist) mit Antialiasing auf 1280x1024 und hohen Einstellungen flüssig. Das sieht immernoch ziemlich gut aus und ist für die Klientel dieses Segments wohl eher von Interesse. Eure Werte sind in der Hinsicht zwar immernoch gut als Vergleich zum höheren Segment, doch eine direkte Aussage für Midrange-Karten lässt sich hier nicht machen, da Stalker mit euren Werten als nicht spielbar gilt, was aber ziemlich wahrscheinlich an der dynamischen Beleuchtung liegt, die extrem Leistung frisst.

edit2:
... bzw. ihr hättet es wenigstens erwähnen oder darauf hinweisen können.
Ansonsten ist das ein sehr guter Test!
 
Zuletzt bearbeitet von einem Moderator:
Nova1984 schrieb:
Hm naja was soll man dazu sagen? ENTTÄUSCHEND!
Fassen wir doch mal zusammen
-nicht schneller als eine HD2600XT
-teurer
-verbraucht mehr Strom trotz 55nm und geringerem Takt
-Powerplay bringt nix im Vergleich zur HD2600XT

- Nur die getestete OC Karte ist teurer, die anderen werden sich auf gleichem oder sogar niedrigerem Preisniveau einpendeln.
- Beim Stromverbrauch wurde eben auch diese OC Edition gemessen, die normalen dürften dann auf jedenfall gleich sein wie die 2600xt
- was PowerPlay betrifft, stimme ich zu.
 
Nice Karte für ihr Preissegment!

An alle die Enttäuscht sind, was habt ihr erwartet?

Zwar zieht die Karte mehr Strom ist aber trotzdem Kühler;-) und der Kühler ist dabei noch leise:-) is doch alles Prima^^

Lg
 
Zurück
Oben