Test Test: Sapphire Radeon HD 5450

Kein Problem, dann kritisiere doch. Schreib, das dir die 5450 für die erbrachte Leistung (noch?) zu teuer ist.

Aber bitte behaupte dann nicht, sie wäre der Nachfolger von XY nur weil XY für gleiche Leistung weniger kostet. Das ist nämlich nunmal so, und das kann man nicht kritisieren. Daran ändert sich ja die Zielgruppe der 5450 nicht. Dies ist die kleinste DX11 Karte der Generation 5000, und ist somit 30-50% schneller als die kleinste DX10.1 Karte der Generation 4000.

Im übrigen; glaubst du die 4350 und die 4550 haben zum Zeitpunkt ihrer Veröffentlichung genau so viel gekostet, wie sie jetzt kosten? Ich hoffe nicht, denn du wärst schwer entäuscht.
 
milamber! schrieb:
Aber bitte behaupte dann nicht, sie wäre der Nachfolger von XY nur weil XY für gleiche Leistung weniger kostet.
Ich behaupte sogar das Gegenteil. XY ist von YX der Nachfolger, weil er dasselbe kostet (Zum Erscheinen!). Die 4550 lag bei ~46€ zum Release, die 4350 etwa bei 30€. Die 5450 liegt aktuell bei ~40€.
Wo soll man sie nun preislich einordnen?

Ich glaube nicht, dass sie nicht dem Preisverfall gehorchen, allerdings sind 25% von der 4550 längst nicht so viel wie die >50% der 4870.
 
Krass, wie man sich hier wegen 5 bis 10 € zofft...

Fahrt ihr manchmal Auto, geht ihr manchmal ins Kino, manchmal in ein Fast-Food Restaurant, steht gar ein Aschenbecher neben eurer Tastatur?
Dumme Frage, aber bei manchen... Foren-Nutzern... egal... Worauf ich hinaus will:

Was sind 5 bis 10 €? Richtig, nichts!

Vor allem für die Zielgruppe, die eben nicht eine möglichst günstige Karte zum Spielen sucht (da ersteigere ich mir eine 9600 GT oder etwas vergleichbares) sondern eben eine Low-Profile-Karte, die in ein Computergehäuse kommt, das selbst das doppelte kostet und an einem Fernseher für mindestens 500 € hängt...

Aber zofft euch noch ein wenig, ich finde es lustig... :lol:


Edit:

Diese Karten verlieren so gut wie nichts an Wert, wenn ich die für 40 € kaufe, kann ich sie 2 Jahre später immer noch für 25 bis 30 € versteigern, dann kostet mich die neue Karte effektiv 15 bis 20 €.
 
Zuletzt bearbeitet von einem Moderator:
5-10€ sind In Prozent ein recht größer unterschied.
Was auch noch zu beachten ist, ist der Treiber es kann gut sein, das die 5450 stärker von Treiberänderungen Profitiert.
 
solche Karten sollten gesondert getestet werden. Keine Spielebenchmarks und co.

es ist doch mittlerweile jedem klar das solche Karten nicht im Spiele-PC den Platz finden.
genau darum sollte CB den Hinweiss ernsthafter nehmen solche Karten rein auf DVD, HTPC, BlueRay-Wiedergabe und Bild- und Ton -Qualitaet Tests verstaerken !!!

mit anderen Worten
Baut einen HTPC auf und testet die Karte in dem Element fuer den diese entwickelt und gebaut worden ist !

Und Schluss ist mit dem bloedsinn wie etwa HD5450 und Crysis Warhead und co. BASTA
 
Ich sehe hier (wie auch bei der HD5670) mal wieder das Manko, dass die Karte zwar einen Dreischirmbetrieb unterstützt, aber wieder nur zwei digitale Ausgänge vorhanden sind. Verdammt noch mal, ich möchte eine Grafikkarte für meinen Rechner in der Arbeit, die zwar nicht übermäßig stark sein muß, aber drei Bildschirme digtal bedienen soll. TFTs über VGA angeschlossen belasten meine Augen. Nach 12 Stunden konzentrierter Arbeit mit so einer Kombination krieg ich Augenkrebs!

Und ich will weder eine Quadro NVS, noch eine Matrox haben. Die eine bietet so gut wie keine 3D-Leistung, die andere macht nix wie Stress vor lauter Inkompatibilität und kostet ein halbes Vermögen. Die HD5770 läge zwar preislich im Rahmen und ich find sie in meinem privaten PC richtig sahnemäßig, wäre in einem Office-PC aber letztendlich doch ein wenig der Overkill und würde zu viel Abwärme produzieren.

Tja, bleibt halt derweil die loddelige 9500GT drin stecken. Irgendwann wirds ja vielleicht doch noch mal ein Modell abseits dieses kranken Mainstreams mit 3 digitalen Ausgängen. Die Hoffnung stirbt bekanntlich zuletzt :p
 
BobbyBest schrieb:
Ich behaupte sogar das Gegenteil. XY ist von YX der Nachfolger, weil er dasselbe kostet (Zum Erscheinen!). Die 4550 lag bei ~46€ zum Release, die 4350 etwa bei 30€. Die 5450 liegt aktuell bei ~40€.

Es sollte eigentlich XY UND XY heissen.
Whatever - es ist absoluter Schwachsinn den Nachfolger anhand des Preises fest zu machen - sowohl am aktuellen Preis (neue teuer, alte günstig), wie auch am Preis zur jeweiligen Vorstellung.
Die 5870 sollte zum Launch 350€ kosten und war damit 3,5x so teuer wie die alte 4870, die zum Launch 210 gekostet hat.
Die 5850 sollte zum launch 210€ kosten, und war damit 3 so teuer wie die alte 4850, die zum Launch 150€ gekostet hat.
Die 5870 ist also nicht der Nachfolger der 4870, respektive 5850 nicht der 4850?

Wieviele dieser unnötigen Zahlenspielchen willst du noch aufstellen? Hauptsache mal ne Theorie aufgestellt?

BobbyBest schrieb:
Wo soll man sie nun preislich einordnen?

Bei 36,97€

BobbyBest schrieb:
Ich glaube nicht, dass sie nicht dem Preisverfall gehorchen, allerdings sind 25% von der 4550 längst nicht so viel wie die >50% der 4870.

Vielleicht mal auf die Idee gekommen, das es in Zukunft erstmal keine dedizierte Karte für ~22€ geben wird, ab der 4350 jetzt zu haben ist?

Deine ganze Argumentation beruht auf bullsh*t..
Die 5450 - der Nachfolger der 4350 - der Nachfolger der 3450 - die jeweils kleinste Karte ihrer Generation.

Und solange mich AMD nicht lügen straft, und eine 5350 nachlegt, ist das eine Tatsache.

BobbyBest schrieb:
Eyefinity und Analog schließen sich aus.

Das stimmt nicht, nur ein Displayport ist nötig. Ob der 3. Anschluss Analog oder Digital ist, ist egal. Eyefinity funktioniert.
 
Ist das geil ! Die 5450 bricht bei Crysis mit Kantenglättung nur um 1 FPS ein.

Und da reden hier alle von nicht gamingtauglich, das macht so schnell keiner nach. Vlt. ne Matrox, müsste man in einen Test "FPS Schlacht der ÜBAGrakas" (für Proviehbencher) mal betrachten und vergleichen.
 
über DVI-I kann man sowohl digital, als auch analog über Adapterstecker ausgeben,
von daher wären 2x DVI-I Anschlüsse wünschenswert, da universeller nutzbar,
+ 1x HDMI oder Displayport. Der eine nur-analoge DSUB Anschluss ist etwas veraltet und wird heutzutage weniger genutzt. Weshalb werden die Karten also mit suboptimaler Anschlussbestückung ausgestattet?
 
Ich glaube was ihr vergeßt ist die aktuelle Teuerungsrate von Hardware allgemein. Solches Zeug unterliegt auch Marktschwankungen und derzeit ist eben nicht gerade eine Phase, wo Hardware an sich günstig zu erwerben wäre. Damit meine ich nicht die Tatsache, dass es mehr Leistung denn je für die Eurone gibt, aber man sehe sich die Preisentwicklung der HD5850, der Intel Postville G2 oder von DDR3 Ram an - alles ist gestiegen in den letzten Monaten.
Sich hier ernsthaft wegen 5-10 Euro zu streiten ist die Zeit nicht wert, die man dafür aufwendet. Es sei denn, ihr seid 1 Euro Jobber (was ich nicht diskriminierend verstanden haben möchte).
 
roWing schrieb:
5-10€ sind In Prozent ein recht größer unterschied.
Wenn das Komplettsystem 400 € kostet, zusätzlich ein Fernseher und eine Soundanlage dran hängen, sind es aber auch nur noch 0,5 bis 2,5 %.

Das zu Prozentwerten... :o
 
BobbyBest schrieb:
Du brauchst nur einen DP Ausgang und sowas hier

Aber du weißt schon was 'coming soon' bedeutet? Gibt's (noch) nicht! :p

Mal ganz abgesehen davon dass mir mein Chef was husten wird, wenn ich ihm sage dass ich mal eben drei neue Displays brauche weil die vorhandenen keinen DP-Anschluss haben.


HITCHER_I schrieb:
Der eine nur-analoge DSUB Anschluss ist etwas veraltet und wird heutzutage weniger genutzt. Weshalb werden die Karten also mit suboptimaler Anschlussbestückung ausgestattet?

Na eigentlich liegt das auf der Hand:

Ich schätze mal, dass ein VGA-Ausgang billiger ist als die anderen. Und die Hersteller rechnen einfach mit den gängigen Ansprüchen der Käufer, die nicht gerade hoch sind. Die Mehrzahl weiß doch noch nicht mal wo der Unterschied zwischen DVI und VGA sich bemerkbar macht.

Des weiteren kannst du ja mal versuchen, auf einem Single-Slotblech zwei DVI- und einen weiteren (welchen auch immer) Ausgang unterzubringen. Geht nicht. Und der spitze Bleistift, mit dem alle Hersteller rechnen müssen, streicht all die Sachen zuerst weg, die sich auf der Verpackung nicht besonders werbewirksam anbringen lassen können, aber zu einem höheren Preis führen.
 
Ein wenig hättest du dich schon auf der Seite umsehen können: http://www.accellcables.com/products/DisplayPort/DP/dp_dvi_multimonitor.htm

Allerdings muss ich doch zugeben, dass ich so ein Gerät leider noch nicht finden konnte.
Ergänzung ()

@milamber!: Ich finde es ganz ehrlich unmöglich auf welche Art und Weise du hier meine Ansicht meinst runterziehen zu müssen. Ich war lange genug im Einzel/Großhandel tätig, um einen Einblick darüber zu haben, wie der Hase läuft. Abgesehen davon, dass ich hier nicht der bin der seltsame Zahlenspielchen aufstellt:
210€ x 3,5= 350€?

Aber im Prinzip ist mir das ja alles egal,von mir aus hast du auch recht, bloß würdest du aufhören sinnlos meine Posts zu haten?
Ich habe in meinem Post gesagt, dass man nur Displayport braucht und das analoges Einspeisen des Verteilers nicht möglich ist. Was bitte hast du daraus interpretiert?
 
Schade um die Zeitverschwendung - ein oder zwei aktuelle Spiele hätten vollkommen genügt, um zu zeigen, dass zumindest aktuelle Spiele nicht vernünftig laufen. Dazu ist diese Karte doch überhaupt nicht gedacht. Und dann auch noch mit AA und AF. Statt dessen wäre doch interessant zu sehen gewesen, welche älteren Spielegenerationen noch spielbar sind.

Immer mehr Alltagsanwendungen nutzen die GPU zur Beschleunigung und auch hier wäre zumindest meiner bescheidenen Meinung nach doch ein Ansatzpunkt, um zu einem sinnvollen Ergebnis zu kommen.

Und gerade für die User von Adobe-Produkten stellt sich doch die Frage, ob so eine Karte, die auch Eyefinity unterstützt, nicht vollkommen ausreichen würde, um bei CAD- oder Grafikanwendungen schnell genug arbeiten zu können.

Ich persönlich bin seit längerem ein bisschen unglücklich darüber, dass es kaum - bzw. hier gar keine - Benchmarks gibt, die Aussagen über die Leistung/Effizienz in Anwendungen wie zum Beispiel Acrobat, Photoshop CS3/CS4, Cinema4D und so weiter gibt.

Eine geräuschlose, stromsparende Karte ist doch genau für die, die tagtäglich damit arbeiten per se interessant.

(Bin ich hier echt so alleine mit dieser Position?)
 
Ja das frag ich mich auch, wieso bei den karten immer ellenlang irgendwelche 3D Games und/oder 3D Benchmarks gemessen werden bleibt mir ein Rätsel. Wen interessiert denn das bei den Karten? Darum gehts doch gar nicht, dafür wird sie niemand nutzen, dafür wurden sie nie gemacht. Warum also Zeit und Strom verschwenden und dann noch sinnlos Trolle anziehen, die jammern dass die karten kiene Power haben zum zocken. Versucht ihr auch nen 17 Pfund Truthahn in einem Toaster zu gahren?

Grüße
Seth
 
Ich denke mal, CB möchte halt den Grafikkarten-affinen Teil seiner Lesergemeinde möglichst ausführlich darüber informieren, in welcher Relation die 3D-Leistung solch einer Karte steht. Und irgendwie kann ich - als einem aus dem Grafikkarten-affinen Teil der CB-Lesergemeinde - auch überhaupt nichts Verfängliches daran finden. Und ganz ehrlich, ich bin überzeugt dass sich auch genug Trolle finden würden, die sich über fehlende Spiele-Benchmarks beschweren...
 
Ich finde die Karte ist der Knaller. Lautlos, sparsam und doch ein deutliches Plus an Leistung im Vergleich zur 4350er. Ideal für Mini-ITX Systeme oder HTPCs. In anderen Tests liegt der Verbrauch im Leerlauf übrigens bei knapp 7 Watt und kommt unter Last nicht über 17 Watt hinaus. Das liegt vielleicht auch daran, dass die anderen nicht das Gesamtsystem, sondern separat messen. Schade, dass die Sapphire, wie der Vorgänger auch schon, recht warm wird. Das hatte Asus bei der 4350er doch deutlich besser im Griff.
http://www.heise.de/newsticker/meld...-DirectX-11-Einsteigergrafikkarte-922002.html
http://www.pcgameshardware.de/aid,7...-Grafikkarte-mit-DirectX-11/Grafikkarte/Test/
Die HD5450 ist aus meiner Sicht eine erfolgreiche Symbiose aus HD4350 und HD4550, mit den jeweiligen Vorteilen. Der Preis ist vielleicht noch nicht da wo er hin sollte, aber wie gewohnt wird sich das nach Verfügbarkeit in einigen Wochen schon noch nachregulieren.
 
Hmmm stimmt wohl, Trolle finden sich immer....trotzdem find ich es übertrieben. Ich finde auch dass es interessanter wäre , wenn man schon games testet, auch solche zu nehmen, die von der Karte noch dargestellt werden können. Was bringt mir die Info, dass Crysis Warhead nur 4 frames schafft? Das war eh klar, dass das nix wird mit ATIs schwächster DX11 karte für 37 euro :D

Reicht es, dass ich Monkey Island (die Neuauflage) spielen kann? Oder wie sieht es mit "Serious Sam " aus? Games halt, die die Karte auch evtl. echt noch schafft würden irgendwo mehr Sinn machen denke ich. Ich bin jetzt herrvoragend informiert, was die Karte im Gamingsektor alles nicht kann, aber was sie kann muss ich wohl selber herausfinden.

Grüße
 
Zuletzt bearbeitet:
Zurück
Oben