Test Test: ATi Radeon HD 5670

Status
Für weitere Antworten geschlossen.
Weltenspinner schrieb:
So allein bin ich damit übrigens nicht.
Na ja, ich will dir die Illusion jetzt mal lassen. :p

hongkongfui schrieb:
manche leute kann man echt nicht ernstnehmen.
Wie wahr...
hongkongfui schrieb:
20W mehr oder weniger bei einer graka sind plötzlich quasi unwichtig.
Und gleichzeitig wird die CPU wieder fröhlich übertaktet, was mal schnell 100W mehr Leistungsaufnahme sind oder ein "nicht ganz so tolles", überdimensioniertes Netzteil verwendet. In dem Umfeld, wo solch eine Grafikkarte eingesetzt werden soll, sind die 20W nicht der Renner. Verstehe mich nicht falsch, weniger Leistungsaufnahme ist immer großartig. Aber was will man auch anderes erwarten, wenn der Chip fast halb so klein ist wie der Vorgänger? Unter dem Gesichtspunkt ist die Effzienz sogar zurückgegangen.

@Complication: OEM ist natürlich ein Argument, das stimmt. Hier hat eine solche Lösung natürlich ihre Stärken.
Auch finde ich das mit dem Hypermemory interessant. Besten Dank für die links.
 
Es sind durchaus reelle Menschen, wir unterhalten uns auch
gern mal über solche Themen. Es sind keine Selbstgespräche. ;)

Zeige mir einen HD4670/potentiellen HD5670-Nutzer,
der seine CPU mit Spannungserhöhung übertaktet! oO
Meine habe ich sogar untervoltet, damit sie statt 45W
nur noch 36W unter Vollast und knapp 5W idle frisst.
Ein PC mit Monitor hat idle nicht mehr zu fressen als
eine 75W-Glühbirne! Wobei der Monitor noch das
Meiste ausmacht. Werde, wenn in 5 Jahren die Garantie
abläuft, wohl auf Edge-LED-Technik und S-PVA setzen.

Die HD5670 fällt mit ihrem idle-Verbrauch für mich übrigens flach. ^^
 
Zuletzt bearbeitet:
Dieses Review ist auch klasse:
http://www.guru3d.com/article/radeon-hd-5670-review-test-crossfire/
Mit Crossfire und viele aktuelle Spiele im Vergleich.
Vor allem interessant ist der GPU Transcoding Test:
http://www.guru3d.com/article/radeon-hd-5670-review-test-crossfire/21
Die HD5670 lässt auch einen Core i7 965 mit 4 Kernen CPU übertaktet auf 3.75 GHz hinter sich.
Aber noch viel interessanter ist, dass hier noch die CPU limitiert, da alle HD5xx karten gleich schnell sind. Allerdings fallen ausser der GTX260 SP216 alle Nvidia Karten mit CUDA zurück. Sogar die GTX295. Ich bin bisher nicht dahinter gekommen woran das liegen mag. hat einer dafür eine Erklärung? (Testaufbau des Tests? bestimmte Eigenschaften der Grakas?)
Es ärgert mich schon wieder, dass kein Wort darüber dort verloren wird - ist ja nicht so als ob das egal wäre wo GPGPU computing immer wichtiger wird.
 
ATi-Karten haben einfach mehr Stream-Prozessoren und ein effektiveres
Speicher-Management. Eine ATi HD5970 kann auf 3200 Kerne zu greifen,
eine GTX295 nur auf 480 Kerne. Das führt bei der HD4970 zu einer puren
Rechenleistung von 4640 GFLOPs und bei der GTX 295 zu 1788 GFLOPs.
Selbst eine HD5670 hat noch 400 Kerne und 620 GFLOPs. Was bei Spielen
nicht viel nützt, weil sie im 5'er-Pack liegen und man sie gezielt nutzen müsste.
Bei GPGPU können sie ihr Potential jedoch voll entfalten, wenn man sie lässt.
 
Zuletzt bearbeitet:
Schnitz schrieb:
mit versand biste aber immer noch bei 80

Und alle anderen Karten gibts Versandkostenfrei? :rolleyes:

Denahar schrieb:
Und DX11 bringt alleine noch nichts. Mehr Features kann man auch nicht sagen, da dafür andere, interessantere Dinge wie CUDA völlig fehlen.

Was hast DU denn von deiner CUDA fähige Grafikkarte, hm? Und bitte erzähl mir jetzt nicht aus dem Nähkästchen was du tun könntest, sei ehrlich und sag mir was du nutzt ...
Auf meiner CUDA fähigen Nvidia Karte lief noch nicht eine Anwendung die auf CUDA basierte, weil einfach nichts Interessantes oder brauchbares dabei ist.

digitalangel18 schrieb:
such mal mit google nach so sachen wie "browser ruckelt" "corel draw ruckelt" etc. du wirst dich wundern ;)

Ich finde sowohl mit dem einen noch mit dem anderen Suchbegriff irgend etwas zum Thema betreffendes auf den ersten 2 Seiten.
Ergänzung ()

Denahar schrieb:
Na ja, mit 20W kann man keine Bäume ausreißen und das, wo doch schon der Chip geshrinkt wurde. Berücksichtig man das mal, dann hat Ati sogar einen Schritt zurück bei der Effizienz gemacht. Schade eigentlich.

Ähm, die Karte hat über 100 Mio. mehr Transistoren, ein um 25 MHz höheren GPU und Shader Takt, GDDR5 statt 3 und mehr Shader, leistet damit zwischen 20 und 40% Mehr, und das bei 'nur' ~5 Watt mehr. Keine Ahnung, aber nen Schritt zurück seh ich da nicht.
 
milamber! schrieb:
Was hast DU denn von deiner CUDA fähige Grafikkarte, hm? Und bitte erzähl mir jetzt nicht aus dem Nähkästchen was du tun könntest, sei ehrlich und sag mir was du nutzt ...
Also ich habe schon einen ganzen Sack voll CUDA-Anwendungen ausprobiert. Alleine Videokonvertierungen bzw. -Beschleunigungen gibt es eine ganze Auswahl. Darüber hinaus auch noch nette Krypto- und DC-Anwendungen. Auch sollte die PhyX-Beschleunigung duch CUDA nicht vergessen werden. Also, alles in allem schon eine ordentliche Auswahl. Die Nutzung ist dagegen selbstsverständlich Geschmackssache. Es zwingt dich ja niemand das volle Potential deiner nVidida-Karten zu nutzen. ;)

milamber! schrieb:
Ähm, die Karte hat über 100 Mio. mehr Transistoren, ein um 25 MHz höheren GPU und Shader Takt, GDDR5 statt 3 und mehr Shader, leistet damit zwischen 20 und 40% Mehr, und das bei 'nur' ~5 Watt mehr.
Sorry, aber mit was versuchst du hier einen Vergleich aufzustellen? Also eine 9800GT hat sicherlich nicht einen 25MHz niedrigeren Takt bzw. ist sogar leistungsfähiger. Wo ist denn da der Fortschirtt zu sehen? Eine 9800GT ist nicht als Effizienzmonster bekannt. Dafür gibt es ja noch die "GreenEditions". (Dummes Marketing ... :rolleyes: )
 
Denahar schrieb:
Und gleichzeitig wird die CPU wieder fröhlich übertaktet, was mal schnell 100W mehr Leistungsaufnahme sind oder ein "nicht ganz so tolles", überdimensioniertes Netzteil verwendet.

Wer bitte kauft sich eine Karte aus dem low/midrange Segment und übertaktet dann massiv seine CPU?
Und wieviele Leute verbauen sich bitte für jeden Pfurz nen 750 Watt Netzteil? :p

Denahar schrieb:
In dem Umfeld, wo solch eine Grafikkarte eingesetzt werden soll, sind die 20W nicht der Renner. Verstehe mich nicht falsch, weniger Leistungsaufnahme ist immer großartig.

Wenn ich zum gleichen Preis oder etwas mehr 20W Weniger im Idle verbrauch - warum sollte ich das nicht mitnehmen? Wo ist da die Logik?

Denahar schrieb:
Aber was will man auch anderes erwarten, wenn der Chip fast halb so klein ist wie der Vorgänger? Unter dem Gesichtspunkt ist die Effzienz sogar zurückgegangen.

Ist sie das? Warum, weil sie trotz mehr Spieleleistung und Rohleistung nicht weniger Watt verbraucht? Was erwartest du von einem Die Shrink? Wunder?
Ergänzung ()

Denahar schrieb:
Also ich habe schon einen ganzen Sack voll CUDA-Anwendungen ausprobiert. Alleine Videokonvertierungen bzw. -Beschleunigungen gibt es eine ganze Auswahl. Darüber hinaus auch noch nette Krypto- und DC-Anwendungen. Auch sollte die PhyX-Beschleunigung duch CUDA nicht vergessen werden. Also, alles in allem schon eine ordentliche Auswahl. Die Nutzung ist dagegen selbstsverständlich Geschmackssache. Es zwingt dich ja niemand das volle Potential deiner nVidida-Karten zu nutzen. ;)

Eben, ausprobiert. Ausprobiert hab ich auf der Arbeit auch die eine oder andere Anwendung. Und was braucht man dann in der Praxis davon? Wenn die Encoder unbrauchbar sind, und die decoder ebenso? Wenn du die brauchbaren PhysX Spiele an einer Hand abzählen kannst, und diese auch schon längst durchgespielt sind?

Ich nutze keine Features, um des Features willen. Ich schlage mich nicht mit Anwendungen herum, nur weil es sie gibt, und meine Hardware sie unterstützt.

Wir beschäftigen uns in der IT schon viel zu viel mit Dingen, nur weil sie da sind, nicht weil wir sie brauche.
Denahar schrieb:
Sorry, aber mit was versuchst du hier einen Vergleich aufzustellen? Also eine 9800GT hat sicherlich nicht einen 25MHz niedrigeren Takt bzw. ist sogar leistungsfähiger. Wo ist denn da der Fortschirtt zu sehen? Eine 9800GT ist nicht als Effizienzmonster bekannt. Dafür gibt es ja noch die "GreenEditions". (Dummes Marketing ... :rolleyes: )
Mit der 4670? Was dachtest du denn?
 
Zuletzt bearbeitet:
milamber! schrieb:
Wer bitte kauft sich eine Karte aus dem low/midrange Segment und übertaktet dann massiv seine CPU? Und wieviele Leute verbauen sich bitte für jeden Pfurz nen 750 Watt Netzteil?
Leider viel zu viele... :( Sei es nur ein 500W-Netzteil, überdimenioniert und mit schlechtem Wirkungsgrad gibt es zu viele Komplettrechner.

milamber! schrieb:
Wenn ich zum gleichen Preis oder etwas mehr 20W Weniger im Idle verbrauch - warum sollte ich das nicht mitnehmen? Wo ist da die Logik?
Theoretisch schon okay, nur muss es sich auch armotisieren. Ich erinnere mich noch gut an die Diskussionen, die mit Krautmaster wegen 60 bis 80W CPU-Leistungsaufnahmeersparnis geführt wurde. Manchmal sind also 20W "logisch" genug mehr zu bezahlen, aber dann wieder 60W nicht? :freak: Wenn es nach mir persönlich geht, sind jedes Watt weniger schon eine Investition wert. Aber egal...


milamber! schrieb:
Ist sie das? Warum, weil sie trotz mehr Spieleleistung und Rohleistung nicht weniger Watt verbraucht? Was erwartest du von einem Die Shrink? Wunder?
Mhmm, ich glaube wir reden aneinander vorbei. Die 5670 ist nicht leistungsfähiger als eine alte, in 55nm gefertigte aber nur marginal mehrverbrauchende 9800GT. Zudem der Shrink das Die stark verkleinert hat, aber die Leistungsaufnahme unverhältnismäßig dazu geblieben ist.
 
Das stimmt allerdings. Vor allem der Idle-Verbrauch hat mich enttäuscht.
Da ginge sicher noch einiges in der Leistungsaufnahme, wie man an der
HD5750 Green sieht. Die wird das doppelte leisten und auch ohne 12V
-6Pin-Kabel auskommen. Wie es idle aussieht, wird sich zeigen.
Scheinbar kommt da keine Karte an die HD4670 heran. Woran könnte
das liegen? Geht GDDR5 nicht allzu weit runter? Kann die HD4670
Dinge abschalten, die sonst keine Karte abschalten kann? Kosmische Energien?
 
@Weltenspinner: ich denke mal, dass ati hier auch bei den gpus nicht all zu weit mit den volt runter kann, weil sicher der anteil der "schlechten" chips, die wenig spielraum bieten aufgrund der schlechten 40nm-fertigung sehr hoch sein dürfte. indem ati die voltzahl relativ hoch belässt, sind mehr chips brauchbar und der ausschuss wird reduziert.
 
Das wird der Grund sein, ja. Ist bei CPUs nicht anders.
Oft kann man von der Werkseinstellung noch 20% Spannung abziehen
und damit den Verbrauch um 31% senken. Ich denke mal, sobald die
Fertigung besser wird, kommen mehr HD5750 Green raus und vielleicht
sogar eine HD5670 Green. Wobei mich der Begriff "Green" stört.
Kann man nicht einfach einen kleines "e" dran hängen?
 
milamber! schrieb:
Ich nutze keine Features, um des Features willen. Ich schlage mich nicht mit Anwendungen herum, nur weil es sie gibt, und meine Hardware sie unterstützt.
Ja, das sagte ich ja. Es muss ja niemand. Trotzdem ist es weiterhin korrekt, dass man kann wenn man wöllte.

milamber! schrieb:
Wir beschäftigen uns in der IT schon viel zu viel mit Dingen, nur weil sie da sind, nicht weil wir sie brauche.
Heheh, ja, wie wahr! :lol: Aber zum Teil liegt es daran, dass dies exakt die Daseinberechtigung vieler Dienstleistungen/Produkte in der IT ist.

milamber! schrieb:
Was dachtest du denn?
Na die 9800GT. War ja auch mehrfach schon gesagt worden und auch der Aufhänger der ganzen Diskussion um die 20W. ;)

suessi22 schrieb:
Hab ich was verpasst?
Nein. Alles in bester Ordnung. Es ging nur darum, dass vor kurzem noch 60W "verdammt schwach" sind und nun 20W plötzlich die "grüne Revolution". :cool_alt:
 
@ Denahar Wo ist denn bitte die Logik in deinen Beiträgen? Soll das jetzt ein Bashing auf die HD5k Karten sein, weil Nvidia nichts gegenzusetzen hat?

Denahar schrieb:
Leider viel zu viele...
Kaum. Und wer verbaut in einen Komplett PC 500Watt Netzteile, wenn die nicht gebraucht werden? Ist doch Geldverschwendung, also wirds auch keiner machen, wenn das System unter Vollast keine 200Watt zieht. Mainstream interessiert kein CPU overclocking.

Denahar schrieb:
Und gleichzeitig wird die CPU wieder fröhlich übertaktet, was mal schnell 100W mehr Leistungsaufnahme sind oder ein "nicht ganz so tolles", überdimensioniertes Netzteil verwendet.

Und gleichzeitig schaltet jemand im Bad das Licht ein. Und deswegen soll sich jetzt der sparsame PC nicht rentieren? Das Argument zieht nicht.. Unter spielelast/normallast zeiht die HD5670 unter 50Watt. Eine 9800gt gut das doppelte. HD4670 hat ähnliche Werte, aber die HD5670 ist 40% schneller. Also klarer Fortschritt. Da gibts nichts zu zweifeln.
Theoretisch schon okay, nur muss es sich auch armotisieren.
DAs amortisiert sich locker. Die HD5670 ist nur knapp 10% langsamer als eine 9800gt. Unter Last zieht sie weniger als die Hälfte der 9800gt, also rund 60Watt weniger.
Und teurer ist die HD5670 übrigends auch nicht mehr wie ne 9800gt.

Mhmm, ich glaube wir reden aneinander vorbei. Die 5670 ist nicht leistungsfähiger als eine alte, in 55nm gefertigte aber nur marginal mehrverbrauchende 9800GT. Zudem der Shrink das Die stark verkleinert hat, aber die Leistungsaufnahme unverhältnismäßig dazu geblieben ist.

Marginal? Der Unterschied ist besonders unter Last enorm. Die Leistungsaufnahme verglichen zur HD4670 hat sich kaum erhöht.
4Watt mehr im idle und unter Last gleich.
Wenn du eine Karte willst, welche wahrscheinlich noch etwas weniger als die alte HD4670 verbraucht und vielleicht ein paar %mehr Leistet, findest du dich bei einer HD5650 wieder.
Aber dann berufst du dich ja darauf, dass dies auch kein Fortschritt sei, weil die Leistung nicht gestiegen ist im vergleich zur alten HD4670?
Gruß Schaffe 89
 
Denahar schrieb:
Leider viel zu viele... :( Sei es nur ein 500W-Netzteil, überdimenioniert und mit schlechtem Wirkungsgrad gibt es zu viele Komplettrechner.

Das kann man doch trotzdem nicht pauschalisieren. Warum jemanden der die 5670 wegen 20 Watt bevorzugt, vorwerfen, er würde sein Rechner ja eh massiv übertakten?

Denahar schrieb:
Theoretisch schon okay, nur muss es sich auch armotisieren. Ich erinnere mich noch gut an die Diskussionen, die mit Krautmaster wegen 60 bis 80W CPU-Leistungsaufnahmeersparnis geführt wurde. Manchmal sind also 20W "logisch" genug mehr zu bezahlen, aber dann wieder 60W nicht? :freak: Wenn es nach mir persönlich geht, sind jedes Watt weniger schon eine Investition wert. Aber egal...

Welche Diskussion? i3? Da ging es im Idle um 10-15 Watt, und 60 unter last. Aber wie oft ist denn bei so einem Netzwerkserver die CPU unter Last, selbst bei 25/7/365? Und da ging es um erhebliche Mehrkosten in der Anschaffung. Da war die Amortisierung ein Thema - wo ist es den ein Thema bei der Frage 9800 GT zu 5670?

Die Karten beider Serien fangen zu Zeit bei ~72€ an. Hier muß für die 20 Watt nicht mehr bezahlt werden.

Denahar schrieb:
Mhmm, ich glaube wir reden aneinander vorbei. Die 5670 ist nicht leistungsfähiger als eine alte, in 55nm gefertigte aber nur marginal mehrverbrauchende 9800GT. Zudem der Shrink das Die stark verkleinert hat, aber die Leistungsaufnahme unverhältnismäßig dazu geblieben ist.

Ja, die 5670 ist nicht leistungsfähiger als eine alte, in 55nm gefertigte, marginal 20/45 Watt mehr verbrauchende 9800 GT, die mehr Transistoren, mehr ROPs und mehr TAUs hat. Was isn das fürn Vergleich?
Und was für eine "unverhältnismäßige" Leistungsaufnahme, es ist ja nicht nur nen Shrink auf 40nm, es sind auch ja auch 35% mehr Leistung vorhanden?!

Nochmal, warum erwartest du von einem Die Shrink Wunder, und ignorierst dabei, das die GPU nicht nur aus mehr Einheiten besteht, sondern auch deutlich mehr Leistung auf die Waage bringt?

Denahar schrieb:
Ja, das sagte ich ja. Es muss ja niemand. Trotzdem ist es weiterhin korrekt, dass man kann wenn man wöllte.

Ein "können" ist aber ein schlechtes Totschlagargument das immer und immer wieder eingebracht wird, wenn es sich auf dem Papier toll liest, aber in der Praxis nur wenig bis gar nicht genutzt wird, weil die Anwendungen dafür Spielerei oder Unbrauchbar sind.

Ich gebe zu, Eyefinity ist da ähnlich, das werden auch nur sehr wenige nutzen (noch?), das ist aber vielmehr ein Finanzproblem, denn eines betreffend dem Nutzen; hätte ich das Geld, ich hätte schon längst ne 5870 und drei 22er auf dem Schreibtisch stehen.

Denahar schrieb:
Na die 9800GT. War ja auch mehrfach schon gesagt worden und auch der Aufhänger der ganzen Diskussion um die 20W. ;)

Ist die Diskussion denn nu noch ein Thema, wo die 5670 zum gleichen Preis zu haben ist, wie die 9800GT?

Denahar schrieb:
Nein. Alles in bester Ordnung. Es ging nur darum, dass vor kurzem noch 60W "verdammt schwach" sind und nun 20W plötzlich die "grüne Revolution". :cool_alt:

Bitte nicht den zusammenhang ignorieren; es ging um 10-15 Watt Idle und 60 Watt Last, jedoch bei deutlichen Mehrkosten.
Hier gehts um 20 Watt Idle und 45 Watt Last bei gleichem Preis.
Ergänzung ()

btw, wo du meinen Wink mit dem Zaunpfahl bezüglich deiner "überdimensionierten Netzteil" wohl überlesen hast;

Was machst du mit nem 750 Watt Dark Power bei zwei 80 Watt Xeons und ner 9600 Pro?! :p
 
Schaffe89 schrieb:
Und wer verbaut in einen Komplett PC 500Watt Netzteile, wenn die nicht gebraucht werden? Ist doch Geldverschwendung, also wirds auch keiner machen, wenn das System unter Vollast keine 200Watt zieht.
Deinen Idealismus in allen Ehren, aber leider ist die Welt eben nicht so lustig bunt, wie du glaubst. Hier mal nur ein Anbieter von hunderten, der zwischen 450W und 580W Netzteile mit untertrieben mäßiger Effizienz in Massen einsetzt. Und das für Systeme mit i5/i7 und einer 9600GT. :freak:

Schaffe89 schrieb:
Unter spielelast/normallast zeiht die HD5670 unter 50Watt. [...]
DAs amortisiert sich locker. Die HD5670 ist nur knapp 10% langsamer als eine 9800gt. Unter Last ...
Marginal? Der Unterschied ist besonders unter Last
Danke, genau das wollte ich hören. :evillol:
Plötzlich ist also wieder der Lastverbrauch das Maß aller Dinge. Ja ja, immer schön so wie es einem in den Kragen passt. :rolleyes: Mach' weiter so, kein Wunder, dass dich keiner mehr ernst nimmt.

Du merkst in deiner Verbohrtheit noch nicht einmal, dass ich selbst die HD-5000 sehr gelobt habe. Einige 5770 habe ich selbst verbaut und einige 5850/70 kommen noch. Nur diese 600-Serie ist eben, meiner Meinung, überflüssig. Wenn's dir nicht passt: suck it up! :)
 
Denahar schrieb:
Danke, genau das wollte ich hören.
Plötzlich ist also wieder der Lastverbrauch das Maß aller Dinge. Ja ja, immer schön so wie es einem in den Kragen passt.

Du drehst die Tatsachen aber auch genauso hin wie sie dir passen. Oben hast du erwähnt eine HD5670 wäre Ein Rückschritt Ati´s, was Performance/Watt angeht. Und deine weiteren Ausführungen sind allesamt nicht der Warheit entsprechendund schlichtweg verkehrt.
Der Lastverbrauch ist nicht das Maß aller Dinge. Genauso wie der Idle Verbrauch nicht das Maß aller Dinge ist. Aber was diskutiere ich? Ich weiß, dass es sich nicht lohnt. Milamber! und ein paar andere User haben dir doch schon den Wurm in deinen Argumenten nahegelegt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben