Test Test: ATi Radeon HD 5670

Status
Für weitere Antworten geschlossen.
Ich finde die HD 4670 immer noch besser. Die geringere Leistungsaufnahme hat in dem Bereich sicher mehr zu sagen als die höhere Performance.
Außerdem ist der Referenzkühler nicht grad der Bringer.
 
milamber! schrieb:
Das kann man doch trotzdem nicht pauschalisieren. Warum jemanden der die 5670 wegen 20 Watt bevorzugt, vorwerfen, er würde sein Rechner ja eh massiv übertakten?
Yep, es geht sogar noch schlimmer. Die hier tummelnden "undervolter" sind die veschwindende Minderheit.

milamber! schrieb:
Welche Diskussion? i3? Da ging es im Idle um 10-15 Watt, und 60 unter last. Aber wie oft ist denn bei so einem Netzwerkserver die CPU unter Last, selbst bei 25/7/365? Und da ging es um erhebliche Mehrkosten in der Anschaffung. Da war die Amortisierung ein Thema - wo ist es den ein Thema bei der Frage 9800 GT zu 5670?
Ach, und eine 5670, die für Spiele ungeeignet ist und für Office-PCs eh nur idlet ist es also doch gestattet den Lastverbrauch auf die Goldwaage zu legen. :freaky: Macht weiter so, es ist sehr amüsant.
Der Preisunterschied bei dem genannten i3 ist dabei auch nicht so weit weg von dem "Wettbewerber" berücksichtig man die zusätzlich vorhandenen Mehrleistung und die Effizienzrekorde.

milamber! schrieb:
Die Karten beider Serien fangen zu Zeit bei ~72€ an. Hier muß für die 20 Watt nicht mehr bezahlt werden.
Lieferbar? Nein. Ansonsten wäre es ja auch toll, wie ich schon einmal geschrieben habe. ;) Dann wäre es auch okay, gäbe es einen fairen Preis.

milamber! schrieb:
Was isn das fürn Vergleich?
Das Argument hast du selbst gerade gebracht: der Preis. :p

milamber! schrieb:
Und was für eine "unverhältnismäßige" Leistungsaufnahme, es ist ja nicht nur nen Shrink auf 40nm, es sind auch ja auch 35% mehr Leistung vorhanden?!
Für Ati ist es auch okay. Ich sprach im Vergleich zur Konkurrenz. Erinnere dich daran, dass hier einer mit der vermeintlich "überforderten" Konkurrenz angefangen hat obwohl das nötige Faschwissen fehlt.

milamber! schrieb:
Ein "können" ist aber ein schlechtes Totschlagargument das immer und immer wieder eingebracht wird, wenn es sich auf dem Papier toll liest, aber in der Praxis nur wenig bis gar nicht genutzt wird, weil die Anwendungen dafür Spielerei oder Unbrauchbar sind.
Nö, es geht doch auch und wird entsprechend viel genutzt. Für Encoding und DC ist CUDA eine echte Bereicherung.

milamber! schrieb:
Ich gebe zu, Eyefinity ist da ähnlich, das werden auch nur sehr wenige nutzen (noch?), das ist aber vielmehr ein Finanzproblem, denn eines betreffend dem Nutzen; hätte ich das Geld, ich hätte schon längst ne 5870 und drei 22er auf dem Schreibtisch stehen.
Eyefinity ist wirklich nur ein Marketing-Gag, da ohne entsprechende Hardware/Adapter gar nichts geht. DAS ist wirklich der Beweis, wie geduldig Papier ist.

milamber! schrieb:
Hier gehts um 20 Watt Idle und 45 Watt Last bei gleichem Preis.
Gleiches hier wie zuvor: bitte bleibt einfach mal bei einer Argumentation und dreht es nicht so hin, wie es gerade passt. Das ist zu durchsichtig und zu einfach. Zudem ist der Preis noch nicht gleich und relativ gesehen das Thema prächtig vergleichbar. Aber mich persönlich soll es nicht stören, wenn das Leute für gerechtfertigt halten.

milamber! schrieb:
Was machst du mit nem 750 Watt Dark Power bei zwei 80 Watt Xeons und ner 9600 Pro?!
Kabelmanagement und ESP gibt es nicht mit weniger Leistung. :p Zudem sind immer wieder zusätzliche HDDs verbaut und die Xeons saugen auch ziemlich Leistung.
Aber ich bin ja auch nicht jemand, der wegen 20W so einen Aufriss machen würde. Es wäre mir persönlich ziemlich Latte... :evillol:
Ergänzung ()

Schaffe89 schrieb:
Du drehst die Tatsachen aber auch ...
Damit gibt es nun auch noch zu. Toll... :lol:

Schaffe89 schrieb:
Oben hast du erwähnt eine HD5670 wäre Ein Rückschritt Ati´s, was Performance/Watt angeht.
Nö. Im Zusammenhang würde dein Gewürge vielleicht einen Sinn ergeben; im Vergleich zur Konkurrenz ist es ein Schritt zurück. Heißt: holt man nicht so viel auf wie nötig wäre, ist es effektiv ein Schritt zurück. Das ist im Übrigen tägliches Brot in der Entwicklung. :rolleyes:

Schaffe89 schrieb:
Der Lastverbrauch ist nicht das Maß aller Dinge. Genauso wie der Idle Verbrauch nicht das Maß aller Dinge ist.
Sondern? Das Wetter in Timbuktu oder was?
 
Denahar schrieb:
Damit gibt es nun auch noch zu. Toll...
Ich zitiere meine Signatur, welche sich wie ein weiches Tigerfell an deine Diskussionsmentalität anschmiegt.Das auch sollte nicht implizieren, dass ich das mache. Nein ich duskutiere auf vernünftiger Basis du nicht, das weiß jeder hier.
Bevor du dich hier noch weiter blamierst, antworte ich lieber nicht mehr.

Denahar schrieb:
im Vergleich zur Konkurrenz ist es ein Schritt zurück.
Echt? Dann bin ich gespannt wieviele Leute noch über deine provokativen/unsinnien Kommentare herziehen.
Ich glaub !Milamber ist schon wieder was am Tippen.:)
 
Zuletzt bearbeitet:
im Vergleich zur Konkurrenz ist es ein Schritt zurück.
Würde mich jetzt aber auch interessieren welches Konkurrenzprodukt günstiger zu bekommen ist?
 
Denahar schrieb:
Ach, und eine 5670, die für Spiele ungeeignet ist und für Office-PCs eh nur idlet ist
Danke, dass du mich aufgeklärt hast, dass meine 3870 (mit ähnlicher Performance wie 5670) für Spiele ungeeignet ist, da muss ich mir wohl was besseres kaufen. Komisch, ich überleg grad, was ich vor ein paar Wochen auf der LAN-Party gemacht hab, zocken kanns ja nicht gewesen sein, hmm :lol:

im Vergleich zur Konkurrenz ist es ein Schritt zurück.
Inwiefern? Im Vergleich zur 40nm GT 240 sind es ungefähr identischer Verbrauch (3W mehr oder weniger kann man vernachlässigen), aber bis zu 20% mehr Performance.
 
aspro schrieb:
aber bis zu 20% mehr Performance.
Eben.Zudem noch ein deutlich kleiner Die im vergleich zur GT240. Also nochmal ein Fortschritt.
Nach dem Motto: Mach aus weniger mehr.;-)
 
So mancher Laptop idlet inkl. aller Peripherie bei weniger als 20W (meiner z.B. ~14W mit 50% Helligkeit).
Genau diese "Verbrauch ist egal"-Mentalität hat im Presscot und Multi-GPU-Grafikkarten gegipfelt, obwohl es offensichtlich auch anders gegangen wäre.
Wer jetzt jemanden, der auf den Stromverbrauch seines Rechner achtet verunglimpft, schneidet sich selbst ins Fleisch. Denn nur, wenn es Verbraucher gibt, die auf die Effizienz Wert legen, dann tun es auch die Hersteller.
 
Schaffe89 schrieb:
Das auch sollte nicht implizieren, dass ich das mache.
Nein.... :rolleyes: Glaubt dir jeder....

Schaffe89 schrieb:
Nein ich duskutiere auf vernünftiger Basis du nicht, das weiß jeder hier.
lol :freaky:

Mach weiter, super unterhaltsam.

Schaffe89 schrieb:
antworte ich lieber nicht mehr.
Schaffe89 schrieb:
Eben.Zudem noch ein ...
Och, manno! Kannst du nicht deine Versprechen halten? :evillol:

Complication schrieb:
Würde mich jetzt aber auch interessieren welches Konkurrenzprodukt günstiger zu bekommen ist?
Das wurde nun schon mehrfach klargestellt; ich meinte die 98GT.

aspro schrieb:
Danke, dass du mich aufgeklärt hast, dass meine 3870 (mit ähnlicher Performance wie 5670) für Spiele ungeeignet ist...
Ich glaube kaum, dass Crysis auf "very high" möglich ist. :rolleyes: Zwischen spielbar auf 1280 und low details und wirklich spielbar gibt es einen feinen Unterschied. Aber jedem das Seine.

aspro schrieb:
Zur 98GT in 55nm fand ich den Fortschritt eben nicht "so" riesig, aber auch wie schon mehrfach gesagt, toll, dass es überhaupt weitergeht. :p
 
Ich glaube kaum, dass Crysis auf "very high" möglich ist. Zwischen spielbar auf 1280 und low details und wirklich spielbar gibt es einen feinen Unterschied. Aber jedem das Seine.

Manchmal sind weniger Gebüsch und sonstige Sachen bei einer LAN durchaus kein Nachteil ;).
 
Denahar schrieb:
Ich glaube kaum, dass Crysis auf "very high" möglich ist. :rolleyes: Zwischen spielbar auf 1280 und low details und wirklich spielbar gibt es einen feinen Unterschied. Aber jedem das Seine.
Einen feinen Unterschied gibts, ja. Ein Beleg dafür, dass die Karte für Spiele im Allgemeinen ungeeignet ist, ist es wohl kaum, eher im Gegenteil. Offensichtlich muss man schon extrem performancehungrige Spiele bei hohen Details hernehmen, um an die Grenzen zu stoßen.

Zur 98GT in 55nm fand ich den Fortschritt eben nicht "so" riesig, aber auch wie schon mehrfach gesagt, toll, dass es überhaupt weitergeht. :p
Wieso mit der 9800 GT vergleichen, wenn man viel besser gleich mit der 40nm GT 240 vergleichen kann, wo der Vergleich wie gesagt eher leicht zugunsten der 5670 ausgeht?
 
Zuletzt bearbeitet:
Denahar schrieb:
Yep, es geht sogar noch schlimmer. Die hier tummelnden "undervolter" sind die veschwindende Minderheit.

Und was willst du mir mit der Existenz einer übertakteten 5670 nun sagen? Die gibt es von den 9800 GTs doch auch zu hauf, oder verbrauchen die dann nicht mehr Leistung? :rolleyes:

Denahar schrieb:
Ach, und eine 5670, die für Spiele ungeeignet ist und für Office-PCs eh nur idlet ist es also doch gestattet den Lastverbrauch auf die Goldwaage zu legen. :freaky: Macht weiter so, es ist sehr amüsant.

Öhm, 1. hab ich den Lastverbrauch nur erwähnt, nicht auf die Goldwaage gelegt.
2. Ist die 5670 wohl bei leibe keine Office Grafikkarte, oder was soll ich im Office mit ner Karte die (um es deutlicher zu machen) die Leistsung einer 8800 GT hat?
Ich hab ne 8800 GT, und ich kann mit der ALLES Spielen was gerade aktuell ist, natürlich mit abstrichen.
3. Ist damit - wenn man nun drauf rumreiten will - eine Mid/Low Grafikkarte in einem günstigen Spielerechner weit öfter unter Last, als eine CPU in einem Netzwerkheimserver - dort nämlich so gut wie nie.

Denahar schrieb:
Der Preisunterschied bei dem genannten i3 ist dabei auch nicht so weit weg von dem "Wettbewerber" berücksichtig man die zusätzlich vorhandenen Mehrleistung und die Effizienzrekorde.

Von einem Rekord kann ich mir nichts kaufen, auch macht ein Rekord mir meine Bilder nicht bunter. Und die genannten Konfigurationen lagen - je nach Einsatzgebiet - zwischen 60 und 100€ über dem Vergleichssystem.
Das ist ne Menge weit weg.

Denahar schrieb:
Lieferbar? Nein. Ansonsten wäre es ja auch toll, wie ich schon einmal geschrieben habe. ;) Dann wäre es auch okay, gäbe es einen fairen Preis.

Könntest du dich vor dem Posten bitte nochmal versichern, es könnte sonst peinlich werden.
Oder was bitte haben die zwei PowerColer und die Club 3D für 72 bzw. 74 € hier zu suchen, Lieferbar - aus Deutschland?!

Denahar schrieb:
Das Argument hast du selbst gerade gebracht: der Preis. :p

Nein, nicht der Preis. Du hast die Leistung und die Architektur von ATI und Nvidia versucht zu vergleichen. Du hast behauptet der geringe Verbrauch bei etwas weniger Leistung wäre ja so "vernachlässigbar", wo es doch auf ner kleineren Struktur hergestellt wird.
Bitte Scroll nochmal hoch, und lese deinen Post.

Denahar schrieb:
Für Ati ist es auch okay. Ich sprach im Vergleich zur Konkurrenz. Erinnere dich daran, dass hier einer mit der vermeintlich "überforderten" Konkurrenz angefangen hat obwohl das nötige Faschwissen fehlt.

Was schreibst du für einen Blödsinn?
Der Verbrauch ist weder hier noch dort unverhältnismäßig. Die 5670 ist ja nicht nur 35% schneller als die 4670 geworden, sie hat auch einen 45% Rückstand auf die 9800 GT aufgeholt. Völlig egal ob die noch auf 55nm gebaut wird, was hat das mit einer unverhältnismäßigen Leistungsaufnahme zu tun?

Denahar schrieb:
Nö, es geht doch auch und wird entsprechend viel genutzt. Für Encoding und DC ist CUDA eine echte Bereicherung.

Nochmal, nach meinem Wissensstand sind die Encoder fürn Popo, ausser um iPod Videos runter zu rechnen. Und was ist DC?

Denahar schrieb:
Eyefinity ist wirklich nur ein Marketing-Gag, da ohne entsprechende Hardware/Adapter gar nichts geht. DAS ist wirklich der Beweis, wie geduldig Papier ist.

Das ist kein Marketing gag, ganz im Gegenteil. Es ist nur für die meisten Privaten noch mit einer höheren Invesetition verbunden.
Oder soll das etwa ein Marketing Gag sein?!
Schau dir das Video mal an.

Denahar schrieb:
Gleiches hier wie zuvor: bitte bleibt einfach mal bei einer Argumentation und dreht es nicht so hin, wie es gerade passt. Das ist zu durchsichtig und zu einfach. Zudem ist der Preis noch nicht gleich und relativ gesehen das Thema prächtig vergleichbar. Aber mich persönlich soll es nicht stören, wenn das Leute für gerechtfertigt halten.

Mit jedem Post machst du es schlimmer, das ist echt wiztig.
Du bist zum einen nicht in der Lage geizhals.at zu bedienen, und dich selbst davon zu überzeugen, das 5670 zum Preis ab 72,11 ab Lager zu kaufen und damit genauso teuer sind, wie diei günstigsten 9800 GT.
Ebenso bist du nicht dazu in der Lage zu verstehen, das es beim anderen Thema um 60-100€ Mehrkosten ging.

Denahar schrieb:
Kabelmanagement und ESP gibt es nicht mit weniger Leistung. :p Zudem sind immer wieder zusätzliche HDDs verbaut und die Xeons saugen auch ziemlich Leistung.
Aber ich bin ja auch nicht jemand, der wegen 20W so einen Aufriss machen würde. Es wäre mir persönlich ziemlich Latte... :evillol:

lol

ESP? Und du baust Rechner zusammen? Beruflich? :lol:
Schon mal nach "Dark Power ESP" gesucht? Rate mal was der erste Treffer ist ... und warum :D
Und nein, Netzteile mit nem 8pin 12 Volt Anschluss und Kabel Management gibts auch weit unter 750 Watt - auch mit EPS12v.

Echt ma, sich über andere amüsieren, bezüglich überdimensionierte Netzteile, und sich selbst nen nen Doppel Xeon mit ner 9600 Pro unter den Tisch stellen, was unter Last wohl nie über 400 Watt kommt, aber nen 750 Watt Knaller verbauen.
Selbst mit 10 Platten kommst du da nicht drann :p
Ergänzung ()

Denahar schrieb:
Ich glaube kaum, dass Crysis auf "very high" möglich ist. :rolleyes: Zwischen spielbar auf 1280 und low details und wirklich spielbar gibt es einen feinen Unterschied. Aber jedem das Seine.

Die FPS in Crysis (Warhead) entscheiden nun darüber, ob es eine Spiele oder Officekarte ist? HAHAHA
https://www.computerbase.de/2010-01/test-ati-radeon-hd-5670/13/#abschnitt_crysis_warhead

Dann schau dich mal schlau, Spielbar ist es dann bis mindestens zu ner GTX260 nicht, wenn man 40fps als Spielbar ansieht, auch drüber schauts mau aus - bei 1280 und High Details :p

Das sind alles Office Karten.

Denahar schrieb:
Zur 98GT in 55nm fand ich den Fortschritt eben nicht "so" riesig, aber auch wie schon mehrfach gesagt, toll, dass es überhaupt weitergeht. :p

Die 4670 lag 45-50% zurück, zur 9800 GT, die 5670 nur noch 10. Das ist kein Fortschritt? Zum gleichen Preis? :)
 
Das sind alles Office Karten.

Jo, gibs ihm :D.

Zum gleichen Preis?

Du meinst den Preis der 4670 zum Zeitpunkt der Einführung, oder? Ich hab meine nämlich ein bisschen günstiger bekommen (Ende November 09) ;).

EDIT: Was gibt es denn jetzt wirklich auszusetzen an der 5670? Man bekommt sie, wenn auch teurer, mit 1GB CRAM, sie ist um 35% schneller als ihre zierliche Vorgängerin und kostet in Relation gesehen auch nicht mehr (sprich die Differenz zwischen dem 4670er Preis und dem 5670er Preis wird durch den Leistungszuwachs gerechtfertigt [find ich halt]), wobei der Preis noch sinken wird. Das einzig ungute ist der komische Referenzkühler, der wahrlich keinen Preis in einem Ästhetikbewerb gewinnen wird. Aber etwa mit einem AC-Kühler drauf ist dies gute Stück Technik in seinem Bereich momentan eine Art Nonplusultra (wenn der Preis noch ein bisschen nachlässt, auf jeden Fall).
 
Zuletzt bearbeitet:
aspro schrieb:
Wieso mit der 9800 GT vergleichen
Wegen dem gleichen Preis.

milamber! schrieb:
Und was willst du mir mit der Existenz einer übertakteten 5670 nun sagen?
Das jegliches rumreiten auf der Ökowelle wegen 20W sinnbefreit ist.

milamber! schrieb:
Öhm, 1. hab ich den Lastverbrauch nur erwähnt, nicht auf die Goldwaage gelegt.
Ach so? Zudem war meine Aussage nicht alleine an dich gerichtet, wie man sehen kann.

milamber! schrieb:
Und die genannten Konfigurationen lagen - je nach Einsatzgebiet - zwischen 60 und 100€ über dem Vergleichssystem.
Wir reden hier aber von Komponenten und da passt die Relation schon.

milamber! schrieb:
Könntest du dich vor dem Posten bitte nochmal versichern, es könnte sonst peinlich werden.
Dito. :rolleyes: Beide Karten werden munter bei geizhals als lieferbar angezeigt obwohl sie es nicht sind (waren).

milamber! schrieb:
Nein, nicht der Preis.
Ach, ansonsten ist der Preis der heilige Gral aller erlaubten Vergleiche. Verstehe einer die Boardies hier. :freak:

milamber! schrieb:
Völlig egal ob die noch auf 55nm gebaut wird, was hat das mit einer unverhältnismäßigen Leistungsaufnahme zu tun?
Das alleine mit einem Shrink sowieso eine Verbessung der Effizienz zu erwarten ist. Der Rest ist doch auch so in Ordnung. Einen Vergleich zur 4670 habe ich ja nie gemacht.

milamber! schrieb:
Nochmal, nach meinem Wissensstand sind die Encoder fürn Popo, ausser um iPod Videos runter zu rechnen. Und was ist DC?
Die funktionieren tadellos. Und DC ist distributed computing, eine feine Sache sinnlose PC-Leistung einer gemeinnützigen Sache zugänglich zu machen.

milamber! schrieb:
Das ist kein Marketing gag, ganz im Gegenteil. Es ist nur für die meisten Privaten noch mit einer höheren Invesetition verbunden.
Ja, es steht was drauf, was ohne richtig viel Geld nicht funktioniert. Rechtlich ist dies fast Betrug und im Handel zumindest unlauterer Wettbewerb. Das muss nicht sein...

milamber! schrieb:
Und du baust Rechner zusammen?
Nein, nur zum Spass. Und Ende 2006 gab es noch keine große Auswahl an EPS-Netzteilen MIT Kabelmanagement, die auch PCIe unterstützen. Aber der Experte wird es sicherlich schon besser wissen. :rolleyes:

Es ist aber schon witzig, wie langweilig es bei dir zugehen muss, so viel Zeit für ein nunmehr wirklich durchgekautes Thema zu investieren. Dabei hatte ich ursprünglich nur gesagt, dass der Preis noch fallen muss und ein gescheiter Lüfter drauf muss, damit die Karte eine Daseinberechtigung hat. Zugegebenerweise ist die Aussage zur "Unspielbarkeit" vielleicht überzogen (mein Fehler), aber davon abgesehen ist es doch nun gut.
 
Ehrlich gesagt würde mir kein vernünftiger Grund einfallen eine 9800GT zu kaufen wenn ich 80 € zur Verfügung habe und zwischen 9800GT und 5670 wählen könnte.
Die HD5670 hat bei weitem mehr Features und die geringen Unterschiede der fps in einigen Games bei gewisser Auflösung sind eigentlich nur für Sch*** äh Benchmarkvergleiche interessant.
Warum das nun ein Rückschritt ist ... nun ja jedem seine Sichtweise, doch mich überzeugen deine Ausführungen nicht.

Wenn man nun noch berücksichtigt, dass die 9800gt aka 8800 gt im April 2007 zum Preis von 149$ in den Markt eingeführt wurde, also 50$ sprich 30% teurer, ist es nun wirklich keine Kunst zu wissen dass es nicht lange dauert bis der Preis von den 80 € runter rutscht.

Die Features, welche die HD5670 mit bringt sind rechtfertigen bei einigen Käufern sicherlich sogar einen höheren Preis:
  • keinen Zusatz Strom-Stecker
  • Eyefinity (bis zu 3 Monitore)
  • 1-Slot-Design
  • DX11
  • Hypermemory
  • GDDR5
 
Denahar schrieb:
Wegen dem gleichen Preis.
Der Preis wird sinken, wie bei jeder gerade auf den Markt gekommenen Karte.
 
Complication schrieb:
Ehrlich gesagt würde mir kein vernünftiger Grund einfallen eine 9800GT zu kaufen wenn ich 80 € zur Verfügung habe und zwischen 9800GT und 5670 wählen könnte.
Die HD5670 hat bei weitem mehr Features und die geringen Unterschiede der fps in einigen Games bei gewisser Auflösung sind eigentlich nur für Sch*** äh Benchmarkvergleiche interessant.
Warum das nun ein Rückschritt ist ... nun ja jedem seine Sichtweise, doch mich überzeugen deine Ausführungen nicht.

Selbstverständlich gibt es hier ein klaren Rückschritt. Seit 2 Jahren bewegen sich Singleslot-Karten immer noch im selben Leistungsbereich.

Complication schrieb:
Wenn man nun noch berücksichtigt, dass die 9800gt aka 8800 gt im April 2007 zum Preis von 149$ in den Markt eingeführt wurde, also 50$ sprich 30% teurer, ist es nun wirklich keine Kunst zu wissen dass es nicht lange dauert bis der Preis von den 80 € runter rutscht.

Man sollte die damaligen Preise nicht mit den von heute vergleichen. Alternativ kann man ja mal gleich starke Rechner von 2007 mit den von heute vergleichen.

Complication schrieb:
Die Features, welche die HD5670 mit bringt sind rechtfertigen bei einigen Käufern sicherlich sogar einen höheren Preis:
  • keinen Zusatz Strom-Stecker
  • Eyefinity (bis zu 3 Monitore)
  • 1-Slot-Design
  • DX11
  • Hypermemory
  • GDDR5

In allen Punkten für mich ein deutliches NEIN. Die Leistung ist einfach zu schlecht. Sollte ich was sparsames brauchen was mittelklassige Spiele gut darstellen kann, reicht die 4670 locker aus. Was mir fehlt ist eine Karte wie die 9600GT, nur doppelt so stark. Der Rest kann so bleiben.

P.S. Ich such ne schnelle Singleslot-Karte. Daher kann ich dieses Modell jetzt schon getrost abhaken.
ZITAT Böhse Onkelz: "Wieder mal ein Tag verschenkt..."
 
@Isarlokist: Wasserkühlung und eine HD5870 müsste in Single-Slot passen...

Greetz,
GHad
 
Weltenspinner schrieb:
Was bei Spielen
nicht viel nützt, weil sie im 5'er-Pack liegen und man sie gezielt nutzen müsste.
Deswegen werden Shader in Spielen aber nicht nicht vollständig genutzt. ATIs 4+1 Shader sind für Spiele geradezu optimal, da enorm viele Vec4 Operationen durchzuführen sind, wie Raum- (x,y,z,w) oder Farbtransformationen (a,r,g,b). Das Problem ist ein anderes. Zwischen Rechenleistung und Grafikleistung gibt es ein Unverhältnis. Bei ATI scheinbar grösser als bei nVidia.

suessi22 schrieb:
Marginal mehr verbrauchende 9800 GT.
Hab ich was verpasst?
Nein, hast du nicht. HT4U vermisst schon für die Green Edition etwa 50% mehr bei Spielen. Bei einer normalen GT 9800 sind es vermutlich irgendwas um 80-100% mehr. Jawohl, das nennt man wohl marginal. :freak:

riDDi schrieb:
So mancher Laptop idlet inkl. aller Peripherie bei weniger als 20W (meiner z.B. ~14W mit 50% Helligkeit).
Genau diese "Verbrauch ist egal"-Mentalität hat im Presscot und Multi-GPU-Grafikkarten gegipfelt, obwohl es offensichtlich auch anders gegangen wäre.
Wer jetzt jemanden, der auf den Stromverbrauch seines Rechner achtet verunglimpft, schneidet sich selbst ins Fleisch. Denn nur, wenn es Verbraucher gibt, die auf die Effizienz Wert legen, dann tun es auch die Hersteller.
Leistungsaufnahme != Energieeffizienz. Das sollte man dabei auch nicht unter den Tisch fallen lassen. Die Leistungsaufnahme ist lediglich einer von zwei entscheidenden Faktoren.

Isarlokist schrieb:
Selbstverständlich gibt es hier ein klaren Rückschritt. Seit 2 Jahren bewegen sich Singleslot-Karten immer noch im selben Leistungsbereich.
Und wo ist da der Rückschritt? Das ist, wenn überhaupt, maximal Stagnation. :rolleyes:
 
Denahar schrieb:
1. Das jegliches rumreiten auf der Ökowelle wegen 20W sinnbefreit ist.

2. Ach so? Zudem war meine Aussage nicht alleine an dich gerichtet, wie man sehen kann.

3. Wir reden hier aber von Komponenten und da passt die Relation schon.


4. Dito. :rolleyes: Beide Karten werden munter bei geizhals als lieferbar angezeigt obwohl sie es nicht sind (waren).

5. Ach, ansonsten ist der Preis der heilige Gral aller erlaubten Vergleiche. Verstehe einer die Boardies hier. :freak:

6. Das alleine mit einem Shrink sowieso eine Verbessung der Effizienz zu erwarten ist. Der Rest ist doch auch so in Ordnung. Einen Vergleich zur 4670 habe ich ja nie gemacht.

7. Die funktionieren tadellos. Und DC ist distributed computing, eine feine Sache sinnlose PC-Leistung einer gemeinnützigen Sache zugänglich zu machen.

8. Ja, es steht was drauf, was ohne richtig viel Geld nicht funktioniert. Rechtlich ist dies fast Betrug und im Handel zumindest unlauterer Wettbewerb. Das muss nicht sein...

9. Nein, nur zum Spass. Und Ende 2006 gab es noch keine große Auswahl an EPS-Netzteilen MIT Kabelmanagement, die auch PCIe unterstützen. Aber der Experte wird es sicherlich schon besser wissen. :rolleyes:

10. Es ist aber schon witzig, wie langweilig es bei dir zugehen muss, so viel Zeit für ein nunmehr wirklich durchgekautes Thema zu investieren. Dabei hatte ich ursprünglich nur gesagt, dass der Preis noch fallen muss und ein gescheiter Lüfter drauf muss, damit die Karte eine Daseinberechtigung hat. Zugegebenerweise ist die Aussage zur "Unspielbarkeit" vielleicht überzogen (mein Fehler), aber davon abgesehen ist es doch nun gut.

1. 20 Watt die man zum gleichen Preis dazu bekommt sind nicht Sinnbefreit. Das hat auch nichts mit Ökowelle zu tun - die 20/45 Watt gibts zum selben Preis gratis dazu, da muß nichts über Jahre amotisieren, mit jeder Stunde welche die Karte käuft, wird sie im Endeffekt günstiger für den Käufer.

2. Ja, und deine Aussagen sind immer noch falsch.

3. Hä? Hier gehts um eine Grafikkarte auf der einen, und CPU+Mainboard auf der anderen?!
Und wo ich 20/45 Watt bei der einen zum gleichen Preis spare, kauf ich mir auf der anderen nicht etwas, das selbst bei 24/7/365 2-3 Jahre bräuchte, um sich zu rechnen.

Also wirf mir nicht vor, ich würde meine "Argumentation verdrehen".

4. Natürlich waren sie das, und sind sie immer noch. Oder schaust du etwa in Östereich?

Von daher wiederhole ich mich nochmal: Deine ständige Behauptung, die 9800 GT wäre günstiger aber Lager zu kaufen, war falsch.

5. Hör auf mir meine Sätze aus dem Zusammenhang zu reißen, und im Sinn zu verdrehen.
Deine "Preisvergleiche" waren immer nur die Behauptung, die 9800 GT wäre günstiger.
Und deine Leistungsvergleiche die ständige Behauptung, die 5670 wäre ein Rückschritt in der Effizienz, weil das eine in 40nm und das andere in 55nm gefertigt ist.

Du hast in der ursprünglichen Aussage ganz was anderes geschrieben, was mit dem Preis überhaupt nichts zu tun hatte.

Wir können gerne Diskutieren, aber auf trollen hab ich keine Lust.

6. Ähm, bekomsmt du die Zusammenhänge überhaupt noch auf die Reihe?
Es ist doch vollkommen egal mit WELCHER Karte ich sie vergleiche?!
Die 5670 wurde zwar geshrinkt (was im Grunde aus nicht stimmt, es ist ja eine neue GPU), hat aber auch mehr Transistoren, mehr Shader und GDDR5 und Leistet 35% Mehr als ihr "Vorgänger" und andere Karten, und holt verglichen mit dem "Vorgänger" auf andere Karten auf.
Wo zum Teufel siehst du jetzt dein ständiges Effizienzproblem?!
Du kannst sie von mir aus gerne auch mit einer GT 240 vergleichen, die auch in 40nm gefertigt ist.

Hier hat sie bei etwa gleichem Verbrauch ~15% mehr Leistung - wie ineffizient >.<

7. Ja, sie "funktionieren", nur sind Ergebnis und Optionen mehr als dürftig.
Und welchen Vorteil der KUNDE von distributed computing hat, würde ich auch gerne Wissen - außer einer höheren Stromrechnung, ggf. veringerter Lebensdauer und noch nen Programm mehr im Speicher.
Ausserdem gibts GPGPU für z.B. Folding@Home auch mit ATI Karten. Komisch was?
601.gif


8. Öhm, was?! Was bitte ist das für nen Bullshit? Unlauterer Wettbewerb?
Hast du zu kalt geduscht?!

9. Ich hab keine Lust zu suchen, was es Ende 2006 für Netzteile mit benannten Features gab. Das ist aber auch dein Problem wenn du dir nen High-End Workstatino Board mit Xeons verbaust, den Schuh der total überdimensionierten Konfiguration musst du dir dann trotzdem anziehen. Vor allem, wenn du dann anderen solche Vorwürfe unter die Nase reibst.

10. Ach, jetzt auf einmal ist es gut? Weil jetzt auch mal wer auf die Behauptungen eingeht?
Warum so viel Text, wenn es nur um "gern günstigerer Preis, und besserer Lüfter" ging? Schaut mir doch etwas anders aus.
Und nein, mir ist nicht langweilig. Ich würd mir gern das ganze geschreibe sparen.
Aber das geht halt nur, wenn die Leute hier in den Foren nicht immer so viel falsches zeug daher schreiben würden. Da "muss" ich drauf eingehen.

Ohne wäre es mir echt bedeutend lieber.

Isarlokist schrieb:
Selbstverständlich gibt es hier ein klaren Rückschritt. Seit 2 Jahren bewegen sich Singleslot-Karten immer noch im selben Leistungsbereich.

Ach tun sie das? Eine 4850 leistet also nicht mehr als eine 88GT?
Und was haben die Slots mit dem Fortschritt zu tun?!

Isarlokist schrieb:
Man sollte die damaligen Preise nicht mit den von heute vergleichen. Alternativ kann man ja mal gleich starke Rechner von 2007 mit den von heute vergleichen.

Der damalige Preis wurde auch nur erwähnt, um zu verdeutlichen das die Preise sinken ... :rolleyes:

Isarlokist schrieb:
In allen Punkten für mich ein deutliches NEIN. Die Leistung ist einfach zu schlecht. Sollte ich was sparsames brauchen was mittelklassige Spiele gut darstellen kann, reicht die 4670 locker aus. Was mir fehlt ist eine Karte wie die 9600GT, nur doppelt so stark. Der Rest kann so bleiben.

Zu schlecht für was? Was erwartest du von einer Low-End / Midrange Karte? Das sie dir die Leistung einer GTX 280 für 80€ bietet? Wenn die 4670 ausreicht, reicht auch ne 4350 aus - man muss nur die Settings etwas runter drehen. Wer zum Teufel entscheidet was für den Kunden ausreicht? Du? Warum sollte nicht jemand für 30% mehr Leistung, 30% mehr Geld ausgeben wollen?

Isarlokist schrieb:
P.S. Ich such ne schnelle Singleslot-Karte. Daher kann ich dieses Modell jetzt schon getrost abhaken.

Dann kauf dir ne 4850 - wenn du 5870 Niveau im Single Slot erwartest, kannst du noch nen paar Jahre warten ...

Leute gibts :rolleyes:
 
Zuletzt bearbeitet:
Isarlokist schrieb:
Man sollte die damaligen Preise nicht mit den von heute vergleichen. Alternativ kann man ja mal gleich starke Rechner von 2007 mit den von heute vergleichen.

In allen Punkten für mich ein deutliches NEIN. Die Leistung ist einfach zu schlecht. Sollte ich was sparsames brauchen was mittelklassige Spiele gut darstellen kann, reicht die 4670 locker aus. Was mir fehlt ist eine Karte wie die 9600GT, nur doppelt so stark. Der Rest kann so bleiben.
Wenn man die Preise von damals vergleicht, dann sind 80 € heute weniger als 80 € damals. Also ist der Unterschied eher gravierender denn weniger. Ich habe die 2 Jahre Inflation einfach weggelassen ;)
Aber Irgendwie ist dir wohl der Zusammenhang zu meinem Beitrag entgangen ;)
Die Auflistung war lediglich ein Vergleich zur 9800GT und ein direkter Vergleich - wenn du grundsätzlich nicht so viel Geld bezahlen willst - ok dann musst du in anderen Preisklassen schauen.

Aber ich würde gerne wissen welche Grafikkarte du für 80 € derzeit als Kaufempfehlung sehen würdest, wenn nicht die HD5670 - stell dir einfach vor sie ist nicht für dich sondern ein Kumpel fragt dich welche Karte er kaufen soll und warum. Er hat max. 80 €?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben