Test Test: 3 x Nvidia GeForce GTS 450

Lustiger Thread.
Die MSI Karte ist doch ganz okay. Wenn man sie geschenkt bekommt.

Aber die "Argumentation" von MaRV finde ich sehr sehr lustig! "Aber sie ist nunmal 1% schneller!!!!111elf"

Bis auf die GTX460 ist bei Fermi bis jetzt nur Bullshit vorgestellt werden. Die Diefläche ist für die gleiche Leistung sehr viel größer als bei AMD. nV wird immer in die größeren Chips reinbuttern müssen, um preislich zu den gleichschnellen AMDs in Konkurrenz zu bleiben. Um vom Stromverbrauch muss man ja gar nicht anfangen.
Aber am Ende stehen die ganzen Thermis sowieso auf verlohrenem Posten. Wenn Northern Islands dann irgendwann mal rauskommen sollte, sind alle Thermis hinfällig. In einem Jahr passiert im GPU Markt sehr viel - und AMD hat jetzt einfach 1 Jahr Vorsprung.

Und bevor jetzt einer anfängt ich bin AMD Fanboy:
Ich hab einen Bloomfield und eine GTX285 (sofort nach Release für 320€ gekauft) im PC. Schlimmer gehts ja wohl kaum. Wollte die Leistung und AMD bot leider nichts (Phenom II war noch nicht draußen). Die GTX285 hatte ja auch irgendwo noch einen realistischen Bezug Stromverbrauch/Leistung. Thermis ist einfach viel zu hungrig.
 
@ Marv: kannst sagen, was du willst...
die 3 GTX haben im Schnitt 10% mehr Energieverbrauch, als eine HD5770 und nichtmal die schnellste liegt mit ihr gleichauf.
Das passst einfach nicht. Dazu kommt, dass man die HD5770 (1GB) auch für gut 125€ bekommt und somit sogar billiger ist.
 
Hurrycane schrieb:
@ Marv: kannst sagen, was du willst...
die 3 GTX haben im Schnitt 10% mehr Energieverbrauch, als eine HD5770 und nichtmal die schnellste liegt mit ihr gleichauf.
Das passst einfach nicht. Dazu kommt, dass man die HD5770 (1GB) auch für gut 125€ bekommt und somit sogar billiger ist.

Das streite ich auch nicht ab, nVidia Karten fressen im Gegensatz zur Konkurrenz deutlich mehr Strom, aber man sollte eine GTS 450 nicht mit einer HD5770 vergleichen, man zielt auf die HD5750 und mit dieser muss man sie messen, das sollte man allerdings nicht mit den OC GTS 450 tun. Das die 5770 billiger ist als eine GTS450 stimmt nicht, die GTS 450 kostet ca. 104€, wurde hier aber schon von anderen geschrieben. Wie dem auch sei, die GTS 450 ist bis auf den höheren Lastverbrauch absolut Konkurrenzfähig zur HD5750 und sollte daher nicht pauschal als Schrott bezeichnet werden. Mehr wollte ich mit meinen vielen Posts nicht zum Ausdruck bringen.
 
Dr. MaRV schrieb:
Wie dem auch sei, die GTS 450 ist bis auf den höheren Lastverbrauch absolut Konkurrenzfähig zur HD5750
Der stromverbrauch ist hier aber nun mal ausschlaggebend. Die GTS450 verbraucht etwa 40% mehr, obwohl die HD5750 und GTS450 ungefähr gleich schnell sind.

Dr. MaRV schrieb:
und sollte daher nicht pauschal als Schrott bezeichnet werden.
Die Karte ist nicht Schrott, allerdings verbraucht sie etwa 40% mehr als eine HD5750. Ansonsten sind die Karten von der Leistung her gesehen absolut gleich. Auch wenn die GTS450 in einem Punkt (hier deutlich) schlechter ist, kann man beim besten Willen nicht sagen, dass sie genauso gut wie eine HD5750 ist. So leid es mir auch tut, das ist einfach nicht möglich.
 
Ich habe zwar keine persönlichen Erfahrungen mit der 5750, allerdings seit einer Woche eine GTS 450 im HTPC, die ich vorher natürlich ausführlich ausgiebig im "großen" PC getestet habe.
Fazit:
  • die Karte ist extrem leise, die leiseste in meinem PC seit der GeForce 6800 GT (mit Arctic Kühler ab Werk) vor vielen Jahren
  • die Leistung ist für einen HTPC mehr als ausreichend, die Bildqualität am HDMI hervorragend
  • auf das Taktniveau der 3 getesteten Karten gehoben, hatte ich bessere Ergebnisse, als CB, zudem lassen sich faktisch alle GTS 450 deutlich weiter übertakten, keine Ahnung, was CB da angestellt hat
  • CUDA bring auch im Privat bereich etwas, z.B., wenn man sich für die vielen Distributed Computing Projekte interessiert, in Folding@Home zeigt die Karte, was in ihr steckt, die HD 5870 weist sie da deutlich in die Schranken (selbst 2! parallel laufende Clients auf je einer meiner beiden Karten kamen gerade mal so an die Leistung der GTS)
  • Verbrauch geht auch in Ordnung, das Gesamtsystem verbraucht bei identischer Last (ruhender Desktop, Folding@Home GPU Client) gerade mal 12W mehr, als mit der alten Karte (GeForce 9800 GT) bei deutlich höherer Leistung
Also durchaus in ihrer Preisklasse empfehlenswert.
[F]L4SH schrieb:
Bis auf die GTX460 ist bei Fermi bis jetzt nur Bullshit vorgestellt werden.
Der übliche Bullshit fehlt natürlich auch in diesem Thread nicht.
 
Wie weit lassen sie sich dann takten?
Mehr als 900mhz kann ich mir beim besten Willen nicht vorstellen.
Folding @ Home ist nun wirklich kein Indikator.
Allerdings hat frankpr sicherlich recht.
Eine gute Karte und absolut ebenbürtig zur HD57501GB.
Für welche Karte man sich entscheidet hängt von der eigenen Präfernez ab.
 
Schaffe89 schrieb:
Eine gute Karte und absolut ebenbürtig zur HD57501GB.
Für welche Karte man sich entscheidet hängt von der eigenen Präfernez ab.

Dir ist wohl nicht klar, dass die GTS450 40% (34W) mehr verbraucht, oder?
 
Fuzi0n schrieb:
Dir ist wohl nicht klar, dass die GTS450 40% (34W) mehr verbraucht, oder?

Nicht jeder Computernutzer stört sich an den 34W, das macht bei 30h Vollastdauerbetrieb 19 ct. . Manche möchten eben für wenig Geld Physx und Cuda haben und gerade als günstige PhysX Karte ist die GTS 450 zu gebrauchen. Der Name nVidia (GeForce) ist eine starke Marke, stärker als AMD oder ATI, besonders im OEM Bereich wird die Karte Zuspruch finden und besonders bei den etwas weniger versierten oder informierten PC Käufern als ein Kaufgrund dienen. Den Verbrauch als alleinigen Grund zu nennen um die Karte schlecht zu reden ist schwach, auch wenn es ohne Zweifel einen gravierenden Makel an der sonst sehr guten GTS 450 darstellt. Wer hauptsächlich Office Anwendungen ausführt, bei denen es auf komplexe 3d Darstellungen nicht ankommt, ist mit dieser Karte ebenfalls sehr gut bedient, da sie hier weniger als eine 5750/5770 verbraucht. Ich sehe das so, wer sich einen PC für ein paar hundert oder im HighEnd Bereich für ein paar tausend Euro zusammenbaut und dann über den Stromverbrauch jammert, das man sich selbigen nicht leisten kann, oder er zu hoch ist, ist wirklich arm. Das ist wie mit einigen iPhone Nutzern, ein Handy für knappe 1000 Euro kaufen und dann 99ct. für ne App geizen.
 
Zuletzt bearbeitet:
Ich kann dieses Geschwätz "der Stromverbrauch ist egal" nicht mehr hören.

Die Karte ist einfach zu teuer, dafür dass sie 34W (also 40%) mehr verbraucht. Beide Karten kosten mittlerweile um die 105 bis 110€. Wenn man 2 Stunden täglich zockt:

2h * 34W * 365 = 24820Wh ~ 25kWh

Eine Kilowattstunde kostet um die 0,19€, also wenn man die GTS450 kauft und täglich 2 Stunden damit zockt, müsste man jährlich zusätzlich 4,75€ für Strom ausgeben. Wenn man die Karte 2 Jahre behält, dann kostet sie durch diese versteckten Unkosten keine 105, sondern 114,50€. Also knappp 10 Euro mehr, nur damit man das Nvidia Logo aufs Gehäuse kleben kann.

Und noch eine Rechnung: Falls 100.000 Menschen sich entscheiden statt der HD5750 eine GTS450 zu kaufen, und diese im Schnitt 2 Stunden täglich spielen, so kommt man auf 2.500.000 kWh zusätzlich. Das sind unglaubliche 2,5GWh, ja Gigawattstunden.
Um 2,5GWh bereitstellen zu können, müsste ein modernes Kohlekraftwerk ca. 4,5 Stunden befeuert werden.

Also überdenke deine Aussage, dass der Stromverbrauch egal ist. Wie du hier deutlich sehen kannst ist das eben ganz und gar nicht egal.
 
Zuletzt bearbeitet:
Das mag sein, aber solange ein PC Hersteller durch das nVidia Logo auf seinem Gehäuse mehr Gewinn erwirtschaftet als mit einem Radeon Logo, wirst auch du ihn nicht bekehren. Umweltschutz und Kapitalismus haben sich noch nie wirklich verstanden. Siehe Laufzeitverlängerung und steuerliche Absetzbarkeit der Brennelementesteuer. Fakt ist auch, das die Computernutzer welche ihren PC wirklich zum Spielen benutzen, keine GTS 450, sondern überwiegend Karten vom Kaliber GTX 470 oder HD5850 und aufwärts nutzen und diese Karten deutlich über den 105W einer GTS450 liegen, zudem spielen diese Leute dann auch keine 2h am Tag sondern im Schnitt Wahrscheinlich 4 oder 5h am Tag. Und nun lege den Verbrauch einer GTX470, GTX460 oder HD5850/5870 mit 4h Vollastzeit/Tag auf deine Rechnung, wie lang dein Kohlekraftwerk dafür laufen müsste. Von SLI oder CrossfireX System reden wir da noch gar nicht. Nimm es wie es ist, für mich spielt der Verbrauch beim Kauf einer Grafikkarte eine sehr untergeordnete Rolle und mit dieser Haltung bin ich nicht der einzigste auf der Welt. Oder was glaubst du wie Porsche gestern den höchsten Gewinn aller Zeiten vermelden konnte? Wenn ich das "Kleingeld" hätte, ich würde mir einen Veyron kaufen, bei Vollgas ist der 100 Liter Tank nach 11 Minuten leer, na und? Gut dieses Auto macht nur wenig aus in Sachen Umweltverschmutzung, aber Porsche, A8 und Co sind Autos die in Massen gefahren werden und an jeder Ecke zu sehen sind. Auch daran wirst du oder ich nichts ändern, solang man damit ordentlich Geld verdienen kann. Daher halte ich es für völlig sinnlos über solche Themen zu streiten.

Wenn du dich aufregst das ich angeblich OC Karten mit Referenzkarten vergleiche, was nicht stimmt, vergleich du bitte auch nur Referenz- mit Referenzdesign, auch wenn dies am Tatbestand des Mehrverbrauchs nur wenig ändert.

Zudem liegen die Referenzdesigns der HD5750 und GTS 450 "nur" 24 Watt und keine 34 Watt auseinander. Nachzulesen hier und hier. Beim Hardwarebeschleunigten BluRay Video ist die HD5750 die Karte welche hier 40% mehr Energie verbraucht.

Mir ist das egal, ich finde die GTS 450 OK, man bekommt ein Produkt das gut funktioniert, Extras wie CUDA und Physx an Bord hat und beim Stromverbrauch leider das nachsehen hat. Kein Produkt ist perfekt, bei den Radeon fehlt dafür eben PhysX und CUDA. Wie Schaffe es schon gesagt hat, es hängt von der eigenen Präferenz ab, für welches Produkt man sich entscheidet.
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Das mag sein, aber solange ein PC Hersteller durch das nVidia Logo auf seinem Gehäuse mehr Gewinn erwirtschaftet als mit einem Radeon Logo, wirst auch du ihn nicht bekehren.
Aha, und wieso verkaufen sich die AMD Karten besser?

Dr. MaRV schrieb:
Umweltschutz und Kapitalismus haben sich noch nie wirklich verstanden. Siehe Laufzeitverlängerung und steuerliche Absetzbarkeit der Brennelementesteuer. Fakt ist auch, das die Computernutzer welche ihren PC wirklich zum Spielen benutzen, keine GTS 450, sondern überwiegend Karten vom Kaliber GTX 470 oder HD5850 und aufwärts nutzen und diese Karten deutlich über den 105W einer GTS450 liegen,
Komisch, dass GTS450 und HD5750 überhaupt hergestellt werden, wenn man sie, wie du behauptest, nicht benötigt.

Dr. MaRV schrieb:
zudem spielen diese Leute dann auch keine 2h am Tag sondern im Schnitt Wahrscheinlich 4 oder 5h am Tag.
Wahrscheinlich, die 2h täglich war eine vorsichtige Schätzung.

Dr. MaRV schrieb:
Und nun lege den Verbrauch einer GTX470, GTX460 oder HD5850/5870 mit 4h Vollastzeit/Tag auf deine Rechnung, wie lang dein Kohlekraftwerk dafür laufen müsste. Von SLI oder CrossfireX System reden wir da noch gar nicht.
Viel. Aber ich bezog mich vorhin nur auf den Mehrverbrauch, Nvidia Karten verbrauchen halt mehr als AMD Karten (außer die GTX460 im Bereich von 140-200 €)

Dr. MaRV schrieb:
Nimm es wie es ist, für mich spielt der Verbrauch beim Kauf einer Grafikkarte eine sehr untergeordnete Rolle und mit dieser Haltung bin ich nicht der einzigste auf der Welt.
Ja leider. Manche Menschen scheißen eben auf die Umwelt und denke nicht an die Zunkunft unserer Kinder oder Kindeskinder. Das ist wirklich sehr traurig.

Dr. MaRV schrieb:
Oder was glaubst du wie Porsche gestern den höchsten Gewinn aller Zeiten vermelden konnte?
Weil die Autos toll sind. Wenn der grüne Porsche aber mehr verbraucht als der rote, obwohl sie gleich schnell sind, dann nehme ich natürlich den Roten.

Dr. MaRV schrieb:
Wenn ich das "Kleingeld" hätte, ich würde mir einen Veyron kaufen, bei Vollgas ist der 100 Liter Tank nach 11 Minuten leer, na und?
Wäre ein schönes Spielzeug. Aber hier würde auch lieber trotzdem den roten nehmen, wenn er genauso schnell ist aber weniger verbraucht.

Dr. MaRV schrieb:
Gut dieses Auto macht nur wenig aus in Sachen Umweltverschmutzung, aber Porsche, A8 und Co sind Autos die in Massen gefahren werden und an jeder Ecke zu sehen sind. Auch daran wirst du oder ich nichts ändern, solang man damit ordentlich Geld verdienen kann. Daher halte ich es für völlig sinnlos über solche Themen zu streiten.
Ich habe nicht gesagt, dass wir wieder auf die Bäume klettern müssen um die Umwelt zu retten. Auch ich werde nicht auf meinen Rechner oder Auto verzichten. Aber wenn es geht, werde ich selbstverständlich versuchen den Verbrauch zu minimieren. Das verschont die Umwelt um mein Geldbeutel.

Dr. MaRV schrieb:
Wenn du dich aufregst das ich angeblich OC Karten mit Referenzkarten vergleiche, was nicht stimmt,
Habe ich nie behauptet.

Dr. MaRV schrieb:
vergleich du bitte auch nur Referenz- mit Referenzdesign
Habe ich doch gemacht... :lol:

Dr. MaRV schrieb:
Zudem liegen die Referenzdesigns der HD5750 und GTS 450 "nur" 24 Watt und keine 34 Watt auseinander.
Habe doch nochmal bei HT4U usw. geschaut. Ist doch immer um die 30-35%, wenn man die Referenzdesigns vergleicht. Ich frage mich wie du auf 24W Mehrverbrauch kommst.
Hier z.B. http://ht4u.net/reviews/2010/nvidia_geforce_gts_450_test_msi_cyclone_gigabyte_oc/index18.php

Dr. MaRV schrieb:
Beim Hardwarebeschleunigten BluRay Video ist die HD5750 die Karte welche hier 40% mehr Energie verbraucht.

Also, hier steht, dass die HD5750 beim bluray Video 3W (also 15%) mehr verbraucht.
http://ht4u.net/reviews/2010/nvidia_geforce_gts_450_test_msi_cyclone_gigabyte_oc/index19.php

Also, weil die HD5750 hier 3W mehr verbraucht, ist sie die schlechtere Karte. Alles klar. lol :)
Du musst bedenken, dass man mit der Grafikkarte nicht nur Videos schaut. Wenn ich nur blurays schauen möchte, dann würde ich mir eine Leistungschwächere GPU nehmen... ;)
http://ht4u.net/reviews/2010/amd_radeon_hd_5450/index14.php
 
Zuletzt bearbeitet:
Ich behaupte nicht das die Karte niemand braucht, aber die Leute, die Zocker, die du ansprichst, werden in den meisten Fällen keine GTS450 benutzen. Lies genau was ich schreibe, ich habe geschrieben, das die GTS 450 möglicherweise in OEM Rechnern, wie sie die großen Märkte für 499€ unter das Volk bringen sicher ihren Platz finden werden und sich dort aufgrund des bekannteren Markennamens evtl. besser verkaufen werden als eine Radeon.

Wie kommst du darauf das die Hersteller mit ATI mehr Geld verdienen? oder sich die Karten besser Verkaufen? Im Desktopsegment, wohlgemerkt nur da hat nVidia noch immer 10% Vorsprung (Q2/2010), im Mobilemarkt hat ATI 12% Vorsprung, was mit sicherheit der besseren Effizienz der Mobility Radeons geschuldet ist. Aber du wirst jetzt sicher gleich wieder eine andere Statistik aus dem Netz ziehen die deiner Religion besser entspricht. Ich streite es nicht ab, das im Gesamten Markt AMD zurzeit mit 2% vor nVidia liegt, aber weniger Geld verdient ein Händler deswegen trotzdem nicht mit nVidia.

Mir ist es egal, die GTS 450 ist in meinen Augen eine gute und brauchbare Karte, leise, schnell und sparsam (solang nicht gezockt wird), also ideal für einen HTPC, du musst und wirst sie nicht kaufen. Aber unterlasse es bitte bitte anderen die eine GeForce in Betracht ziehen oder ihr eigen nennen und mit dem Kauf nichts bereut haben, dein Rotes Weltbild vor zu halten oder sie als Fanboys zu bezichtigen. Außer dem Stromverbrauch kannst du bei ATI nämlich nichts besseres vorweisen, jeder weiß es du musst es nicht zum 1.232.334mal wiederholen, mir würden da gleich 3 schlechtere Sachen einfallen: fehlendes CUDA, fehlendes PhysX und schlechteres AF. Aber ich weiß, das ist alles unnütz und niemand braucht es und AMD hat eigene offene Sachen entwickelt, aber was bringen mir die wenn sie niemand unterstützen möchte? Über einen Mehrpreis von 4 oder 5 Euro muss man sich nicht streiten, so arm ist niemand der sich einen mehrere hundert Euro PC leisten kann.

/closed
 
Zuletzt bearbeitet:
Dr. MaRV schrieb:
Ich behaupte nicht das die Karte niemand braucht, aber die Leute, die Zocker, die du ansprichst, werden in den meisten Fällen keine GTS450 benutzen.
Doch. Die meisten Grafikkarten, die verkauft werden sind die aus der unteren Mittelklasse, also HD5750, HD5770, GTS450 usw.

Dr. MaRV schrieb:
Lies genau was ich schreibe, ich habe geschrieben, das die GTS 450 möglicherweise in OEM Rechnern, wie sie die großen Märkte für 499€ unter das Volk bringen sicher ihren Platz finden werden und sich dort aufgrund des bekannteren Markennamens evtl. besser verkaufen werden als eine Radeon.
Du hattest vorhin etwas anderes geschrieben. Aber gut, das mag wohl zustimmen. Leider kaufen viele ein Produkt, obwohl es schlechter ist, weil die Marke einen besseren Bekanntsheitgrad hat. Dennoch verkauft AMD momentan mehr Grafikkarten als Nvidia.

Dr. MaRV schrieb:
Wie kommst du darauf das die Hersteller mit ATI mehr Geld verdienen?
Habe ich nicht direkt gesagt, aber wenn mehr AMD Grafikkarten verkauft werden, so ist der Umsatz und Gewinn auch höher. Einfache Mathematik. Außerdem sind die Nvidia GPUs aufgrund ihrer Größer teurer in der Herstellung.

Dr. MaRV schrieb:
oder sich die Karten besser Verkaufen? Im Desktopsegment, wohlgemerkt nur da hat nVidia noch immer 10% Vorsprung (Q2/2010), im Mobilemarkt hat ATI 12% Vorsprung, was mit sicherheit der besseren Effizienz der Mobility Radeons geschuldet ist.
Google ist mein Freund. Außerdem lese ich regelmäßig die News.
http://www.softsailor.com/news/35394-ati-outruns-nvidia-with-51-share-on-the-discrete-graphics-cards-market.html

Dr. MaRV schrieb:
Aber du wirst jetzt sicher gleich wieder eine andere Statistik aus dem Netz ziehen die deiner Religion besser entspricht.
Brauche ich nicht. Im Netz ist überall zu finden, dass AMD vorne liegt.

Dr. MaRV schrieb:
Ich streite es nicht ab, das im Gesamten Markt AMD zurzeit mit 2% vor nVidia liegt, aber weniger Geld verdient ein Händler deswegen trotzdem nicht mit nVidia.
Ja, nicht unbedingt. Aber Nvidia wird mit Sicherheit weniger verdienen, da seine GPUs teurer in der Herstellung sind.


Dr. MaRV schrieb:
Mir ist es egal, die GTS 450 ist in meinen Augen eine gute und brauchbare Karte, leise, schnell und sparsam (solang nicht gezockt wird)
(solang nicht gezockt wird) Dem ist nichts hinzuzufügen. Klasse! :D

Dr. MaRV schrieb:
also ideal für einen HTPC,
Ein HTPC benötigt nicht die Leistung einer HD5750 oder GTS450.

Dr. MaRV schrieb:
du musst und wirst sie nicht kaufen.
Richtig.

Dr. MaRV schrieb:
Aber unterlasse es bitte bitte anderen die eine GeForce in Betracht ziehen oder ihr eigen nennen und mit dem Kauf nichts bereut haben, dein Rotes Weltbild vor zu halten oder sie als Fanboys zu bezichtigen.
Ich sage lediglich das, was ich denke. Schon mal was von Meinungsfreiheit gehört? Wer eine GTS450 kaufen möchte soll es auch meinetwegen tun. Ich möchte lediglich darauf hinweisen, dass die GTS450 mehr verbraucht und diese Aussage gefällt dir einfach nicht. Deshalb den Flamewar hier.

Dr. MaRV schrieb:
Außer dem Stromverbrauch kannst du bei ATI nämlich nichts besseres vorweisen,
Ist auch nicht nötig, die Karten sind sonst absolut gleich. Es sei denn, man ist auf GPU Physx oder Cuda angewiesen.

Dr. MaRV schrieb:
jeder weiß es du musst es nicht zum 1.232.334mal wiederholen
Ich wollte es nur einmal erwähnen, das gefiel dir aber nicht. Deshalb den Flamewar hier.

Dr. MaRV schrieb:
, mir würden da gleich 3 schlechtere Sachen einfallen: fehlendes CUDA, fehlendes PhysX und schlechteres AF. Aber ich weiß, das ist alles unnütz und niemand braucht es
Wer Cuda und Physx haben möchte, muss zu Nvidia greifen. Das habe ich nie abgestritten.

Dr. MaRV schrieb:
und AMD hat eigene offene Sachen entwickelt, aber was bringen mir die wenn sie niemand unterstützen möchte?
Wer sagt das? Wusste gar nicht, dass Bullet und OpenCL totgeburten sind. Adobe z.B. steht hinter OpenCL und Bullet mit DMM2 ist noch nicht fertig.

Dr. MaRV schrieb:
Über einen Mehrpreis von 4 oder 5 Euro muss man sich nicht streiten, so arm ist niemand der sich einen mehrere hundert Euro PC leisten kann.
Tja, manche zahle wohl 10 Euro mehr, damit sie das schöne Nvidia-Logo auf das Gehäuse kleben können. Und wer AMD, aus welchem Grund auch immer, hasst, soll dann meinetwegen auch zu Nvidia greifen.
Aber ich merke auch, dass du mein Post über den Stromverbrauch noch immer nicht verstanden hast... :o

Dr. MaRV schrieb:
Wäre mir auch lieber. :) Du schweifst einfach immer wieder vom Thema ab, weil du Nvidia irgendwie beschützen willst - ich habe aber nie gesagt, dass Nvidia eine scheiß Firma ist o.ä. Ich weise lediglich auf den höheren Stromverbrauch der GTS450 hin. Nvidia hat auch andere Produkte, die auch sehr gut sind. Die GTS450 gehört aber nicht dazu. Punkt. ;)
 
Schaffe89 schrieb:
Wie weit lassen sie sich dann takten?
Mehr als 900mhz kann ich mir beim besten Willen nicht vorstellen.
Nur ein Beispiel einer Karte @Stock Kühler und -Spannung: http://hwbot.org/community/submission/1057125_frankpr_aquamark_geforce_gts_450_282405_marks
Und ich habe noch ein mittelprächtiges Exemplar erwischt, 1000MHz sind keine Seltenheit.
Schaffe89 schrieb:
Folding @ Home ist nun wirklich kein Indikator.
Für mich schon, da ich es sowohl auf ATI, als auch auf Nvidia karten genutzt habe, unter Stream läuft FAH einfach lausig.
 
Zuletzt bearbeitet:
frankpr schrieb:
Für mich schon, da ich es sowohl auf ATI, als auch auf Nvidia karten genutzt habe, unter Stream läuft FAH einfach lausig.

Und genau das hat er auch gemeint. Das letzte was ich vom Folding@Home Client gehört habe, wäre der für AMD Grafikkarten immer noch nicht nativ bzw. auf diese Optimiert, und läuft daher unterirdisch.
Afaik soll es bei BOINC Anwendungen wie milkyway@home genau umgekehrt ablaufen, aber ich hab damit keine Erfahrung.
Wo Heutzutage die Hardware sparsam idlet ist mir Distributed Computing auf eigene Stromrechnung echt zu teuer.
 
Fuzi0n schrieb:
Aber ich merke auch, dass du mein Post über den Stromverbrauch noch immer nicht verstanden hast..

Im idle ist die GTS450 besser, siehe Test.
Wer nicht oft spielt, erreicht mit Sicherheit den gleichen Gesamtverbrauch, wobei wir hier eh schon bei Peanuts sind.
 
milamber! schrieb:
Afaik soll es bei BOINC Anwendungen wie milkyway@home genau umgekehrt ablaufen, aber ich hab damit keine Erfahrung.
Zumindest bei Seti@Home, ist ja auch ein BOINC Client, wird laut Dokumentation ausschließlich CUDA unterstützt, bei ATI Karten gibt es keine GPU Beschleunigung. Ausprobieren geht momentan nicht, die Server sind down.
Dem Anwender ist der Grund für die schlechte Performance letztendlich auch egal, ihn interessiert nur, was herauskommt. Nativ, also unter Stream, ist der Client schon gelaufen, anfangs mit Tricks, seit einer Weile in der aktuellen Revision auch ohne, aber eben schnarchlangsam, dafür haben die Karten ordentlich das Wasser aufgeheizt.
 
Zuletzt bearbeitet:
Ich weiss nicht welcher Client es war, jedoch war es bei einem dieser DCs genau umgekehrt und ansonsten afaik recht ausgeglichen. Mir ging es eher um die Formulierung, denn es liegt da eher am Client, als an der Karte. Das der Endeffekt der selbe ist, nämlich langsam, ist richtig. Nur ist die Ursache halt eine andere.
 
hm, hab gedacht das könnte eine alternative zu meiner gts250 werden, bin ich aber vom "4" vor der 50 etwas geblendet worden. für mich reiche karten in dem preissegment aus, solange mein 9 jahre alter 17" crt monitor noch seine arbeit verrichtet ^^
 
Ohne in die Discusion eingreifen zu wollen. Mir ist gestern meine 8800GT abgeraucht (nach 3 Jahren Dauerbetrieb, war sehr zufrieden mit der karte). Hab mir für 100€ ne GTS 450 gekauft und bin zufrieden ~~
Leise, top übertaktbar (ist ne pov) und alles läuft sehr gut. (hauptsächlich starcraft 2 und Heroes of newerth). Mit jeder anderen karte wäre mein E4300@3ghz eh überfordert :freak:
 
Zurück
Oben