GTX 960, aber welche

Stardrink schrieb:
Da hat wohl jemand in Physik geschlafen....

Der Stromverbrauch hat nichts mit der Wärmeverlustleistung (TDP) zu tun.
Bedeutet, dass die Sapphire Karte auch nicht lauter ist, als eine 970, sondern sich so mittendrin sogar befindet.
Nebenbei hast du den Vorteil, dass du nicht, wie bei der 970, auf die aktuellsten Treiber angewiesen bist, da bei der 970 der Vram Verbrauch immer vom Treiber gelockt werden muss, ansonsten ruckelt der Spaß...

Außerdem ist auch eine Gehäusedämmung i.d.R. Schwachsinn, da die Lüfter, aufgrund der höheren Gehäusetemperaturen, welche durch die Dämmmatten entstehen, höher aufdrehen.

Echt krass, dass du solche Pille Palle Sachen nach 1250 Beiträgen nicht weißt...^^

PS.:
Sehr amüsant dass jemand Lautstärken und Temperaturen als Kriterium Nr. 1 erklärt, und andererseits eine NV 4XX mal gekauft hat.
Die war damals noch nicht beschnitten in ihrer Rohleistung, und hatte entsprechend wesentlich mehr Verbrauch, als eine vergleichbare AMD Karte.
Da sind die 40 W zwischen der 290 und der 970 ein ziemlicher Witz. ;)

Bei einem PC wird alles, was an elektrischer Leistung in den PC hineingeht in Wärme umgewandelt. Wie Dir Physikgenie sicherlich bewußt ist, kann Energie weder erzeugt noch vernichtet, sondern nur umgewandelt werden (Energieerhaltungssatz). CB misst in seinen Tests den Stromverbrauch des gesamten Systems unter Last. Alles, was an elektrischer Energie reingeht, wird in Wärmeenergie umgewandelt. Und diese Wärme muss wieder raus aus dem Gehäuse. Und bei der Energieaufnahme spricht der CB-Bericht https://www.computerbase.de/2015-05/17-grafikkarten-von-amd-und-nvidia-im-vergleich/7/ eine deutliche Sprache. Dort heißt es ua: "Unter Last zeigt sich dann die gute Effizienz der Maxwell-Grafikkarten. Während der Rechner mit der GeForce GTX 960 auf 198 Watt kommt, benötigt die vergleichbare Radeon R9 285 von AMD 282 Watt." Die 280x liegt bei 340 Watt, die 290 sogar bei 360 Watt. Diese Angaben beziehen sich auf die Versionen mit Standardtakt, Bei den OC-Modellen sieht es für AMD noch schlechter aus.

Im übrigen war ich an einer GTX 960 interessiert, nicht an einer GTX 970. Ich sehe auch nicht das Problem, einen aktuellen Treiber zu benutzen. Sofern ein neuerer Treiber gegenüber einem älteren Treiber bei den von mir gespielten Spielen Vorteile in der Leistung bringt, benutze ich ihn ohnehin. Treiber sind ja glücklicherweise kostenlos.

Was die Stromrechnung angeht; ich spiele ca. 500 Stunden Computer pro Jahr. Bei einem Verbrauchsunterschied von 80 Watt ergibt dies einen Unterschied von ca. 40 kWh pro Jahr. Die Kilowattstunde liegt bei ca. 0,25 Euro. Dies ergibt höhere Stromkosten von 10 Euro pro Jahr. Bei einer Nutzungszeit von 3 Jahren sind das 30 Euro.

Bezüglich der von mir gekauften GTX 460; bekannter Maßen war die GTX 460 was Lautstärke und Stromverbrauch anging erheblich besser als die GTX 470 oder gar 480 (https://www.computerbase.de/2010-07/test-nvidia-geforce-gtx-460/). Nicht umsonst erfreute sich die GTX 460 einer sehr hohen Beliebtheit. Eine GTX 480 hätte ich mir nie gekauft (zu laut, zu heiß, zu stromhungrig, zu teuer). Die GTX 460 war die insgesamt beste GraKa der ersten Fermigeneration und eine der wenigen GraKas, welche ein brauchbares Referenzdesign hatten. Nichtsdestotrotz ist mir die GTX 460 im Referenzdesign unter Last zu laut.

P.S.: Glücklicherweise haben meine Physikehrer meine Fähigkeiten in dem Bereich etwas positiver eingeschätzt. Ich hatte sogar das Wahlpflichtfach Physik.
 
Zuletzt bearbeitet:
Gute Ausführung MOS1509.

Das ist hier teilweise echt mühsam den Leuten, die dich eigentlich beraten sollen, noch Physik Grundlagenuntericht zu geben.

Einige Leute hier wie Flatan, glaubten oder glauben tatsächlich immer noch, dass wenn eine R9 280X Vapor Tri-X bei einer Temperaturmessung so gut abschneidet wie eine GTX 960, sie mindestens genauso kühl ist und kaum Hitze produziert.

Geil oder? :lol:

Dass auf der Vapor Tri-X dann ein 500W oder mehr TDP Extremkühler verbaut ist und auf den GTX 960er nur deutlich schwächere Kühler und abgespeckte Varianten mit teilweise nur einem Axial-Lüfter verbaut sind, das haben die überhaupt nicht auf den Plan.



VS




So und weil hier an den 140W gezweifelt wurde, die Beschreibung der Testmethodik von Computerbase.de

Leistungsaufnahme

Für die Leistungsaufnahme wird auf klassische Art und Weise mit dem Verbrauchsmesser (Voltcraft Energy Logger 4000) der Energiekonsum des gesamten Rechners gemessen. Um ein breiteres Anwendungsszenario zu veranschaulichen, wird zusätzlich zur Leistungsaufnahme im Desktop- und im Lastmodus (Ryse: Son of Rome) auch jene im Blu-ray- und im Multi-Monitor-Betrieb gemessen.

Bis jetzt hat ComputerBase die Leistungsaufnahme unter Last immer nur am Ende des gesetzten Zeitlimits von 30 Minuten gemessen. Aufgrund der dynamischen Taktraten bei modernen Grafikkarten und auch des Einflusses der Hitzeentwicklung auf den Energiehunger ist ein einzelner Messwert jedoch kaum noch akkurat.

Deswegen wird die Leistungsaufnahme des Testsystems nicht mehr nur einmal innerhalb der 30-minütigen Testsequenz gemessen, sondern gleich 30 Mal – einmal pro Minute. Der im Balkendiagramm angegebene Wert entspricht dem Durchschnittsverbrauch der 30 Messwerte. Darüber hinaus gibt es bei konkurrierenden Grafikkarten ein Verlaufsdiagramm, das den minütlichen Energiekonsum zeigt. Die Auflösung beträgt dabei 3.840 × 2.160 bei maximalen Details sowie aktiviertem SMAA.

Quelle: https://www.computerbase.de/2015-05...ren-testsystem/3/#abschnitt_leistungsaufnahme

Das nennt man Transparenz und nicht wie andere Seiten da irgendwas verschleiern und man rätseln muss wie und vorallem was sie für ein Spiel überhaupt testen.
 
Zuletzt bearbeitet:
MOS1509 schrieb:
Bei einem PC wird alles, was an elektrischer Leistung in den PC hineingeht in Wärme umgewandelt.

Nein nicht alles, Und bei einer aktuellen Gpu sind es ca. 95%:rolleyes:
 
Tja, wenn man sonst keine Probleme hat, muss man sie sich eben in Foren schaffen.

An deiner Stelle würde ich - wenn es eine GTX 960 sein soll - eine Version mit 2 GB RAM nehmen (für höhere Auflösungen als Full-HD ist sie ohnehin eher weniger zu gebrauchen) und Dann evtl. das Modell von Gigabyte oder MSI.
 
Zurück
Oben