AMD oder NVIDIA bei 8-10 Stunden mit 80% Idle

Horstie

Cadet 3rd Year
Registriert
Feb. 2014
Beiträge
46
Ich grüße Euch.;)

Ich kaufe mir die nächsten Tage einen neuen Rechner und benötige bei der Grafikkarte Hilfe von Euch Experten.
Und zwar schwanke ich zwischen Nvidia und AMD. Sprich ich weiß nicht welcher Hersteller für meinen Einsatzzweck der bessere ist.

Der Rechner wird 8-10 Stunden am Tag laufen. Davon aber zu 80% idlen.

Ich bin GM in einem MMO wo sporadisch mal Petitionen eintrudeln. Ich muss also erreichbar sein. Sprich der Rechner läuft 8-10 Stunden am Tag vor sich hin. Gleichzeitig soll der Rechner aber auch zum gelegentlichen Spielen herhalten. Was die Grafikkarte an Watt zieht, wenn Sie gefordert wird, ist mir relativ egal. Wichtig ist mir dagegen, dass die GK vor allem sparsam beim Idlen ist. Wenn ich also nicht am Rechner sitze oder aber nur meine Petitionen bearbeite usw. Auch kommt es vor, das ich mir wärend der Arbeit nebenbei ein Video ansehe oder ein wenig Office betreibe.

In die nähere Auswahl ist bis dato eine Nvidia GTX770 mit 4GB und eine preislich ähnlich angesiedelte AMD 280X mit 3GB gekommen. Die sollten beide von der Leistung dicke ausreichen für gelegentliches Spielen.
Welche dieser Karten ist nun für oben genannte Aufgaben besser geeignet.

Ich meine gehört zu haben das AMD ein sogenanntes ZeroCorePower besitzt das im Idle den Stromverbrauch reduzieren soll? Besitzt die NVIDIA Karte ähnliches?
Wie ist im Allgemeinen der Stromverbrauch beim Office/Video schauen der beiden Karten? Macht es einen großen Unterschied im Stromverbrauch wenn ich z.b einen zweiten Monitor dranghänge?
Auch würde mich brennend interessieren ob man das auch irgendwie mit der Onboard GPU der CPU im Einklang bringen kann. Eigentlich wollte ich mir einen Preiswerten Xeon für den Rechner kaufen. Aber der hat ja keine Integrierte GPU. Wenn ich mir nun einen i5 oder i7 besorge kann ich den Rechner dann auch beim Idle/Office/Video über die sparsame GPU der CPU laufen lassen und die Installierte GK springt dann nur an wenn Leistung benötigt wird. Geht so etwas überhaupt?

Wenn ja braucht man dann zwei Strippen zum Monitor oder geht das Signal der OnBoard dann über die Installierte GK?

Ich bedanke mich für Eure Hilfe
Horst
 
Hier ist mal ein kleiner Test der X280. Da kannst du dir mal ansehen, wie es in deiner Situation aussehen könnte. Da kannst du beide Probanten miteinander vergleichen.

Das mit der iGPU ist so eine Sache. Es soll angeblich funktionieren, ich weiß allerdings nicht wie.
 
Alle Grafikkarten brauchen so ca. 10-20W idle (d.h. auf dem Windows Desktop). Derzeit braucht nvidia vielleicht 1-2W weniger.
AMD hat ein ZeroCore Feature welches den Stromverbrauch auf ca. 3W senkt wenn der Bildschirm aus ist.

In der Praxis ist es aber egal: beide sind stromsparend genug. 10W hin oder her wirst du einfach nicht merken. Kauf ein hocheffizientes Netzteil welches auch bei idle sehr effizient ist, da hast du bedeutend mehr davon.
 
Bei zwei Monitoren empfehle ich dir NVidia. Die brauchen dann ca. 20W weniger bzw. AMD verbraucht dann um einiges mehr.
 
1. Der Test wurde ja bereits verlinkt.
2. Ich selber habe eine GTX770 und bin sehr zufrieden mit ihr, was die Leistungsaufnahme betrifft... Bin generell immer ein Intel/nVidia-Kombinutzer!
3. Es gibt einen Xeon E3-1245v3, den ich besitze, der billiger als der i7 ist und eine interne Graka besitzt, ich nutze diesen allerdings nur, weil ich 4 Monitore betreibe, von denen drei an der Internen des Xeon hängen, damit meine GTX770 nur einen berechnen muss, wenn ich mal spiele...

@marcelino:
ASUS hatte mal auf LucidVirtu, was genau für den Fall war, dass die dedizierte Graka erst eingeschaltet wird, wenn die Leistung benutzt wird, zB starten des Spiels...
Die Technik hat allerdings bis heute nicht richtig funktioniert. Anders bei nVidia Optimus in Laptops, die Technik funktioniert tadellos auf einem ThinkPad W520, da hängt das Display am Port der internen Grafikkarte und bei Bedarf schaltet die Quadro zu...
 
Zuletzt bearbeitet:
die niedrigste Leistungsaufnahme wirst du haben wenn du die igp nutzt und bei Bedarf dann wenn gespielt werden soll mit Neustart und BIOS Umstellung auf die dedizierte switchst.
Wenn man allerdings realisiert dass der Unterschied in fast jedem Szenario (ausser Last natürlich) nur ca 15-20W sind ist es fraglich obs der Aufwand wert ist
bei 10h Betrieb am Tag und 15-20W Unterschied= 0,15-0,2kWh am Tag, 4,5-6kWh/Monat ~1,20€-2€/Monat je nach Anbieter... naja kann man machen, muss man nicht

da muss ich immer über nen Freund von mir lachen der ganz stolz auf seine 60W idle ist und neben dem Schreibtisch nen 150W Halogendeckenfluter stehn hat ^^
 
Zuletzt bearbeitet:
Nicht zu vergessen der zusätzliche Strombedarf beim Neustart!

Wie meine Mum: Bücken und den Fernseher austöpseln, weil er im Standby-By 0.3W verbraucht, aber in der Wohnung alle Lampen an haben xD
 
Erst einmal vielen Dank für das Feedback.:schluck:

Schade dass es nicht so problemlos funktioniert wie mit meinem Notebook. Der schaltet je nach geforderter Leistung von der iGPU auf die Nvidia Karte.

Der Rechner meines Bruders hat einen Xeon E3-1260L, 16GB RAM, AMD 7950 und eine große SSD eingebaut und kommt laut meinem Messgerät auf einen Idle von 42Watt was ich nicht schlecht finde. Denke bei Haswell und einer aktuellen GK müsste da doch noch ein wenig mehr gehen.

Mein MacMini (Late 2012 - die Standard Ausführung bis auf eine SSD) verbraucht wärend ich diesen Text schreibe keine 12Watt.:D

Bin schon am Überlegen ob ich nicht für die Arbeit den Mac behalte und lediglich wenn ich mehr Leistung benötige auf den PC wechsle. Ist eventuell die bessere Alternative. Ich wollte halt gerne nur ein System haben um das Ganze ein wenig zu vereinfachen.

Versteht mich bitte nicht falsch, ich bin kein Strom-Öko. Aber da der Rechner halt bei mir wirklich so gut wie den ganzen Tag läuft, summiert sich das schon mit dem Stromverbrauch aufs Jahr gerechnet.

Grüße
Horst
 
Ähm... bei mir läuft der in der Signatur stehende Server immer - 24 h/Tag und der verbraucht wegen der vielen HDDs im IDLE 75 Watt (die SAS-Platten sind keine Stromsparer)... das ist trotzdem vollkommen ok, was den Stromverbrauch im Jahr angeht... Also finde ich sollte ein 50 Watt PC im IDLE (wie der deines Bruders) ruhig 8-10 h laufen können... das ist ne halbe KWh pro Tag = ~ 13 Cent , das entspricht ~ 48 €/Jahr!

Sonst geh auf den 1265Lv3, undervolte ihn, mit 8 oder 16 GB lowvoltage RAM und bau nur ne große SSD ein... Mit der Graka kommste dann auch auf die 40 Watt...
 
Zuletzt bearbeitet:
Ja wie gesagt, ich bin kein Strom-Öko aber man sollte das immer im Ganzen sehen. Nicht nur den einzelnen Verbraucher an sich. Alles summiert sich auch mit der Zeit.

Zur Geschichte: Ich hatte 2010/2011 noch einen Jahresverbrauch von fast 6000KW für den Haushalt.

Ich habe dann nach und nach neue Gerätschaften angeschafft.
Kühltruhe der Mutter geschenkt
Kühlschrank „C“ gehen „A+++“
Ablufttrockner gegen Wärmepumpentrockner
Geschirrspüler „C“ gegen „A++“
Plasma TV gegen LED TV
Normale Energiesparbirnen gegen LED Birnen
Alten PC gegen MacMini

Das Jahr 2013 habe ich einen Stromverbrauch von 2700KW beziffert.
Von dem gesparten Geld kann ich easy in den Urlaub fliegen oder andere schöne Dinge tun. Natürlich haben die „Neuanschaffungen“ auch viel Geld gekostet. Aber die werden sicher auch einige Jahre brav ihren Dienst verrichten zumal Strom sicher auch nicht billiger werden wird.

Den Xeon 1265Lv3 habe ich übrigens schon auf meiner Liste ;-)

Grüße
Horst
 
Ja schon,

ich hab mit den Geräten nen Stromverbrauch von unter 2000 kWh, glaub 1700 warens letztes Jahr...
Man kann aber auch alles übertreiben, ich hab auch die komplette Wohnung auf LED-Technik und alle Geräte neu.
 
Wenn du WIRKLICH Strom sparen willst, dann lass die idle-Arbeit ein Laptop oder Netbook errichten. Beide sind dafür ausgelegt. Verbrauchen maximal 10W im Idle, wenn du das richtige Teil hast.

Petition via Browser, nebenbei Office und Video schafft z.B. selbst das erste Netbook überhaupt (Asus EEE PC, welches auf 1Gig aufgerüstet werden müsste und bei der Arbeit ggf. auf 900Mhz via eeectools getaktet werden müsste)..

Gebraucht findest du passende Laptops ab 40€.

PS: Ich erinnere mich noch an alten PEntium1-Laptop mit DNTS-Display (Vorgänger von TFT). Da hat das ganze Display eingeschaltet zwischen 2 und 3 Watt verbraucht trotz 15" ^^
 
AMD hat das sogenannte Zero Core Feature, von welchen du ja auch schon gehört hast, dadurch sinkt der Stromverbrauch der Grafikeinheit auf 1- 2 W.
AMD hat Mantle, was bei kommenden Spielen für klare Mehrleistung sorgt.
AMD hat momentan mehr Spieletitel, welche sie sponsern, als Nvidia.

Nvidia hat Nvidia Shield, mit welchen man, vorausgesetzt der PC ist an, auf der Toilette spielen kann via Stream.
Nvidia hat PhysX, was erst mittels einer Extrakarte gescheit läuft, und nun auch vollends stirbt, da die PS4 ja nun keinen Nvidia Chip mehr hat.
 
@ 5.0 Original
Alter Schwede, willst Du die letzte Post nicht nochmal überdenken? Da ist ja alles zumindest teilweise falsch!

@ TE
Richtige Unterschiede gibt es bei Multimonitor-Betrieb! Wie schon gesagt wurde, bei 1 Monitor ist der Hersteller egal, da eher auf die Karte achten - bei 2 Monitoren nVidia nehmen, bei 3 oder mehr Monitoren wäre AMD die bessere Wahl!
 
Hallo und nochmals danke für das Feedback. :schluck:

Ja ich glaube durchaus das AMD aktuell die etwas bessere Karte für mich wäre.

Ich habe auch die verlinkten Tests gelesen und da stört mich bei AMD allerdings der Stromverbrauch beim Betrieb mit zwei Monitoren doch ein wenig. Ich habe hier zwei 27Zoll Dell Monitore wobei aktuell nur einer in Betrieb ist. Der zweite steht hier noch in seiner OVP. Aber den würde ich gerne irgendwie mit integrieren sobald mein neuer Schreibtisch kommt. Und bei Nvidia macht das laut den Test kaum einen Unterschied ob ein oder zwei Monitore. Bei AMD steigt die Stromaufnahme aber schon massiv an. Sprich wenn das genauso wie bei Nvidia wäre dann hätte ich meine Entscheidung schon pro AMD getroffen. So muss ich mir das nochmals genau überlegen. Schade allerdings das Nvidia nicht auch das sogenannte ZeroCorePower beherrscht.

@ Seby007 Der Tip mit dem Netbook ist nichts für mich. Da kann ich auch meinen MacMini behalten der auch nicht mehr als besagtes Netbook verbraucht aber durch seinen i5 sicher um einiges flotter unterwegs ist.


Grüße
Horst
 
Also die paar Watt die im Idle unterschiedlich sind, großartig umzurechnen auf €.... Glaub da haste mehr Stromverbrauch wenn du Sonntags mal einen Braten 4 Stunden im Ofen hast, als das was sich die beiden Grafikkarten pro Jahr im Idle geben..

Beispiel:

10Watt*10 Stunden am Tag=10Wh = 0,1 kWh *365 = 36,5 kWh*25ct/kWh =9,13 €.....

Kurzum, es ist sowas von egal.... alle modernen System brauchen im Idle fast keinen Saft mehr....
 
Zuletzt bearbeitet:
Da kann ich nicht widersprechen.... habs geändert... aber 9€ im Jahr machts ja trotzdem nicht wirklich! Zumal das ja auch die Worst-Case Rechnung ist...

Da bringt so ein angesprochendes hoch-effizientes Netzteil mehr!
 
Zuletzt bearbeitet:
Ja das macht sicher nichts stimme ich euch zu. ;)

Aber im Mehrmonitorbetrieb sind es dann schon 40Watt Unterschied zwischen AMD 280 und Nvidia 770.

Sprich ich werde mir nochmal gut überlegen ob ein zweiter Monitor Sinn macht und dementsprechend entscheiden.

Aber mit einer Nvidia 770 4GB kann man doch sicher auch problemlos alles Gängige spielen oder?


Grüße
Horst
 
Zurück
Oben