Pc aufrüsten?

  • Ersteller Ersteller SileXSurf
  • Erstellt am Erstellt am
Casi030 schrieb:
Jap,ein Beispiel dazu damit es auch die ...verstehen:
Alien vs Predator Bench:Rund 195Watt
Idle 85Watt
Macht 110Watt
Meine Graka ist mit 127Watt angegeben,somit liefert der AMD sogar noch Strom...HA HA.
Das ist nur die Grafikkarte :rolleyes: Wer lesen kann...

Die Leistungsaufnahme der Grafikkarte bestimmen wir über einen, für diesen Zweck in unserem Labor modifizierten, PCI-Express-Adapter. Die ermittelten Werte entsprechen somit ausschließlich dem Verbrauch der Grafikkarte selbst und nicht der Leistungsaufnahme des Gesamtsystems.
 
das ist einfach ein zweites "L" nur halt klein "l" :) laut Test gibts (natürlichbei "missbrauch" also zu schlechten Einstellungen) starke Mikroruckler. Aber wenn man "normal" an die sache rangeht läufts? Was zockst den so?
 
@rille Wer den Sinn dahinter verstehen kann ist klar im Vorteil.
Das sind MEINE Messungen und für De....en die Verbrauchswerte MEINER GRAKA unter SPIELELAST bei HT4u um den VERBRAUCH der CPU grob ermitteln zu können.
Ergänzung ()

Ach Sche...ein kleines L wars :D
Ergänzung ()

Ist auch noch im Test,viele Möglichkeiten......Aktuell zocken die W meist NFS World(Familien Rennen...);)

Die min FPS müssen leicht höher sein aber sonst hab ich das gleiche W-Lan ruckeln wie mit Singel Graka.
 
Zuletzt bearbeitet:
Casi030 schrieb:
@rille Wer den Sinn dahinter verstehen kann ist klar im Vorteil.
Das sind MEINE Messungen und für Deppen die Verbrauchswerte MEINER GRAKA unter SPIELELAST bei HT4u um den VERBRAUCH der CPU grob ermitteln zu können.
Diese Milchmädchenrechnung verstehe ich Depp wirklich nicht. Deine Grafikkarte braucht also bei jedem Spiel gleich viel?

Machen wir es doch mal einfach: Wir haben zwei CPUs zur Auswahl, A und B. Beide kosten ungefähr gleich viel. Bei Spielen ist CPU A etwas schneller, CPU B lässt sich aber durch Übertakten auf ungefähr die gleiche Leistung bringen, womit man aber die Garantie verliert und mehr Strom braucht. Übertakten geht bei CPU A nicht. Im Leerlauf brauchen beide gleich viel Leistung, bei Voll-Last braucht CPU B deutlich mehr. CPU A hat noch einen Grafikchip dabei, den man z.B. für den Zweitmonitor nutzen kann und damit die Grafikkarte nicht mehr im Zweischirmbetrieb hochtaktet. Das kann man bei CPU B durch den Kauf eines Mainboards mit im Chipsatz integrierter Grafik auch realisieren. Was nimmt man jetzt? Der einzige größere Unterschied ist die Leistungsaufnahme. Wenn man gerne mehr Wärme und Geräusch will, Geld für einen besseren Kühler ausgeben will oder den Hersteller von CPU B mehr mag, nimmt man natürlich CPU B. Vernünftiger wäre allerdings CPU A.
 
Ich dachte immer so lange man die Spannung nicht erhöht würde er auch nicht mehr verbrauchen. Stimmt das nicht?
 
@rille:
Bei 100% Auslastung kann ich bei Meiner Graka mit rund 10Watt +/- rechnen,mann muss nur wissen ob das Spiel die Graka auch zu 100% Auslastet.
Dein i3 verbraucht pro Kern rund 15Watt
Der etwas schlechtere FX 4100 (laut Test) verbraucht pro Kern 19Watt
Dein Spiel verwendet 2 Kerne.
Somit verbraucht der I3 30Watt und der FX 4100 38Watt.
Der FX 6100 kommt da pro Kern auf gerad mal 14Watt....
 
@Casi030:
Ein FX4100 verbraucht knapp das doppelte eines i3. (36 Watt vs. 77 Watt)
http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index7.php

Ein FX4100 hat keine 4 Kerne, sondern 2 Module, daher darf man nicht 19 Watt pro Kern rechnen da dies ein völlig falsches Bild vermittelt. Eher 38 Watt pro Modul gegen 18 Watt pro Kern + HT
 
Zurück
Oben