Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Was ich nicht ganz verstehe ist dass Nvidia für eine RTX 2080 650 Watt bei 8+6 Pin empfiehlt. Und für ne RTX 2070 550 Watt bei nur 8 pin. Und meine alte R9 390 hat 8+6 Pin, aber ich hab nur ein 500 Watt Netzteil (Effizienz Silber) und das System läuft superstabil, auch unter Last.
Gibt es da keinen Zusammenhang? Sind die CPU so viel stromfressender geworden oder woher kommt das?
Aus demselben Grund aus dem die meisten AMD-Karten weit jenseits ihrer wirklichen Möglichkeiten bei der Effizienz laufen. Man gibt mehr Spielraum und reduziert damit eine (rechtliche) Verantwortung/Belangbarkeit.
Die Netzteilangaben sind immer fürn Arsch. Man könnte eine 2080 mit einem 30W Celeron paaren, oder mit einem i9. Die Pin-Anschlüsse sagen nur, was innerhalb der Spezifikationen theoretisch gezogen werden darf. Bei 8+6 sind es 150+75+75=300. CPUs sind - HEDT ausgenommen - eher sparsamer geworden.
Das ist dann der durchschnittliche Spieleverbrauch. Wenn die Beide auf max. Takt laufen, was eher selten der Fall ist, nuckelt das System bis 400 Watt aus dem NT.
Ich habe die Kombie und die CPU ohne OC und Untervolten zieht bei Prime schon 180Watt.
Zu den NT Angaben der Hersteller kann ich nur soviel sagen, wer viel spielt der ist mit einem 650W NT ganz gut dran, denn da arbeiten die meisten Netzteile am Effizientesten (~50% Auslastung).
Dennoch reicht auch, wie in deinem Fall, ein NT mit nur 550W ohne Probleme.
Ewig her... aber irgendwie muss ich ja zu der Entscheidung gekommen sein.
Aber ja. Durch den vom Netzteil gelieferten Strom war ich halt stutzig geworden. Mag ja durchaus sein, dass die RTX 2080 aus dem gleichen angebotenen Strom sich mehr genehmigt, aber spätestens nachdem ich mich bei den anderen Karten umgesehen hatte, kam mir das komisch vor.