Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Mehrzahl“ von Fermi-Grafikkarten in Q2/2010
- Ersteller Volker
- Erstellt am
- Zur News: „Mehrzahl“ von Fermi-Grafikkarten in Q2/2010
- Status
- Für weitere Antworten geschlossen.
JanEissfeldt
Ensign
- Registriert
- Jan. 2010
- Beiträge
- 229
Jupp, haste doch selber erst heute geschrieben.milamber! schrieb:Der Paperlaunch 5000er?
Stimmt!das ist dein Lieblingssmiley
Ja sehe ich eben auch so. Darum hofe ich ja eben auch, das NVIDIA es jetzt auch besser macht als Ati es verbockt hat.schade nur für amd die mit ihren 58xx auch nicht ausreichend aus der hüfte kommen und die krümel mit den 57xx - luftpumpen aufsammeln müssen. die dann eh zu langsam sind wenn dx11 irgendwann mal ins rollen kommt.
Häh? weißt du mehr schon über die verfüpgbarkeit?Ich fange gleich an zu lachen, du wirst auf deine Fermi noch die nächsten 4 Monate warten.
Laut der def von dem milamber-typen ist das schon eine Paperlaunch geschichte!@JanEissfeldt: erstens ist die News die du verlinkt hast verdammt alt. Zweitens hat CB dort wiedermal eine sehr unglückliche Überschrift gewählt. Denn es wurden Karten ausgeliefert. Und auch wenn es nur 1000 Stück waren ( waren aber wohl bestimmt mehr ), wurden sie dennoch ausgeliefert und somit kann es kein Paperlaunch mehr gewesen sein.
Ausserdem habe ich es ja eben selbst erlebt, auch die ganzen Leute im Bekanntenkreis! Es war und ist immernoch elendig schwer an eine ordentliche cypress ranzukommen. Mich kotzt owas schon an, daher hoffe ich eben, dass es bei Fermi besser wird.
Jaja, stimmt schon, aber dass kann noch lange dauern. Irgendwann muss man einfach zuschlagen, gerade wenn man sowieso schon lange auf bestellte WAre warten musste, weil die gar nicht lieferwar ist. Diesmal bitte kein paperlaunch und alle kriegen auch eine Karte ab!jo, kannst die dann auch wieder canceln, sobald du die karte 2 monate nach dem release immer noch nicht im im rechner hast, weill dann ja wieder ati zum gegeschlag ausholen könnte.
irgendwann muss man halt mal kaufen
rs4 schrieb:Ich bin gestern über diesen Artikel gestolpert:
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
Allein der Webseitenname ist schon etwas suspect, aber ein bisschen recht hat der Autor schon.
derschlambi schrieb:Um etwas Holz ins Feuer der Spekulationen zu werfen weise ich auf einen lustigen Artiekl auf Semiaccurate hin:
Nvidia's Fermi GTX480 is broken and unfixable
Interessanterweise wusste ich schon vor dem Anklicken der Links wer den Artikel geschrieben hat. Ich weiß nicht, ob das ein gutes Zeichen ist, aber wo Charlie seinen Anti-NVidia-Müll ablädt ist eigentlich auch egal.
Immerhin haben wir mit Schaffe89 ja einen von vielen Charlie-Fans hier im Forum, denen es eigentlich ziemlich egal ist, ob so eine Meldung richtig ist oder nicht; Hauptsache Anti-NVidia.
Ich habe kein Verständnis für dieses ganze Fanboy-Gehabe, aber im Gegensatz zu den meisten hier, bin ich auch über 16. Vielleicht liegt es daran.
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Schön dass du das eine verbessert hast - doch warum verwendest du nicht einfach Wörter die du kennst oder zumindest weisst was sie bedeuten sollen?JanEissfeldt schrieb:Na, die 5870 gibts ja immernoch nur in homopatischen Dosen. Selfowned
Laut der def von dem milamber-typen ist das schon eine Paperlaunch geschichte!![]()
Homöopathische Dosen
Nur wie vereinbart sich denn dein "Paperlaunch" (Definition: Gibt es nur auf dem Papier und existiert nicht real) mit über 1 Millionen verkauften Exemplaren der HD5xx Serie Stand Dezember 2009, und wie sind deine homöopathischen Dosen zu verstehen wenn mittlerweile über 2 Millionen HD5xx Karten verkauft wurden?
Du bist ein lustiges Kerlchen
ATI wirds mit der 6000er genauso machen!
Hoffe ich jedenfalls...
Sie sollten diese jetzt auch schön langsam für Ende November ankündigen (mit Megaleistungsdaten), auch wenn diese erst im Februar 2011 oder so erscheint. Würde mich interessieren, was Nvidia dazu zu sagen hätte. Es gibt sicher genug Leute, welche auf die 480er warten.
Hoffe ich jedenfalls...
Sie sollten diese jetzt auch schön langsam für Ende November ankündigen (mit Megaleistungsdaten), auch wenn diese erst im Februar 2011 oder so erscheint. Würde mich interessieren, was Nvidia dazu zu sagen hätte. Es gibt sicher genug Leute, welche auf die 480er warten.
Dafür bist du aber überraschend voreingenommen, unsachlich und subjektiv. Das Alter alleine muss also auch noch nicht viel sagen.FredKune schrieb:Ich habe kein Verständnis für dieses ganze Fanboy-Gehabe, aber im Gegensatz zu den meisten hier, bin ich auch über 16. Vielleicht liegt es daran.
Mittlerweile dürften es weit mehr sein. Die 2 Millionen stammen ja noch von Anfang Januar. Wer wirklich behauptet, die 5000er GPUs seien nicht wirklich verfügbar oder nur in homöopathischen Dosierungen zu bekommen, macht sich nur was vor und versucht sich nVidias derzeitiges Hinterherhinken schön zu reden. Wer eine 5000er Karte momentan will, bekommt auch eine. Wer eine Fermi Karte momentan will, bekommt keine. Und das wird auch noch mindestens 2-3 Monate so bleiben. Zumindest so viel sollten sich auch die hartgesottensten nVidia Anhänger eingestehen.Complication schrieb:Nur wie vereinbart sich denn dein "Paperlaunch" (Definition: Gibt es nur auf dem Papier und existiert nicht real) mit über 1 Millionen verkauften Exemplaren der HD5xx Serie Stand Dezember 2009, und wie sind deine homöopathischen Dosen zu verstehen wenn mittlerweile über 2 Millionen HD5xx Karten verkauft wurden?
Zuletzt bearbeitet:
S
Sp3cial Us3r
Gast
Jaja , jetzt werden wieder Schaffe 89 und z.b ICH und alle anderen die eine ATI Karte besitzen (den Grund mal ausgeblendet) als Anti-Nvidia hingestellt , wir haben echt nichts besseres zutun als darauf zu Warten das Nvidia laut Charlie untergeht und uns an den Horrenden Preisen von den HD5k Serie aufzugeilen ? Ich glaube ihr habt sie alle nicht mehr alle , kommt mal wieder auf den Boden der tatsachen . Hoffentlich kommt Fermi und bietet der HD5k Paroli dann gehen die Preise auch wieder auf ein erträgliches Niveau und ich kann meine HD4830 @1GHZ Chiptakt endlich Begraben weil lange hält sie das nicht mehr durch mal schauen was dann der HD5830 ihr Nvidia Pedant wird . Dann Schauen wo ich zugreife , Physix wollte ich schonmal in Aktion sehen 
Aber jetzt bin ich ja wieder der Böse Ati Fanboy für die nächsten Posts . Wie Futter fürn Bello dem Hund fürn Nachbar.
Spätestens morgen ist hier dicht weil hier mit Verbalen beleidigungen um sich geschmissen wird und man nur noch diesen Virtuellen hass gegen den Monitor aufbaut , unverständlich
Aber jetzt bin ich ja wieder der Böse Ati Fanboy für die nächsten Posts . Wie Futter fürn Bello dem Hund fürn Nachbar.
Spätestens morgen ist hier dicht weil hier mit Verbalen beleidigungen um sich geschmissen wird und man nur noch diesen Virtuellen hass gegen den Monitor aufbaut , unverständlich
Zuletzt bearbeitet:
MysWars
Lieutenant
- Registriert
- Dez. 2008
- Beiträge
- 860
Bitte?Henrico schrieb:Fakt ist nunmal, [...] bei Nvidia und die Hochleistungs Gamer Karten einfach mehr Strom fressen als die ATI Pendants
Sicher, die aktuelle 5er Reihe von ATI ist im Stromverbrauch ungeschlagen,
aber deine Verallgemeinerung ist schlicht übertrieben, nur weil es momentan so ist.
Als der Verlgeich zwischen der 4er Reihe und den GTX 200 anstand, war NVidia mit dem geringeren Stromverbrauch vorne.
Warum also reden alle hier Fermi wegen hohem Stromverbrauch schlecht? Woher habt ihr bitte Informationen über den Idle Stromverbrauch? Oo
Und die kann (theorethisch) auch trotz einem größeren Die geringer Ausfallen als bei den vergleichbaren ATIs,
war schließlich, so weit ich mich richtig erinnere, zwischen 48x0 und GTX 2x0 genauso.
Zuletzt bearbeitet:
S
Sp3cial Us3r
Gast
Nicht wirklich , nur die GDDR5 Karten waren im Idle Stromfressender bei ATI (HD4770/HD4860/HD4870/90) weil sie ihren Speicher nicht untertaktet bekommen haben und uns AMD weiterhin vertröstete " Mit dem nächsten Treiber wirds besser" Auch so ein Negativ Beispiel dieser Firma , ATI/AMD und Nvidia vetrösten uns keiner der beiden ist Moralisch einen Deut besser , es geht nur um Geld bei beiden Firmen
nazfalas
Lieutenant
- Registriert
- Feb. 2006
- Beiträge
- 571
derschlambi schrieb:Um etwas Holz ins Feuer der Spekulationen zu werfen weise ich auf einen lustigen Artiekl auf Semiaccurate hin:
Nvidia's Fermi GTX480 is broken and unfixable
Die Redaktion hält ihn für an den Haaren herbeigezogen, ich dagegen finde, dass der gute Mann einige wahre Worte spricht, auch wenn er vieleicht nicht alles mit Fakten belegen kann. Die nächsten Monate werden zeigen, wer Recht behält
EDIT: Mist, da war wieder einer schneller...
rs4 schrieb:Ich bin gestern über diesen Artikel gestolpert:
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
Allein der Webseitenname ist schon etwas suspect, aber ein bisschen recht hat der Autor schon. Also wird es Fermi wohl die ersten Monate nur in homöopathischen Mengen zu Mondpreisen geben und später dann ein neues Stepping. Da freuen sich bestimmt jetzt schon die ganze Marketingabteilung bei Nvidia, wie Sie das ausmerzen Ihrere Fehler als neue Errungenschaft präsentieren kann. Vielleicht gibts gleich einen Satz Umbenenungen.
Der Artikel lässt auf gute Nachforschung schließen und wirkt für mich als Laien auch nachvollziehbar.
Wäre natürlich ein harter Schlag für Nvidia, den sie sich aber widerum selbst zu verschulden haben.
MysWars
Lieutenant
- Registriert
- Dez. 2008
- Beiträge
- 860
Sp3cial Us3r schrieb:Nicht wirklich , nur die GDDR5 Karten waren im Idle Stromfressender bei ATI (HD4770/HD4860/HD4870/90) weil sie ihren Speicher nicht untertaktet bekommen haben und uns AMD weiterhin vertröstete " Mit dem nächsten Treiber wirds besser" Auch so ein Negativ Beispiel dieser Firma , ATI/AMD und Nvidia vetrösten uns keiner der beiden ist Moralisch einen Deut besser , es geht nur um Geld bei beiden Firmen
Na klar, aber es interessiert mich ja nicht ob es an dem nicht ordentlich funktionierendem Powerplay liegt oder an was anderem.
Das ist falsch. Kannst du zB bei HT4U nachlesen. Generell waren da die Unterschiede bei gleicher Performance nicht gravierend. Die Radeons waren trotzdem tendenziell etwas sparsamer. Lediglich unter Idle waren GeForces etwas besser. Hier konnte man aber zumindest manuell oder über ein BIOS Update des Herstellers die Radeons ähnlich sparsam bzw sogar sparsamer machen.MysWars schrieb:Sicher, die aktuelle 5er Reihe von ATI ist im Stromverbrauch ungeschlagen,
aber deine Verallgemeinerung ist schlicht übertrieben, nur weil es momentan so ist.
Als der Verlgeich zwischen der 4er Reihe und den GTX 200 anstand, war NVidia mit dem geringeren Stromverbrauch vorne.
Zuletzt bearbeitet:
H
Henrico
Gast
gruffi schrieb:Aber wer so emotional an eine Marke gebunden ist, dem vernebelt es halt schnell den Verstand und kausales Denken fällt zunehmend schwerer. Seien wir doch mal ehrlich, fast alle seine Infos zu Fermi in den letzten Monaten waren NICHT an den Haaren herbeigezogen und entsprachen der Wahrheit.
Sehr schön formuliert.Dem stimme ich in allen Belangen zu.Nur sollte man nicht alles glauben was im Netz steht.Da sieht man mal wieder wie leicht doch einige zu beeinflussen sind.
Leider definiert sich ein Großteil unserer Jugend inzwischen über Hardware und virtuellen .......vergleich.
Zugegeben,bis vor ein paar Jahren gehörte ich auch noch zu denjenigen die gebasht haben,nur wird man da im Alter wohl zwangsläufig vernünftiger
Viele sind einfach nicht sehr lange mit dem zufrieden was sie haben.Es muss immer was neues her.Dieses Verhalten ist in meinen Augen schon eine Krankheit.Bei mir war es so das die Freude über ein neu erworbenes Hardware Produkt nicht sehr lange währte.Vieleicht wahren meine Erwartungen zu hoch.Mittlerweile vertrete ich die Meinung,das ich mir für mein System erst dann was neues kaufe,wenn etwas kaputt geht.Und wenns meinem Geldbeutel nicht allzu schlecht geht kommt vieleicht mal ein kleines Extra dazu.
Greetz!
S
Sp3cial Us3r
Gast
Naja im nahinein war es kein nicht Funktionierndes Powerplay , sondern an dem Controller im RV770/90 . GDDR3 Karten war Sparsam und hielten mit den GT200 Karten gut mit 
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
Zu Charly, bzw Semiaccurate: Die Skeptiker können sich gerne mal auf der Seite bis zurück zum August letzten Jahres durcharbeiten, bin mal gespannt wieviele Lügen man dort findet. Und danach bitte zum Vergleich die Meldungen von NVidia in diesem Zeitraum. Mehr sag ich dazu nicht. Ich weiß, wem ich momentan eher glauben kann.
Zum Thema NVidia und der Untergang: Ich denke mal, KEINER WILL, dass NVidia untergeht aus den bisher genannten Gründen. Was ich aber möchte, ist dass NVidia sich hinstellt und endlich mal sagt, was wirklich Sache ist anstatt am Laufenden Band Kunden zu verarschen und überzogene Erwartungen zu wecken.
Und das würde ich auch von jeder anderen Firma erwarten. Ein gutes Beispiel gerade im Grafikbereich ist Intel. Die haben Larabee offiziell zurückgezogen und basta. Warum muss dann NVidia die Kunden hinhalten, belügen und mit umbenannten Produkten hinhalten/verarschen? Bei keiner anderen Firma könnte das durchgehen, aber NVidia darf das? Bitte wacht mal auf. Das hat nicht das Geringste mit Fanboy für X/Y zu tun.
Und um die Verkaufszahlen von ATI mal bisschen zu relativieren: Die 2 Millionen GPUs waren allesamt High-End Karten, obwohl im Mainstreambereich viel mehr Karten verkauft werden. Von daher kann man erwarten, dass der eigentliche Run noch los geht, bzw. gerade statt findet.
Und wieso ist es nochmal okay, wenn eine Grafikkarte bei gleicher Leistung mehr verbraucht (abgesehen von Exklusiv-Features)? Nur weil sie von einem bestimmten Hersteller ist? Verstehe ich nicht.
Greetz,
GHad
Zum Thema NVidia und der Untergang: Ich denke mal, KEINER WILL, dass NVidia untergeht aus den bisher genannten Gründen. Was ich aber möchte, ist dass NVidia sich hinstellt und endlich mal sagt, was wirklich Sache ist anstatt am Laufenden Band Kunden zu verarschen und überzogene Erwartungen zu wecken.
Und das würde ich auch von jeder anderen Firma erwarten. Ein gutes Beispiel gerade im Grafikbereich ist Intel. Die haben Larabee offiziell zurückgezogen und basta. Warum muss dann NVidia die Kunden hinhalten, belügen und mit umbenannten Produkten hinhalten/verarschen? Bei keiner anderen Firma könnte das durchgehen, aber NVidia darf das? Bitte wacht mal auf. Das hat nicht das Geringste mit Fanboy für X/Y zu tun.
Und um die Verkaufszahlen von ATI mal bisschen zu relativieren: Die 2 Millionen GPUs waren allesamt High-End Karten, obwohl im Mainstreambereich viel mehr Karten verkauft werden. Von daher kann man erwarten, dass der eigentliche Run noch los geht, bzw. gerade statt findet.
Und wieso ist es nochmal okay, wenn eine Grafikkarte bei gleicher Leistung mehr verbraucht (abgesehen von Exklusiv-Features)? Nur weil sie von einem bestimmten Hersteller ist? Verstehe ich nicht.
Greetz,
GHad
MysWars
Lieutenant
- Registriert
- Dez. 2008
- Beiträge
- 860
gruffi schrieb:Das ist falsch. Kannst du zB bei HT4U nachlesen. Generell waren da die Unterschiede bei gleicher Performance nicht gravierend. Die Radeons waren trotzdem tendenziell etwas sparsamer. Lediglich unter Idle waren GeForces etwas besser. Hier konnte man aber zumindest manuell oder über ein BIOS Update des Herstellers die Radeons ähnlich sparsam bzw sogar sparsamer machen.
Ja man kann sich alles schöndrehen wenn man möchte.
Da Idle für die meisten Leute das wichtigere Merkmal des Verbrauchs ist, ist meine Aussage nicht falsch.
https://www.computerbase.de/artikel...test.985/seite-26#abschnitt_leistungsaufnahme
Und 30 Watt (mein kompletter PC Verbraucht leider etwas mehr) ist sicher nicht nur "etwas besser"!
Und über manuelle BIOS Updates kann man auch bei den NVidias den Stromverbrauch senken, das Argument fällt also schonmal weg.
@ Sp3cial Us3r:
Ok, mein Fehler, ändert allerdings nicht viel an der Tatsache
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Eigentlich überhaupt nicht.nf1n1ty schrieb:Der Artikel lässt auf gute Nachforschung schließen und wirkt für mich als Laien auch nachvollziehbar.
Die neuen Fakten über den Fertigungsprozess sind diesem hervorragendem Artikel von Anand entnommen (er verlinkt ja auch darauf): http://www.anandtech.com/video/showdoc.aspx?i=3740&
Dann hat er darauf hingewiesen wie verschiedene Aussagen von ihm aus der Vergangenheit zutreffen und abschließend eine völlig falsche und unsinnige Hochrechnung der Yieldraten angestellt. Neu recherchiertes gab es in dem Artikel wenig, was aber nicht bedeutet, dass seine Prophezeiungen nicht auch zutreffen, wenn man die blödsinnige Berechnung aussen vor lässt.
Aber eines ist sicher : Charlie hat verstanden wie der "Journalismus" in der Hardware-Branche funktioniert. Ohne die fehlerhaften Berechnungen würden nicht diejenigen die ihn am meisten verachten andauernd auf seine Artikel verlinken in allen Foren und ihm so viel Beachtung und Einnahmen bescheren - denn mittlerweile wird Charlie zu 90 % zitiert wenn jemand seine "Lügen" aufdecken will.
S
Swissjustme
Gast
Noch länger warten? Damit bleibt die 5800 nach wie vor unbezahlbar. Und die HD 5830 lässt auch auf sich warten, nah wen wundert das noch bei der Lage von Nvidia...zudem wird die 5830 auch nicht ganz billig werden.
Doch, ist sie, da du pauschalisiert hast. Und pauschal hatte nVidia eben nicht den geringeren Stromverbrauch.MysWars schrieb:Da Idle für die meisten Leute das wichtigere Merkmal des Verbrauchs ist, ist meine Aussage nicht falsch.
Da kann ich auch andere Quellen bringen, siehe hier. Da braucht die 4870 nur 20 W mehr als die GTX 260 unter Idle, die HD 4890 ist gar über 15 W sparsamer als die GTX 285. Also mal schön langsam mit deinen voreiligen Schlüssen. Gerade unter Idle ist der Test eines Modells noch lange nicht aussagekräftig. Hier kann es signifikante Diskrepanzen geben.MysWars schrieb:https://www.computerbase.de/artikel...test.985/seite-26#abschnitt_leistungsaufnahme
Und 30 Watt (mein kompletter PC Verbraucht leider etwas mehr) ist sicher nicht nur "etwas besser"!
Nein, tut es nicht. Die höhere Leistungsaufnahme unter Idle bei einigen 4000er Modellen kommt ja vom nicht heruntergetakteten GDDR5 Speicher. Dort Einsparungen zu erzielen, gibt es bei den GTX 2xx Modellen nicht.MysWars schrieb:Und über manuelle BIOS Updates kann man auch bei den NVidias den Stromverbrauch senken, das Argument fällt also schonmal weg.
Das eigentliche Thema ist doch aber ein ganz anderes. Die Leistungsaufnahme unter Idle ist erstmal weniger bedeutsam als unter Last. Erstens lässt sich Idle bezüglich Takt anpassen. Das ist unter Last natürlich keine Option. Und zweitens wird die Leistungsaufnahme von diskreten Karten unter 2D/Idle in Zukunft vermutlich teilweise gänzlich bedeutungslos, da diese dann ganz abgeschaltet werden und die Aufgaben von einer IGP übernommen werden. Clarkdale hat ja bereits eine mit auf dem Package, bei Llano und Sandy Bridge wird diese direkt auf dem CPU Die untergebracht. Der Maszstab für Leistungsaufnahme und Energieeffizienz muss also immer der sein, wenn es für die Hardware etwas zu tun gibt. Idle darf dabei natürlich nicht ausser Acht gelassen werden. Ist als primäres Argument aber bedeutungslos.
Zuletzt bearbeitet:
MysWars
Lieutenant
- Registriert
- Dez. 2008
- Beiträge
- 860
Du hast genauso pauschalisiert wie ich, du stufst jetzt wieder den Lastverbrauch als wichtiger ein, was ich absolut nicht unterstützen kann.gruffi schrieb:Doch, ist sie, da du pauschalisiert hast. Und pauschal hatte nVidia eben nicht den geringeren Stromverbrauch.
Bitte komm mir nicht mit Testen in denen mit einem Pentium 4 getestet wird.gruffi schrieb:Da kann ich auch andere Quellen bringen, siehe [...] Also mal schön langsam mit deinen voreiligen Schlüssen. Gerade unter Idle ist der Test eines Modells noch lange nicht aussagekräftig. Hier kann es signifikante Diskrepanzen geben.
Also eigentlich interessiert es mich zwar immernoch nicht warum die Karten einen so hohen Leistungsverbrauch im Idle haben, aber z.B. Sp3cial Us3r sagt, dass es nicht am Powerplay liegt: Siehe #115gruffi schrieb:Nein, tut es nicht. Die höhere Leistungsaufnahme unter Idle bei einigen 4000er Modellen kommt ja vom nicht heruntergetakteten GDDR5 Speicher. Dort Einsparungen zu erzielen, gibt es bei den GTX 2xx Modellen nicht.
Sehe ich überhaupt nicht so, du solltest es nicht als Fakt einstufen.gruffi schrieb:Das eigentliche Thema ist doch aber ein ganz anderes. Die Leistungsaufnahme unter Idle ist erstmal weniger bedeutsam als unter Last. [...]
Bis zu deiner genannten "Zukunft" dauert es wahrscheinlich noch etwas länger, den Versuch, leistungshungrige Grafikchips komfortabel zu deaktivieren gibt es schließlich schon länger.
Wenn du dich mal in Foren mit etwas mehr "Stromsparfreaks" aufhälst wirst du merken, dass wie gesagt die meisten User die Wert auf Stromverbrauch legen, fast nur der Idleverbrauch interessiert.
Wie du auch bei vielen Quellen nachlesen kannst, befindet sich der Durchschnittliche PC großteils unausgelastet im Idle. Einige Seiten sprachen sogar von 80% der Zeit.
Für die laufenden Kosten die ein PC ausmacht zählt also auch fast nur der Idle Verbrauch, außerdem beeinflusst er Lautstärke und Temperaturen.
Zuletzt bearbeitet:
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2.006
- Antworten
- 227
- Aufrufe
- 39.170