9800 oder hd4830

Turbostaat schrieb:
Was ist an 20W im Idle lächerlich? Zudem kann man die neuen HD 4830 nicht mehr zu HD4850 flashen, da diese per Lasercut bearbeitet wurden.

Man senkt den Speichertakt und Core takt und spart viel mehr Strom als im normalen Idle per CCC! Was versteht man daran nicht?

Bedeutet man braucht sich keine sorgen um den Idle betrieb machen!

Aber lustig auch wieder von |nsb|urmel, ein auf Stromsparer zu machen, aber auf Seite 1 was vom gutem OC Potenzial zu labern:D
 
Nichts zu behaupten wäre in dem Fall besser als auf 20W zu bestehen.

Du kannst dir auch mal das reinziehen: http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0
Eine aktuelle 9800 GTX+ ist sparsamer als eine alte 9800 GT.
xbitlabs und CB haben eine alte 9800 GT getestet.
Du behauptest 20W sind die einzige Wahreheit. Ich zeige das dem nicht so ist, ich werde ignoriert. Gut.
 
Zuletzt bearbeitet:
Turbostaat schrieb:
@Squall2010
Das bezieht sich auf 4830 <-> 9800

Aber auch die 4830 kann auch noch weiter runtakten um Strom zu sparen, also von daher...

Ja das habe ich ja gemerkt.

Das man die 4830 auch runtertakten kann meine ich ja mit meiner Aussage.

Nur werden sich 4830 und 4850 bei gleichem Takt kaum bis nichts tuhen. Sind ja die gleichen Karten, nur das die 4830 beschnitten ist.

So wie das viele getestet haben braucht ne 4870 im Idle mit CCC ~80Watt, durch das umstellen auf 200/209 bei mir soll sie 40Watt brauchen. Habe leider keinen Energie Check zu hause.

Was ich bei den 4xxx Karten nicht gut finde, ist das sie keine Spannungserhöhung per Software zulassen.
 
Squall2010 schrieb:
Aber lustig auch wieder von |nsb|urmel, ein auf Stromsparer zu machen, aber auf Seite 1 was vom gutem OC Potenzial zu labern:D

Ich bin mir darüber bewusst, dass andere Leute ihre Prioritäten ganz woanders setzen als ich. Daher benutze ich auch gerne und ganz gezielt solche Formulierungen wie "für mich persönlich" oder "aus meiner Sicht gesehen" und kann trotzdem über Dinge reden, die ich persönlich für weniger wichtig halte. Egozentriker verwechseln sowas gerne mit Doppelzüngigkeit, aber das ist deren Problem.


Ach ja, und eine 1GB Karte nehmen keine 512MB.

Mich würd jetzt mal interessieren, wieso du das bei 'ner Mittelklassekarte empfiehlst.
 
Zuletzt bearbeitet:
|nsb|urmel schrieb:
Ich bin mir darüber bewusst, dass andere Leute ihre Prioritäten ganz woanders setzen als ich. Daher benutze ich auch gerne und ganz gezielt solche Formulierungen wie "für mich persönlich" oder "aus meiner Sicht gesehen" und kann trotzdem über Dinge reden, die ich persönlich für weniger wichtig halte. Egozentriker verwechseln sowas gerne mit Doppelzüngigkeit, aber das ist deren Problem.




Mich würd jetzt mal interessieren, wieso du das bei 'ner Mittelklassekarte empfiehlst.

Klar der Rechner ist ja mehr im Idle als unter last, aber trotzdem beisst sich das, den für 2fps mehr gleich 30Watt mehr Strom unter last verbrauchen wäre sinnfrei.

Weil du davon ausgehst, das der vRam verbrauch was mit der Auflösung zu tun hat, das sind aber nur 10%, die anderen 90% hängen von den Texturen ab. Wenn du in einem Spiel 700MB verbrauchst in 1600x1200, dann wird das in 800x600 auch nicht viel weniger sein.

Bei FarCry2 sind es ~900MB hat man ne 512MB Karte und der Speicher ist voll, fallen die fps. Gut, da kann man jetzt mit Alt+Tab raus gehen und wieder rein, aber ich hätte da keine 20-30min Bock drauf. Oder man bekommt halt so laderuckler wie bei G3 zumBeispiel.
 
Aus deinen Ausführungen bezüglich Stromverbrauch werd ich nicht schlau. Worauf beziehst du dich? Check ich nich...

Der VRAM-Verbrauch, von dem du da redest, kommt nur unter Situationen zustande, wo eine Mittelklassekarte sowieso keine spielbaren Framerates zustande bringt. Nicht mit 512 und auch nicht mit 1024MB. CB hat das schon vor längerer Zeit unter Beweis gestellt (Quelle), und dass sich das bei FC2 verändert hat, wäre mir jetzt wirklich neu.

Und warum redest du bitte was von "hätte da kein Bock drauf". Schiele ich oder beinhaltet deine Sig eine 512MB-Karte? Ist das dein Office-PC oder?

Warum nur spuken in meinem Hirn gerade die Worte sinnfrei und Gelaber so schrecklich rum? oO
 
Aus deinen Ausführungen bezüglich Stromverbrauch werd ich nicht schlau. Worauf beziehst du dich? Check ich nich...

OC gleich mehr Stromverbrauch unter last, aber nur marginal mehr leistung.

Der VRAM-Verbrauch, von dem du da redest, kommt nur unter Situationen zustande, wo eine Mittelklassekarte sowieso keine spielbaren Framerates zustande bringt. Nicht mit 512 und auch nicht mit 1024MB.

Eben da liegst du falsch, wie schon vorher geschrieben, brauchen die Spiele in 800x600 fast so viel Ram wie in 1600x1200.

CB hat das schon vor längerer Zeit unter Beweis gestellt (Quelle), und dass sich das bei FC2 verändert hat, wäre mir jetzt wirklich neu.

Und was interessieren den die fps die CB angibt bei ihren Demos und Benches?
Steht irgendwo wie viel vRam die Games brauchen?

Wenn ich 30min FC2 Spiele, fängt das Game an zu ruckeln und die fps sinken. Gehe ich dann Alt+Tab raus und wieder rein, läuft es flüssig. Liegt daran, das der Ram voll ist und durch das raus gehen geleert wird. Bei vielen Spielen macht es sich dann durch kleine Ruckler bemerkbar.

Und warum redest du bitte was von "hätte da kein Bock drauf". Schiele ich oder beinhaltet deine Sig eine 512MB-Karte? Ist das dein Office-PC oder?

Ne der ist nur zum Surfen. Der für Office und Video hat schon nen 4GHz Quad und ne 4870X2 :headshot:

Schonmal dran gedacht, das ich die Karte gekauft habe als es die mit 1GB noch nicht gab;)

Ich habe kein XP drauf, sonst hätte ich dir das anhand von nem Game in 800x600 und 1680x1050 gezeigt.
 
der mehrverbrauch durch übertakten ist nur dann wirklich deutlich gegeben, wenn auch der vcore angehoben wird. eine karte kann man übertakten und gleichzeitig den verbrauch reduzieren. das eine schließt das andere nicht aus. gutes beispiel ist die zotac gtx260² amp!, die trotz massiver takterhöhung weniger als die gtx260 im referenzdesign verbraucht.
 
Lübke schrieb:
der mehrverbrauch durch übertakten ist nur dann wirklich deutlich gegeben, wenn auch der vcore angehoben wird. eine karte kann man übertakten und gleichzeitig den verbrauch reduzieren. das eine schließt das andere nicht aus. gutes beispiel ist die zotac gtx260² amp!, die trotz massiver takterhöhung weniger als die gtx260 im referenzdesign verbraucht.


Wir reden hier von der 48xx reihe, man kann die vCore nicht verändern.
Anheben geht per Mod, aber Software klappt nicht.

Zotac GTX260² AMP = 250€
http://geizhals.at/deutschland/a364554.html

Billigste GTX260 kostet 222€
http://geizhals.at/deutschland/a368849.html

Das sind ausgesuchte GPUs, das klappt nicht mit jeder GPU.
 
eigentlich war das eher in bezug auf die 9800 gemeint und die gtx260 nur ein beispiel zur veranschaulichung. allerdings bietet nahezu jede gpu spielraum, die frage ist nur wie groß der ist. werkseitig wird ein höherer wert verwendet, um den ausschuss so gering wie möglich zu halten. diese "sicherheitspolster" kann man dann eben durch untervolten ausschöpfen.

aber im grunde ging es mir auch nur um die aussage, dass übertakten keinen so großen mehrverbrauch verursacht, solange man die betriebsspannung unverändert lässt.

ich hab bei meinem notebook die spannung der cpu bei jedem stepping auf minimum gesetzt (scheinbar gutes sample) und verbrauche jetzt bei 1660mhz genauso wenig wie bei 966mhz (gemessen!)
 
Squall2010 schrieb:
OC gleich mehr Stromverbrauch unter last, aber nur marginal mehr leistung.

Okay, jetzt weiß ich worauf du dich beziehst. Das ist vollkommen richtig, ich teste selbst gern mit 'nem Verbrauchszähler rum. Daher weiß ich auch, daß die 30% oder 25W mehr Stromverbrauch, die eine HD4850 gegenüber einer HD4830 unter Last hat, sich leider nicht in 30% mehr Leistung niederschlägt. Über den Idle-Mehrverbrauch müssen wir uns da gar nicht erst unterhalten, nicht wahr? Konsequenz: HD4850 kaufen ist auch nicht klüger als HD4830 übertakten.

Ich bin der Meinung, dass der Grafikkartenhersteller und nicht etwa der Kunde das nachbessern muss. Insofern auch meine Aussage, dass die Referenz-HD4850 bis jetzt noch nicht über ihren Prototypenstatus rausgekommen ist. Wenn z.B. MSI ihre Versprechen, die sie bezüglich ihrer angekündigten, überarbeiteten Modelle wahrmachen, sieht die Sache anders aus.

Eben da liegst du falsch, wie schon vorher geschrieben, brauchen die Spiele in 800x600 fast so viel Ram wie in 1600x1200.

Da kann ich gar nicht falsch gelegen haben, weil ich die Auslastung bei den verschiedenen Auflösungen nie angesprochen habe. Auch das hab ich selbst schon durchgetestet und bin auf die gleichen Ergebnisse gekommen.

Und was interessieren den die fps die CB angibt bei ihren Demos und Benches? Steht irgendwo wie viel vRam die Games brauchen?

Mich nicht so besonders. Mich interessieren aber auch qualitätsverbessernde Einstellungen (AA/AF) so ziemlich gar nicht. Weil ich sie sowieso recht wenig wahrnehme und den Spielspaß wenig tangieren, aber VRAM fressen wie die Sau. Dabei ist mein Display gar nicht so übel...

Wenn ich 30min FC2 Spiele, fängt das Game an zu ruckeln und die fps sinken. Gehe ich dann Alt+Tab raus und wieder rein, läuft es flüssig. Liegt daran, das der Ram voll ist und durch das raus gehen geleert wird. Bei vielen Spielen macht es sich dann durch kleine Ruckler bemerkbar.

Na ja, das ist genau das was ich meine. Ich hab die Probleme nicht. Und wie gesagt, wenn du die Probleme mit 'ner 4870 hast, liegt das definitiv an deinen Qualitätseinstellungen. Das tangiert aber jemand, der 'ne 9800GT oder HD4830 hat, überhaupt nicht. Weil es schlicht und einfach ruckelt, wenn man die Einstellungen zu hoch einstellt.

Denn die RV770-GPU kann erst dann von dem größeren VRAM profitieren, wenn die Qualitätseinstellungen dermaßen hoch sind, dass eine Radeon HD 4850 sowieso eine viel zu geringe Geschwindigkeit bietet.

Qualitätseinstellungen != Auflösung.

Ich habe kein XP drauf, sonst hätte ich dir das anhand von nem Game in 800x600 und 1680x1050 gezeigt.

Auch wenn mir schon wieder nicht ganz klar ist was das mit XP zu tun hat, es erübrigt sich aber sowieso, denn die Auflösung an sich ist, wie du ja ganz richtig gesagt hast, überhaupt nicht das Problem.
 
Okay, jetzt weiß ich worauf du dich beziehst. Das ist vollkommen richtig, ich teste selbst gern mit 'nem Verbrauchszähler rum. Daher weiß ich auch, daß die 30% oder 25W mehr Stromverbrauch, die eine HD4850 gegenüber einer HD4830 unter Last hat, sich leider nicht in 30% mehr Leistung niederschlägt. Über den Idle-Mehrverbrauch müssen wir uns da gar nicht erst unterhalten, nicht wahr? Konsequenz: HD4850 kaufen ist auch nicht klüger als HD4830 übertakten.

Ich bin der Meinung, dass der Grafikkartenhersteller und nicht etwa der Kunde das nachbessern muss. Insofern auch meine Aussage, dass die Referenz-HD4850 bis jetzt noch nicht über ihren Prototypenstatus rausgekommen ist. Wenn z.B. MSI ihre Versprechen, die sie bezüglich ihrer angekündigten, überarbeiteten Modelle wahrmachen, sieht die Sache anders aus.

Natürlich muss der Grakahersteller dafür sorgen, aber auch wenn er das macht, kann man mit Tools noch einiges mehr rausholen.

Mich nicht so besonders. Mich interessieren aber auch qualitätsverbessernde Einstellungen (AA/AF) so ziemlich gar nicht. Weil ich sie sowieso recht wenig wahrnehme und den Spielspaß wenig tangieren, aber VRAM fressen wie die Sau. Dabei ist mein Display gar nicht so übel...

Was haben den die Quallieinstellungen mit dem Monitor zu tun?
Klar, um so höher die Auflösung um so weniger AA braucht man.
Ich Spiele auch heute noch Final Fantasy 8 auf dem PC. Qualli Interessiert mich eigentlich nicht viel wenn das Game gut ist. Aber bei so Spielen wie Crysis wo die Story nicht grade der Hammer ist muss man ja was finden was einem gefällt. Immerhin habe ich 45€ dafür bezahlt und will es auch durchspielen.

Na ja, das ist genau das was ich meine. Ich hab die Probleme nicht. Und wie gesagt, wenn du die Probleme mit 'ner 4870 hast, liegt das definitiv an deinen Qualitätseinstellungen. Das tangiert aber jemand, der 'ne 9800GT oder HD4830 hat, überhaupt nicht. Weil es schlicht und einfach ruckelt, wenn man die Einstellungen zu hoch einstellt.

Hat nichts mit den Quallieinstellungen zu tun. Da ist definitive der Ram voll.
Ist auch kein ruckeln sonder nachladeruckler da ja daten verdrengt werden und neue reingeladen werden. Wenn das zu hoch eingestellt wäre, dann müsste ich ja immer schlechte fps haben und es würde ruckeln.

Auch wenn mir schon wieder nicht ganz klar ist was das mit XP zu tun hat, es erübrigt sich aber sowieso, denn die Auflösung an sich ist, wie du ja ganz richtig gesagt hast, überhaupt nicht das Problem.

Unter Vista läst sich der vRam verbrauch nicht messen, deswegen verstehe ich auch nicht wie CB schreiben kann das die Karte erst ab dann und dann von dem Ram profitiert!

Das viele neue Spiele mit 8xAA und 16xAF in 1600x1200 von einer 4850 nicht mehr flüssig dargestellt werden können sollte klar sein. Und kaum ein User hat nen 4Ghz Quad im Rechner der die min fps anhebt.

Zudem geht es darum, das auch bei niedrigen Auflösungen der Ram verbrauch fast gleich ist, also warum Profitiert die Karte dann nicht von 1GB Ram? Das Spiel läuft ja nicht schneller durch mehr Ram.

In nem Benchmark der 1-3min läuft, werden bestimmt keine 512MB Ram gefüllt!

Mir ging es nur darum, das man ne 1GB Karte kauft um nachladeruckler zu vermeiden.
 
Zurück
Oben