Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wann wird eine Karte eigendlich unter Volllast betrieben?
Ich meine, spiele ich z.Bsp.: Tiberium Wars mit hohen Details bei 1680x1050,
ist das Volllast? Oder z.Bsp.: Titan Quest mit hohen Details, selbe Auflösung.
Oder kann man so Shooter wie Crysis und so als Volllast bezeichnen?
Die spiele ich nämlich eh nicht
Also nach Spiele-Genres kann man auf alle Fälle nicht gehen. So richtig in den Vollastbereich bringen eine Grafikkarte normalerweise nur Benchmarks. Im Endeffekt kommt es nicht darauf an, ob das jetzt Strategie, Rennsimulation oder Shooter ist, sondern darauf, welche der jeweiligen Komponenten einer Grafikkarte von der Spiele-Engine wie stark genutzt werden.
Mein System benötigt beispielsweise im Moment im Idle um die 105-110W, beim Spielen 135-150W, und im Furmark knappe 180W. Wobei der Gesamtverbrauch ja auch nicht nur von der Grafikkarte bestimmt wird. Auch Prozessoren und Mainboards haben je nach Betriebsmodus variierenden Stromverbrauch.
... bzw. DC-Anwendungen: folding@home (ATI wie NVIDIA), GPUgrid (nur NVIDIA), MilkyWay (nur ATI der HD48xx-Reihe sowie HD4770; für NVIDIA angekündigt), SETI (nur NVIDIA, dafür wegen der längeren Deadline besser für die langsameren Karten). Bei den DC-Projekten gibt es - wie sonst auch - Abstufungen der Auslastung, je nach Schnittstelle und Ansprüchen der Workunits.
Bevor man also Benchmark-Orgien für ein paar Grafikeffekte macht, könnte man stattdessen der Wissenschaft unter die Arme greifen.
Die Last unter Furmark ist jedoch in der Regel am größten, aber auch am unrealistischsten, meiner Meinung nach. Siehe den zentralen Test von ht4u.net: Leistungsaufnahme: Die richtige Last (=Quelle)
"FurMark wird aktuell aber nicht wirklich geliebt, zumindest von den Herstellern - dazu aber ein wenig mehr im kommenden Kapitel. FurMark ist eine synthetische Applikation - erst einmal ausgelegt darauf, möglichst hohe Last- und damit Stresszenarien zu produzieren. Allerdings: FurMark ist ebenfalls ein Benchmark! Er unterscheidet sich damit aus unserer Sicht praktisch nicht von einem "gerne" gesehenen 3DMark06, welcher oftmals eben als Benchmark, aber auch als Lasttest zu Rate gezogen wird, mit Ausnahme des Umstandes, dass der Benchmark eben nicht so hübsch anzusehen ist."
Der Furmark war zu erst ein Benchmark und wurde meines Wissens zu Beginn nicht mit dem Ziel entwickelt, eine möglichst hohe Temperatur aus Grafikkarten rauszuholen.
y33H@ Nicht gleich so rüde werden.
Der Vergleich ist kein Bullshit, da eine Übertaktete HD4770 der übertakteten GTS250 auf jeden Fall ebenbürtig ist, wenn nicht schneller und die HD4770 deutlich weniger kostet.
Die GTS250 ist in etwa 10% schneller@ Stock
Wo nimmst du sowas immer her? Eine GTS 250 liegt 10-15% vor einer HD4770. Mit OC kann man 10-15% gewinnen, eine HD4770 macht 15-25% mehr. Ergo Tendenz zugunsten der GTS 250.
Langsam kommst du irgendwie ins straucheln.
Wenn eine HD4770 10% hinter einer GTS250 liegt (ja, ich weiß, dass es die Tendenz eher zu 15% geht), man diese aber gut und gerne um 20% übertakten kann, liegt sie 10% vor der GTS. Da man die GTS aber wiederum auch übertakten kann, liegen die Karten ungefähr gleich auf.
Das ist aber nur theoretisch, da der VRam der HD4770 zu klein ist (zumindestens für mich) und die Karte deswegen auch gut und gerne 50% hinter der GTS liegen kann^^
Diverse Seiten berichten auch von 30% mehr Performance.
Imho liegen die Karten auf jeden Fall gleich auf, von daher kein Bullshit.
Da wurde auch von der Leistung einer HD4870 gesprochen.
Bei 30% kann man auch nicht mehr von dem Durchschnittswert sprechen, deswegen hatte ich es dezent ignoriert.
Es gibt auch sicherlich NV Karten, die mehr als 15% mit machen...
Schaffe89 wählt für Radeons gerne krankhaft gute Samples, deren Taktraten kaum eine Karte rockstable schafft, bei Geforces aber setzt er niedrige Werte an. Dinge wie der VRAM-Ausbau unterschlägt er zudem.
Zugegeben das mit den 30% stimmt nicht es sind 25%. Hatte ich falsch in Erinnerung.
Auszudrücken das solche Vegrleiche Bullshit sind find ich schlimmer.Klar dass man dann bei solchen Aussagen mehr in die Richtung + für Ati geht.Da die Aussage einfach nicht stimmt und unqualifiziert auch noch ist.
Welche Geforce hat 1GB? Die GTS250 gibts sowohl mit 512mb als auch mit 1GB.
Sowie es von der HD4770 welche mit 1Gb geben wird. Zudem gings um die Übertaktbarkeit.
MR. Mushroom fuhr ne ganz andere Schiene.
Schaffe89 wählt für Radeons gerne krankhaft gute Samples, deren Taktraten kaum eine Karte rockstable schafft, bei Geforces aber setzt er niedrige Werte an.
Macht ohne die 830/1.700er-Werte im Mittel 873/2.099 MHz. Das Expreview-AMD-Sample scheint ein ziemlich gutes zu sein, das PCGH'sche auch. Möglicherweise wurden hier gute Exemplare an die Redaktionen verschickt. Lassen wir diese Samples außen vor, landen wir im Schnitt bei 858/2.098 MHz. Ergo prozentual +14% und +31%. Der RV740 ist zwar recht Bandbreiten-limitiert, diese schlägt aber nicht immer voll durch. Daher dürften wir uns je nach Spiel bei einem Gewinn von +15% bis + 30% bewegen, also meist 20-25%. Und eben nicht bei den von dir kommunizierten 30%. Ganz nebenbei ist zu beachten, dass idR entweder der VRAM gut geht oder der Chip - und nicht beide zusammen.
Oh doch 25%?? Wie lustig.
Edit: Ich hab doch das mit den 30% bereits zurückgenommen, weils falsch war.
Du schreibst vorhin, es ist Bullshit beide Grafikkarten zu vergleichen, räumst aber ein dass 25% overclocking bei der HD4770 möglich sind.
Imho lassen sich beide schön vergleichen, wenn noch Modelle mit 1GB kommen (HD4770)noch besser.
Also nimm doch du deine Aussagen mal zurück und neige nicht zur Polemik oder ZynikImmerhin versucht du alle Diskussionsgegner geschickt als Deppen hinzustellen. Find ich nicht in ordnung.
Da wie gesagt off Topic Schluss jetzt mit dem Gefasel
Schaffe89 hat recht, ihr seid hier absolut OT mit eurer Diskussion. Der Leistungsvergleich zwischen HD4770 und GTS250 muss nicht in jedem Thread ausdiskutiert werden. Ihr könnt ja mal einen eigenen GTS250 vs HD4770 Thread aufmachen. Hier gings von Anfang an primär um Effizienz, nicht um Performance und OCing.
Ohne mich hier als Pseudo-Mod aufspielen zu wollen, bleibt beim Thema oder diskutiert woanders weiter. BITTE!