Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Hat doch auch gar keiner behauptet ! Es ist eine exemplarische Bsp. Rechnung bezogen auf deine These. Wo hast Du gelesen das ich das in eine bestimmte Verbindung gebracht hab ?
ja und die leistungsdifferenz bleibt zwar jedoch wird der FPS-abstand um einiges geringer.
Das der Fps Abstand geringer wird auf einem niedrigeren Niveau hat doch auch niemand bestritten, kann es sein das Du dich mit jemanden unterhältst den wir nicht sehen können ?
was mit einer HD 5870 nicht flüssig läuft läuft mit einer karte die bis zu 30 % schneller ist auch nicht flüssig.
Du hast sie alle gehabt, getestet und nichts drauß gelernt. Durch's Graka testen erlernt man nicht was Worte bedeuten ! Das währe für dich sehr hilfreich.
Mein Punkt ist einfach derjenige: Wenn man wirklich gute Bildqualität haben möchte und möglichst viele fps, dann ist man auch bereit, das Geld dafür auszugeben. Und dann machen einem auch die 100W mehr Stromverbrauch nichts aus. Das ist so als würdest du für hunderttausende Euro nen Porsche kaufen und dann Motor aus nem Smart verbauen, weil dir das Benzin zu teuer ist.
Was soll denn das für ein blödes Beispiel sein? Vegetarier sein, aber ne GTX 480 im Rechner haben, das ist inkonsequent. Außerdem ist jedes Watt Strom, der eingespart wird wichtig. Je weniger verbraucht wird, desto weniger Kraftwerke werden benötigt, da ist es egal ob du Energiesparlampen verwendest oder dir ne Grafikkarte kaufst die sparsam ist.
Du kannst auch wirklich gute Bildqualität haben wenn du dir ne Radeon kaufst die 100 Watt weniger schluckt.
Cey123 schrieb:
Setz doch einfach mal die 100W mehrverbrauch in Relation zu den sosntigen Ausgaben in deinem Leben. Und wenn Spielen mit Top Grafik wirklich dein Hobby ist, wäre es vermutlich sogar egal, wenn die GTX 1000W mehr frisst (= 21 Cent pro Stunde, Kino oder ein cocktail in der kneipe kostet 20x soviel)
Was ist das für ein dummer Vergleich? Es geht nicht um die Kosten. Die Stromkosten sind doch völlig egal. 100 Watt weniger Stromverbrauch oder 30% sind enorm viel, dafür dass die Radeon im Schnitt 10% langsamer ist.
Cey123 schrieb:
Dieses Argument mit dem Stromverbrauch wird meiner Meinung nach einfach nur von AMD-Fans gebraucht, die nicht so richtig einsehen wollen, dass die GTX 480 nicht nur absolut schneller ist, sogar das bessere Preis/Leistungs-verhältnis (18% mehr performance, 15% teurer) bietet (siehe Geizhals) als die 5870 und sich deshalb das Argument der "Effizienz" verwenden, wobei dies ein Parameter ist, der mit dem Spielspaß rein gar nichts zu tun hat. (Ein Atom-Prozessor ist bestimmt auch effizienter als ein Core2Quad)
Das Argument des P/L-Verhältnisses ist bei der GeForce irrelevant, weil Nvidia die Preise wegen des hohen Stromverbrauchs senken musste. Das liegt daran, dass keiner eine GTX 460 kaufen möchte, die so viel schluckt wie eine HD 5870 und 250€ kostet. Gleiches gilt auch für die anderen GTX-Karten. Nvidia hat gemerkt, dass die Kunden auch auf den Strombedarf schauen. Übrigens kommt das gar nich gut für Nvidia, wenn man die Karten so billig verramschen muss. Hätte Nvidia mal den Verbrauch optimiert, könnten sie die Karten teurer verkaufen. Und überleg mal warum die HD 5XXX Karten teilweise so teuer sind - Die Nachfrage ist nach wie vor groß, daher auch der hohe Preis. Die Karten verkaufen sich also scheinbar gut, auch wenn sie etwas langsamer sind als die Nvidia-Karten. AMD könnte die Preise auch noch weiter senken, solange bis das bessere P/L-Verhältnis wieder bei AMD läge, aber offenbar braucht man das gar nicht.
Und Als Nvidia-Fanboy kannst du froh sein, dass die GeForce-Karten noch das bessere P/L-Verhältnis haben, sonst hättet Ihr ja überhaupt nicht zu lachen, wenn das auch noch bei AMD läge. Dann gäbe es ja gar kein Argument mehr für die GeForce 400er. Ich hab damit kein Problem, dass Nvidia das bessere P/L-Verhältnis hat. Und selbst wenn das bei AMD läge, wären die Fermis immer noch ineffiziente Stromvernichter!
Ergänzung ()
Cey123 schrieb:
Die Spiele ziehen mit der besseren Grafikhardware nicht mehr mit. 3D ist ein innovativer Schritt in die richtige Richtung zu mehr Spielspaß. Wer war innovativ? Nvidia.
Versteht mich bitte nicht falsch. Ich hätte mir sehr gerne eine AMD Grafikkarte gekauft. Aber da AMD wohl nicht die paar Kröten übrig hatte, um ein paar Informatiker zu bezahlen, die 3D-Treiberunterstützung programieren, und nen Manager, der einen Partner für AMD-Shutterbrillen einholt, war das leider keine Wahl
So ist es, da PC-Games zu meinem Hobby gehören geben ich auch gerne etwas mehr Geld dafür aus. Zumal man bei 3D durch halbierte fps auch wirklich eine starke Graka braucht.
Dafür tue ich der Umwelt an Punkten etwas gutes, die auch wirklich einen Effekt haben, und nicht an winzigen Nebenbaustellen wie der Grafikkarte.
3D wurde nicht von Nvidia erfunden, so viel schon mal dazu, also war Nvidia auch nicht innovativ. Die Behauptung ist also Bullshit. Außerdem ist Nvidias 3D-Technik bei Weitem nicht ausgereift. Zudem braucht man kein 3D zum spielen, schon gar nicht wenn man dafür ne Shutterbrille benötigt. Daher wird sich das auch nicht durchsetzen und ist nur ein Marketing-Instrument. AMD hat einfach die Finger von 3D gelassen, weil die Zeit noch nicht reif dafür ist. Erst wenn 3D ohne Brille möglich wird macht 3D auch sinn.
100 Watt sind 100 Watt und wenn du der Umwelt an der einen Stelle etwas gutes tust und an der anderen etwas schlechtes, in dem du eine Fermi-Karte im Recner hast ist das nicht nur kontraproduktiv und inkonsequent sondern auch schwachsinnig.
Wenn du schon ne Fermi drin hast, kannst du den andern Mist auch lassen. Das Problem daran ist, dass viele Leute so denken wie du. Sie meinen wenn sie mit ein paar Dingen etwas für die Umwelt tun wird das schon reichen. Das ist aber absoluter Humbuk. Entweder man bleibt konsequent oder lässt es gleich ganz bleiben.
wenn eine HD 5870 mit zb mit 27 fps rendert und eine GTX 480 mit 35 heißst das noch lang nicht das sie konstant bei 35 ist oder mehr bei actionreichen szenen gehn die FPS der 480 auch runter und somit bedingt spielbar... also was mit einer HD 5870 nicht spielbar ist oder bedingt ist das mit der 480er genau dasselbe egal ob die jezz paar FPS mehr hat.natürlich habe ich was dadurch gelernt sost würde ich dies hier nicht berichten.
zudem ist eine 5870 unter 1080p nur 4-10% langsamer...diese auflösung wird ja empfohlen.
Ob man es nicht braucht oder kann können wir doch gar nicht wissen. Es ist die Schmerzgrenze die ATI ausruft. Oder sollte es Leute geben die für Ihr Ökogewissen 400 € für eine 5870 ausgeben ?
Und Als Nvidia-Fanboy kannst du froh sein, dass die GeForce-Karten noch das bessere P/L-Verhältnis haben
Was soll denn das für ein blödes Beispiel sein? Vegetarier sein, aber ne GTX 480 im Rechner haben, das ist inkonsequent. Außerdem ist jedes Watt Strom, der eingespart wird wichtig. Je weniger verbraucht wird, desto weniger Kraftwerke werden benötigt, da ist es egal ob du Energiesparlampen verwendest oder dir ne Grafikkarte kaufst die sparsam ist.
Inkonsequent? Ich weiß nicht. Ich tue der Umwelt in den Bereichen was gutes, wo es viel bringt, und setze die Prioritäten auf meinen Spaß in den Bereichen, die die Umwelt nicht viel kratzt. Somit maximiere ich den Gesamtnutzen für mich und Umwelt.
Das Problem der Erderwärmung wäre gelöst, wenn sich alle Leute eine GTX 480 kaufen würden statt Fleisch zu essen
(Umgekehrt auf keinen Fall)
GunnyHartman schrieb:
Du kannst auch wirklich gute Bildqualität haben wenn du dir ne Radeon kaufst die 100 Watt weniger schluckt.
Was ist das für ein dummer Vergleich? Es geht nicht um die Kosten. Die Stromkosten sind doch völlig egal. 100 Watt weniger Stromverbrauch oder 30% sind enorm viel, dafür dass die Radeon im Schnitt 10% langsamer ist.
Ja, AMD hat die effizienteren Chips, aber da sich der Energiemehrverbrauch in sehr kleinen Regionen bewegt (relativ zu anderen Energieverbrauchern wie Heizung, Warmwasser und Lampen), ist das kein Grund, eine langsamere Grafikarte zu kaufen, wenn einem Leistung wirklich wichtig ist
GunnyHartman schrieb:
Und Als Nvidia-Fanboy kannst du froh sein, dass die GeForce-Karten noch das bessere P/L-Verhältnis haben, sonst hättet Ihr ja überhaupt nicht zu lachen, wenn das auch noch bei AMD läge.
Doch, weil Nvidia mir innovative Technologien wie 3DVision bietet. (Was echt cool aussieht, auch mit Brille, und noch besser aussehen würde, wenn mehr Spiele besser darauf optimiert wären) Klar hat Nvidia die Sache nicht erfunden, aber endbenutzerreif gemacht.
GunnyHartman schrieb:
Entweder man bleibt konsequent oder lässt es gleich ganz bleiben.
Das ist eben ein ganz brutaler Denkfehler, und wenn alle so denken, wird das nix mehr mit der Umwelt. Denn lieber 90% Umwelt schonen als 0%, wenn 100% unrealistisch sind für die breite Masse.
Ja, AMD hat die effizienteren Chips, aber da sich der Energiemehrverbrauch in sehr kleinen Regionen bewegt (relativ zu anderen Energieverbrauchern wie Heizung, Warmwasser und Lampen), ist das kein Grund, eine langsamere Grafikarte zu kaufen, wenn einem Leistung wirklich wichtig ist
lol.. kleinen regionen die gtx braucht 150 watt mehr unter last als eine 5870 zudem unter 1080p grade mal 4-10 % schneller.Sowas lächerliches ...da kannste ja fast CF aus 5870ern betreiben und bist aufem gleichen niveau.
Belege deine Aussagen mal mit Tests. Ich beziehe mich auf den CB-Test, der zeigt bei 1920*1200 und 4xAA/16xAF (realistische Einstellungen bei so starker Hardware) 15% Vorteil. (bei 8xAA 18%)
Also von wegen 5-10%.
Außerdem bezieht sich deine Angabe von 150W auf Furmark. Und Furmark ist kein Spiel. Das ist so wie wenn du den Benzinverbrauch von nem Auto bei auf 20° Steigung misst.
Dies entspricht durchaus dem gefühlten Ergebnis dieser Tests, daß zwischen GeForce GTX 470 und 480 ein erheblicher Performanceunterschied existiert, zwischen GeForce GTX 480 und Radeon HD 5870 dagegen nur ein recht kleiner. In Zahlen ausgedrückt liegt die GeForce GTX 480 zwischen 16 und 21 Prozent vor der GeForce GTX 470, mit steigender Auflösung und AA-Stufe wird dieser Abstand größer. Zur Radeon HD 5870 erzielt die GeForce GTX 480 hingegen einen Abstand zwischen 4 und 11 Prozent, wobei es hier eine klare Trennlinie gibt: Unter 4x Multisampling Anti-Aliasing liegt dieser Abstand zwischen 9 und 11 Prozent, unter 8x Multisampling Anti-Aliasing dagegen nur noch zwischen 4 und 6 Prozent.
zudem kommt es bei der 480 und 5870 nie zu solchen FPS... und bei solchen hardwarefressenden games wo die karten unter 40 fps haben liegen die nie so weit auseinander...vllt dann so um die 2 FPS.
und wenn es ein hardwarefressendes game ist dann ist es crysis und da schlägt die 587 die 480er und 30 und 36 fps fühlen sich gleich an..das ist so ein schwammiges gefühl erst ab 45+ fps fühlt es sich richtig gut... bzw normal.
ich freu mich auf die 6870 damit die NV fanboys wieder in ihre GTX480atomkraftwerkhitzehöhle gehn können sowas ist echt nicht normal.
LOL wie sie alle warten bis ich poste damit sie wieder alles schön zunichte machen können und mit ihrem grünen sabber alles zu sabbern können
kaktus1337, kannst ja mal viele veröffentlichte Reviews zum Thema 5870 vs GTX480 analysieren und eine Metaanalyse hier posten! Wäre interessant und würde deutlich mehr als deine subjektiven fps=>Spielgefühl-Einschätzungen bringen!
Und bevor du fragst, was ich damit meine: Einfach mal alle Reviews suchen und den Duchschnitt vom Vorteil der GTX 480 gegenüber der 5870 ausrechnen, mal über Auflösung und AA/AF gemittelt.
Ich habe mal den Stromverbrauch meines Systems (Corei7-875K@4GHZ(1,27V) + GTX480@888MHz(1,113V, 0,1V OV) + Wakü mit Lüftern und Lampen) gemessen und kam bei Crysis GPU-Benchmark (8xAA,16xAF) auf einen Gesamtstromverbrauch, der zwischen 380 und 410W pendelte. K.A. wie CB da auf 450W kam.
kaktus1337, schalt mal deine Glühbirne in deinem zimmer = Atomkraftwerk (deiner Meinung nach) aus
Immerhin kann ein Atomkraftwerk 200.000 GTX 480 mit Storm versorgen
PhysX geht wirklich den meisten am Arsch vorbei. Die meisten Spiele nutzen immer noch andere Physik-Engines wie Havok o.Ä. PhysX mag bei vielen Entwicklern inzwischen etabliert sein, jedoch wird das auf dauer kein Bestand haben. In der neuen Konsolengeneration werden wahrscheinlich AMD-GPUs zu finden sein. Wenn die Entwickler für die Konsolen eine Physik-Engine planen, wird PhysX also kaum in Frage kommen. Spätestens dann ist PhysX bedeutungslos, da sich die Programmierer kaum den Aufwand machen werden, um extra für die GeForce Karten PhysX in die Spiele zu implementieren. Da wird man dann einfach sagen: "Wir programmieren ja für AMD-GPUs auf den Konsolen, also wird das beim PC auch so bleiben, wo zu den Aufwand mit PhysX?"
Das wird dann über DirectCL oder etwas derartiges gehen.
Grundsätzlich wird das PhysX SDK sogar erstaunlich oft verwendet, wenn man sich die Liste an Spielen auf http://physxinfo.com/ anschaut. Als reine Physik Engine scheint es zu taugen und wird auch nicht so schnell verschwinden. Geht es aber um PhysX GPU Beschleunigung kann man die Highlights an einer Hand abzählen.
Die PC-Version soll ja angeblich besser aussehen und DX11 nutzen. Mal sehen was daraus wird. Crysis sah für meinen Geschmack ja schon realistisch genug aus. Mich stört nur, dass sich die Hardware weiterentwickelt, die Spiele aber nicht. Man kann die Features der Hardware gar nicht richtig nutzen. Die Konsolen sind eben das Problem. Der Markt ist einfach viel größer und somit gibt es mehr Kunden die Umsatz bringen. Wer sich da als GPU-Hersteller in eine Konsole etablieren kann, steht schon mal nicht schlecht da.
Sehe ich auch so. Dieses Jahr wird es keine Grafikrevolution mehr geben, da kann man nur auf die PC Versionen von Crysis 2 und Rage hoffen (bzw CryEngine 3 und IDTech5(?)) dass die die Messlatte deutlich erhöhen werden, sonst sieht es die nächsten Jahre mau aus bis die nächsten Engines am Start sind.=)
hab energiesparlampen.und niemals 380 watt glaubt dir keiner 450 watt stimmen hatte ja im mai ne 480er... also bitte keine fanboygeblubber ich freu mich wenn die 6870 draußen ist..damit endlich mal die NV fanboys ruhe geben lächerlich sowas wegen 4-10% mehrleistung sagen sie(480) ist um welten schneller OMG obowohl sie heißer lauter und mehr verbraucht.
Im Unigine Haven benchmark (Max BQ) frisst mein System 350 W (wohl geringe CPU-Belastung), und das trotz overvolteter GTX 480. Würde sagen, irgendwo stimmt deine Rechnung nicht
Die eine Karte liefert Minimum 39fps, und die andere 20% mehr, also Minimum 47Fps
Laut deiner aussage ist alles ab 45 FPS gut Spielbar.
Laut deiner aussage sind aber 20% völlig Irrelevant da es keinen Unterschied macht.
Nun bin ich etwas Verwirrt
Das du nicht von deiner HD5870 auf die HD6870 umsteigen willst, Interessiert den Rest der Welt nicht die Bohne!
also 20% find ich schon Viel, ne HD5870 dürfte ca. 6 mal so schnell sein wie meine X1950xt
da ist die HD6870 dann zusätzlich Stolze 120% schneller.
120% ist schon ne Ordentlich Spürbare Hausnummer.
(wie immer kommt es nur auf den Betrachtungswinkel an, ihr müsst meine Rechnung nicht verstehen)
der Stromverbrauch von der GTX480 hängt auch sehr stark vom verwendeten Benchmark/spiel ab.
Aber ist das nicht total Irrelevant?
Fakt ist, die GTX480 ist schneller
Fakt ist, die GTX480 Verbraucht mehr Strom.
wenn einem die Mehrleistung den Mehrverbrauch rechtfertigt, dann ist doch alles in Butter.