GTX 960 oder R9 380

Na, bei gleicher Leistung stimmt das mit den 100Watt aber nicht mehr. Die 960 ist nur im standard genügsam,die leicht getaktet wurde schnellen im verbrauch nach oben. wie auch immer.

gruß
 
Natürlich stimmt das mit dem Mehrverbrauch, wurde ja von genug Webseiten gemessen und zwar mit OC 960 und 380er Partnerkarten (die ebenfalls OC sind). Der Stromverbrauch ist allerdings stark Spiele abhängig und wenn jemand nur LoL spielt werden ihm die +40Watt wohl egal sein. Wenn jemand dafür fast nur CS:GO spielt wird er die +110Watt definitiv auf der Stromrechnung bemerken.

https://www.computerbase.de/2015-07...t-wow-ultra-hd/4/#abschnitt_performancerating
^die 380 die mit dem nicht erhältlichten Takt von 970 läuft (jede Partnerkarter taktet höher) und die 960 mit 1289 Mhz (was definitiv OC ist und von den aktuellen 200€ 4GB Modellen gerade so geschafft wird).
 
Gibt es eine GTX 960 die im Idle kaum hörbar oder still ist?
 
Natürlich, es gibt im Idle unhörbare 380er und 960er. Einfach mal bei Geizhals als Kriterium Zero Fan Mode setzen.
 
Im schnitt sind es deutlich weniger als 100watt, wir reden hier von wenigen euro pro jahr also. ändert alles nichts daran das die 380 die bessere karte ist.


gruß
 
die 128bit sind ein pluspunkt weil sie die selbe leistung schaft mit 128bit interface wo die amd 256bit brauch, nebenbei verbraucht die gtx ca 100watt weniger und bleibt 20 grad kühler :D

hab mir selber erst eine gtx 960 gekauft von msi, kann ich dir empfehlen.
 
Call me Queen schrieb:
die 128bit sind ein pluspunkt weil sie die selbe leistung schaft mit 128bit interface wo die amd 256bit brauch, nebenbei verbraucht die gtx ca 100watt weniger und bleibt 20 grad kühler :D

hab mir selber erst eine gtx 960 gekauft von msi, kann ich dir empfehlen.

Dann solltest du dich mal besser informieren! Ein kleineres Speicherinterface ist nämlich sehrwohl ein Nachteil, vor allem wenn man sich für die 4 GB Variante interessiert.
Von daher gibt es eig. kein Grund wieso man eine GTX 960 bevorzugen sollte, vor allem da die Asynchronen Shadereinheiten unter DX 12 Leistungsvorteile haben.
 
@Bärenmarke, die 128Bit sind kein Flaschenhals. Wurde schon in mehreren Tests nachgewiesen. Genausowenig wie die Reduzierung bei AMD von 384 auf 256. Und wieso die Busbreite irgendeinen Unterschied bei 2GB oder 4GB machen kann erschließt sich mir auch nicht.
Das die 380 wahrscheinlich besser für DX 12 gerüstet ist, ist allerdings sicherlich ein Pro Argument für die Larte.

@xeonking, sorry aber wenn Du nicht in der Lage bist einem Link zu folgen, kann ich Dir mit Deinen Wissenslücken auch nicht weiter helfen. Es sind overall im Schnitt etwas über 100Watt, was sich bei 2h spielen täglich auf 21€ summiert. Jeder definiert wenige Euro anders. ;)
 
nvidias verlustlose textur kompressionstechnologie veringtert die speicher bandbreiten nutzung,und macht daraus ein größeren speicherbus als er eigentlich ist.

nebenbei ist und bleibt die dx12 meme kein argument.1 gibts immernoch kein einziges spiel wo dx 12 abhängig ist 2.wird nvidia sich um dx12 support kümmern wenn es auch nötig wird 3.bis es mal soweit ist hat und brauch man für solche spiele sowieso andere hardware :D

besser informieren und so :daumen:
 
Zunächst mal verbraucht eine r9 380 keine 100W mehr im Durchschnitt als eine gtx 960:lol: Als weiteres kommt es auf die einzelnen Modelle und Spiele an, wie man hier gut sehen kann

http://www.tweakpc.de/hardware/test...9_380_gaming/benchmarks.php?benchmark=energie

Danach verbraucht eine Msi r9 380 ca. 60W mehr im Durschnitt als eine Msi gtx 960. Nimmt man ein niedriger getaktetes Modell der r9 380er sind es nur noch 20W im Durchschnitt wie bei dem der XFX r9 380.

Die performance dürfte da ziemlich genau sein, da sehr viele games getestet wurden. Beim Computerbase Test ist die gtx 960 der r9 380 nur ebenbürtig, weil ein Spiel die Ergebnisse sehr verfälscht. Geht man auf den benchmark und schaut sich die einzelnen games an, ist die r9 380 meistens vorne oder mindestens gleich auf. Guckt man dann aber auf Cod: Advanced Warfare, dann liegt dort die gtx 960 fast 40% vor der r9 380. Das wird der Tatsache aber nicht gerecht, dass die r9 380 im Schnitt die schnellere Karte ist, lässt man Cod mal außen vor, dann wird das im Ergebnis deutlich. Und dürfte ähnlich dem hier aussehen:

http://www.tweakpc.de/hardware/test..._r9_380_gaming/benchmarks.php?benchmark=index
https://www.computerbase.de/2015-09...st/4/#diagramm-cod-advanced-warfare-1920-1080 man beachte die einzelnen benchmarks insbesondere Cod.

Von der Lautstärke und den Temperaturen kann sich eine gute r9 380 (Nitro) mit einer gtx 960 gut messen. Einzig die Abwärme dürfte je nach Modell bei der r9 380 etwas höher ausfallen.

Letztendlich gibt es keine Patentlösung indem man sagt, dass die eine Karte besser als die andere ist, sondern immer nur die Frage nach deinen Prioritäten. Zockst du Cod: Advanced Warefare, dann ist die gtx 960 klar die bessere Karte. Geht es dir hauptsächlich darum so wenig Strom wie möglich beim zocken rauszuhauen dann ebenso. Willst du allgemein die meiste performance für dein Geld, dann ist es die r9 380 im Vergleich der Beiden.

Willst du das letzte bisschen Leistung rauspressen und nimmst dafür eine ältere Architektur bzw. mehr Stromverbrauch in Kauf, dann gibt es für 180-190€ eine r9 280x.
Ich würde vermutlich zur Nitro r9 380 greifen.


besser informieren und so

Richtig, kann man dir nur ans Herz legen.
 
Da ich ehe Batman und AC zocke würde ich Nvidia empfehlen. Hier in deinem Fall AMD Karte R 380 ;) Kommt immer auf die Games an welche bevorzugt gespielt werden!
 
Fei schrieb:
Zunächst mal verbraucht eine r9 380 keine 100W mehr im Durchschnitt als eine gtx 960:lol: Als weiteres kommt es auf die einzelnen Modelle und Spiele an, wie man hier gut sehen kann
Die 100Watt sind das Ergebniss des CB Tests, kannst Dich gerne in dem Test Thread über das Ergebniss auslassen. Nichts anderes als das es auf die Spiele ankommt hatte ich bereits geschrieben. In dem von Dir verlinkten Test sind es übrigens auch 70 Watt Differenz, also nichts für ungut. :cool_alt:
 
Mextli schrieb:
Die 100Watt sind das Ergebniss des CB Tests, kannst Dich gerne in dem Test Thread über das Ergebniss auslassen. Nichts anderes als das es auf die Spiele ankommt hatte ich bereits geschrieben. In dem von Dir verlinkten Test sind es übrigens auch 70 Watt Differenz, also nichts für ungut. :cool_alt:

Es sind aber eher selten 100watt, die 60-70watt sind sehr viel realistischer. dann taktest du die 960 auf das leistungs-niveau der 380, dann sind es nicht mal mehr 60-70watt! also erzähl doch hier keinen von 100watt und so. so oder so,die 380 bleibt die besser karte, auf mehrere Jahre gesehen wird sie wahrscheinlich die noch mal deutlich bessere sein, wie bei amd es oft typisch ist.

gruß
 
er will star wars battlefront spielen -> dann sollte er sich die r9 380 kaufen. (wenn der stromverbrauch keine so große rolle spielt)

oder geh halt einmal oder zweimal nicht aus essen dann hast du die jahresmehrkosten wieder drin.:)

die jeweiligen vor- und nachteile haben wir ja hier bereits dargestellt und bevor das wieder mal ausartet sollte man daran denken was der TE spielt bzw. spielen will und nicht schon wieder ein "lagergebashe" anfangen.

sowohl die 960 als auch die r9 380 sind tolle karten, bei star wars ist aber die r9 380 im moment deutlich besser.

habe fertig:)
 
OC Versionen der GTX 960 verbraten deutlich mehr Strom als die Standardvariante und kommt leistungsmäßig trotzdem nicht an eine 380 ran.
Da muss man die 960 schon auf 1500mhz takten, während die 380 zwischen 970 und 1000mhz agiert und noch 20% Luft nach oben hat.
 
Mextli schrieb:
@Bärenmarke, die 128Bit sind kein Flaschenhals. Wurde schon in mehreren Tests nachgewiesen. Genausowenig wie die Reduzierung bei AMD von 384 auf 256.

Bei 2GB mag es vielleicht noch ausreichend sein, aber bei 4 GB bezweifel ich das doch, dass es da keine Unterschiede gibt, aber darfst gerne einen Link dazuposten ;-)

Call me Queen schrieb:
nvidias verlustlose textur kompressionstechnologie veringtert die speicher bandbreiten nutzung,und macht daraus ein größeren speicherbus als er eigentlich ist.

Ändert nichts an der Tatsache, dass 4GB auch entsprechend gefüttert werden wollen, daher ist es sehr fragwürdig, ein kleines Speicherinterface als Vorteil anzupreisen. Zumal AMD bezüglich Texturkompression nicht gepennt hat...

Call me Queen schrieb:
nebenbei ist und bleibt die dx12 meme kein argument.1 gibts immernoch kein einziges spiel wo dx 12 abhängig ist 2.wird nvidia sich um dx12 support kümmern wenn es auch nötig wird 3.bis es mal soweit ist hat und brauch man für solche spiele sowieso andere hardware :D

Warum sollte es kein Argument sein? Meinst der Te kauft sich alle 6 Monate eine neue Karte? Wenn er sie 2-3 Jahre behält wird er durchaus in den Genuss von DX 12 Games kommen. Und was soll Nvidia denn bitte ändern, wenn die Grundarchitektur nicht stimmt? Und wie sie sich um alte Karten im Vergleich zu neuen kümmern sehe ich bei meiner GTX 780 ja sehr deutlich.... :freak:

Call me Queen schrieb:
besser informieren und so :daumen:

Solltest du wirklich mal :daumen:
Auch in dem Preisbereich um 200€ ist es imo besser eine Karte mit 4GB Vram zu haben und da bringt das kleine SI doch einen Nachteil, den man nicht hinnehmen muss.
 
mister-chucker schrieb:
Kurze Frage, habe keinen Bench gefunden..

Habe derzeit diese Karte verbaut
http://www.mindfactory.de/product_i...ce-3X-Aktiv-PCIe-3-0-x16--Retail-_786855.html

Würde eine R9 380 Nitro einen spürbaren / sichtbaren Leistungsschub bringen?

Zocke im Moment fast nur Witcher 3. Sieht schon gut aus aber möchte das Spiel gerne noch mehr genießen.

Die HD 7950 ist eine R9 280. Der Leistungsunterschied zwischen einer R9 280 und R9 380 ist sehr klein. Der Aufpreis lohnt sich gar nicht.
Wenn musst du auf die 380X warten oder eine 390 nehmen.
 
Zurück
Oben