HD6850 verkaufen und Nvidia kaufen ?

M

Mr. Machete

Gast
Hallo liebe Mitglieder,

ich hatte mir letztens eine AMD HD6850 von Sapphire gekauft, nun bin ich am überlegen
ob ich sie nicht wieder zurück schicken und stattdessen eine MSI Cyclone holen soll.

was mir nicht gefällt an der HD6850:

- hatte mich an dem Test mit der falschen Shaderzahl orientiert
- durch die größere Abwärme von 18W im Idle (vorher HD4350 mit 8W) läuft jetzt mein CPU-Kühler mit ca. 200 RPM mehr
(Karte ist zwar leise aber der CPU Kühler (Arctic Freezer 7 Pro) ist jetzt mit 1300 U/Min. etwas störend)
- einige ältere und ganz neue Spiele laufen nicht so stabil besonders wenn man sie mit den
ersten Patches benutzt
- das die Bildqualität runtergeschraubt wurde nur für einen höheren Frames-Wert
- für Mafia 2 mußte ich ein SDK PhysX Tool von Nvidia installieren ???
- die 2D-Leistung ist auch recht bescheiden

AMD HD 6850


Uploaded with ImageShack.us


ATI 4350 aus dem HTPC


Uploaded with ImageShack.us


GeForce 7600GT


Uploaded with ImageShack.us



Auf meinem 24" Monitor spiele ich Shooter immer in der Auflösung 1600x900 mit schwarzen Rahmen,
weil ich sonst zu viel hin und her schauen muss
Bei COD4 ist man im MP mit geringen Textureinstellungen besser,
weil sich die Gegner deutlicher vom Hintergrund abheben
und liegende Camper im Gras viel leichter ausmachen lassen.
Aus diesen Gründen kommt auch eventuell eine schwächere GTS mit 11W Idle in Frage



Welche Fehler können im Laufe der Zeit durch neuere Treiber behoben werden?

Hat jemand einen Tom 2D Test zur MSI Cyclone 450GTS und der 460GTX? (wäre echt super)

Welche Anwendungen außer Photoshop profitiert noch von Cuda?

Kann bei einer GeForce die Laustärkenregelung nur über MSI Afterburner erfolgen?
 
Zuletzt bearbeitet:
das die Bildqualität runtergeschraubt wurde nur für einen höheren Frames-Wert

Stell auf High Q im Treiber und du hast die beste BQ die ATi zu bieten hat. Wenns dich stört schreib ne PM an Wolfgang und frag ihn ob du sie deswegen verkaufen solltest.

Was ne Trollerei. "Durch die große Abwärme von 18W im idle" Ha wasn Schenkelklopfer. Kauf dir ne hd 5450
 
Dai6oro schrieb:
Was ne Trollerei. "Durch die große Abwärme von 18W im idle" Ha wasn Schenkelklopfer. Kauf dir ne hd 5450

sorry hätte schreiben sollen durch die höhere Abwärme von 18W im Gegensatz zu meiner ATI HD4350 mit 8W im Idle Modus
 
- für Mafia 2 mußte ich ein SDK PhysX Tool von Nvidia installieren ???

Physx ist der Name einer PhysikEngine, welche zur realistischen Berechnung von Physkeffekten dient (herumfliegende Trümmer, Gegenstände und dergleichen) - immer mehr Spiele setzen auf diese Art der Berechnung und NVidia hat diese Technik inklusive Namen vor einiger Zeit durch Übernahme der Firma Ageia erworben - und führt die Entwicklung nun fort.

Daher muss man bei Spielen, welche Physx benutzen, die jeweils aktuelle Version der NVidia Software installieren ;)

Darüber hinaus sind NVidia GPUs in der Lage, die komplette Berechnung der Physx Effekte zu übernehmen - ATI GPUs hingegen nicht - wodurch bei Anwendung von Physx in Spielen NVidia User hier im Vorteil sind -> Mehr FPS (auch bemerkbar im Physiktest von 3DMark, wo es "fälschlicherweise" zu weitaus höheren CPU Benchmarkergebnissen kommt).
 
Hi!

Ich weiß nicht, welche Grafikkarte du vorher drin hattest. Aber alle aktuellen Grafikkarten haben eine sehr hohe Abwärme. Eine nvidia GTX 460 hat sogar noch deutlich mehr Abwärme.

Etwas entschärfen kann dies das Lüfterdesign. Es gibt Lüfter, die die Grafikkartenabwärme ins Gehäuse abgeben. Z. B. die MSi Cyclon. Da steigt dann logischerweise die Temperatur im Gehäuse.
Andere Lüfterdesigns, wie z. B. fast alle aktuellen Referenzkühler, versuchen die Abwärme hinten aus dem Gehäuse zu führen.
Ich denke, die einfachste Abhilfe wäre ein besserer CPU-Kühler.

Dass du nvidia PhysX installieren musstest, ist normal. Ich bin seit Ewigkeiten ATI-Nutzer und das ist normal. Wenn das Spiel PhysX nutzt, brauchst du auch die Software dazu. Wenn deine Grafikkarte PhysX nicht beschleunigt, macht das die CPU.
Ich weiß gar nicht, PhyS sollte auch für ATIs kommen. Geht das schon?

Fehler und Bugs werden bei den ATI-Treibern recht schnell behoben. Im Schnitt kommt ein Mal im Monat ein Update und dort gibt es immer diverse Verbesserungen für alle möglichen Spiele.

Ich will demnächst aufrüsten und der einzige Grund für eine GTX460 für die angeblich höhere Bildqualität wegen der flimmerfreien antisoptrischen Filterung. Ich bin mit meiner 5750-Qualität eigentlich zufrieden und auf nvidia-Rechnern kann ich da keinen Unterschied ausmachen.

2D-Leistung? Keine Ahnung. Habe ich mir nie Gedanken gemacht. Windows & Co laufen flüssig.
Wichtig ist, dass du AMD Drag&Drop installierst. Da beschleunigt die Karte im 2D. Vielleicht wird das bei den Benchmarks nciht berücksichtigt.

Ich würde die 6850 nicht verkaufen. Ist auf jeden Fall schneller als eine Standard-GTX-460 bei deutlich geringerem Stromverbrauch.
Meine neue wird entweder eine 6850, 6870 oder GTX460.

Gruss
MoJo77
 
sorry hätte schreiben sollen durch die höhere Abwärme von 18W im Gegensatz zu meiner ATI HD4350 mit 8W im Idle Modus
Sorry hätte fragen sollen was du vorher für ne Karte hattest. So wird nämlich ein Schuh draus.

Ein Tip wenn dich die Laustärke stört. Es gibt wesentlich leistungsfähigere und zugleich wesentlich leisere CPU-Kühler als den Artic Freezer. Da kann die Karte auch ein Mehrfaches an Abwärme produzieren, einen gescheiten Kühler + gescheiten Lüfter wirst du nicht hören. z.B Noctua ist sehr leise und leistungsfähig
 
MoJo77 schrieb:
2D-Leistung? Keine Ahnung. Habe ich mir nie Gedanken gemacht. Windows & Co laufen flüssig.
Wichtig ist, dass du AMD Drag&Drop installierst. Da beschleunigt die Karte im 2D. Vielleicht wird das bei den Benchmarks nciht berücksichtigt.

2D Leistung brauche ich für CAD Programm EAGLE zur Erstellung von Schaltplänen und
Leiterplatten, bei meinem Notebook mit GMA3100X dauert es jedes mal etwa 1 bis 2 Sekunden bis er ein großen Schaltplan neu aufgebaut, ist besonders ärgerlich weil bei jedem Schieben und Zoomen das Bild neu aufgebaut wird
 
Zuletzt bearbeitet:
Das Benchmark Tool testet den GDI Durchsatz und nicht die 2D Leistung - das ist eine der grössten Blamagen die sich THG je geleistet hat und es gibt immer noch welche die es nicht wissen.

GDI ist nicht gleich 2D sondern eine veraltete API und bei Vista und Windows 7 nur noch für alte DX9 Hardware in Verwendung. AMD verwendet seit der HD5xx Serie bevorzugt das schnellere und bessere Direct2D welches die 3D Engine nutzt ohne den langsamen Umweg über GDI/GDI+

Das ist als ob du messen würdest wie viel PCIe Datendurchsatz eine SATA Festplatte hat.

Referenzen dazu:
http://msdn.microsoft.com/en-us/library/ee663279(v=VS.85).aspx
http://blogs.msdn.com/b/directx/archive/2009/05/12/2d-drawing-apis-in-windows.aspx
With the release of Windows Vista, GDI hardware acceleration was removed.
 
die abwärme^^ wen sowas stört, der kauft bestimmt keine gtx 4xx
die AMD KArten haben so ziemlich die niedrigste Idle-Leistungdaufnahme für ihre Klasse und außerdem sollte es klar sein, dass ne UltraLowend Karte weniger Strom zieht als ne Performancekarte....
das ist echt rumtrollerei hier. auch schonmal was von Grafikeinstellungen zurückstellem gehört? allgemein von Einstellungen?
 
Zuletzt bearbeitet:
Gigabyte GTX460 OC

Die Karte ist zwar für 3D auf 800/1600/2000 @ Stock Voltage übertaktet, aber im 2D Modus taktet sie normal (siehe NVIDIA Inspector Screenshots)

Ich persönlich kann diese Karte nur empfehlen. Schnell, leise und günstig. Habe sie direkt nach dem ersten Start auf die o.g. Werte übertaktet und sie rennt wie die Sau. Im Idle kommt sie auf 28° - 30° unter Last (Furmark) mit den o.g. Werten nicht über 70°C.
 

Anhänge

  • 1.JPG
    1.JPG
    59,8 KB · Aufrufe: 259
  • 2.JPG
    2.JPG
    47 KB · Aufrufe: 258
Zuletzt bearbeitet:
Hab mal rein aus Interesse meine 5770 @ Stock durch den Test geschickt und folgendes dabei rausbekommen:

jbixrsqr.jpg


Weiß nur leider nicht ob dir das was hilft.

MfG Freestyl3r :cool_alt:
 
was ist das denn für ein komischer Benchtest?

Habe bei dem NIE 100% Grafikkartenlast. Eher so um 60%
 
Dai6oro schrieb:
Stell auf High Q im Treiber und du hast die beste BQ die ATi zu bieten hat. Wenns dich stört schreib ne PM an Wolfgang und frag ihn ob du sie deswegen verkaufen solltest.

Was ne Trollerei. "Durch die große Abwärme von 18W im idle" Ha wasn Schenkelklopfer. Kauf dir ne hd 5450

Wird kein Troll sein, ich arbeite im technischen Support, es gibt wirkliche viele Leute die keine Ahnung haben und einem dann mit absolut weltfremden Forderungen und Beschwerden auf die Nerven gehen.



@Mr. Machete
Mit der MSI wird genau das gleiche passieren außer das die vielleicht etwas leiser ist.
Eine Gammelkarte wie die 4350 kann man nicht ansatzweise von irgendwelchen Werten mit der 6850 oder der 460 vergleichen, da liegen Welten dazwischen.

Edit:

eben mal meine HD4850 durchlaufen lassen:

Direct drawing to visible device

Text: 60314 chars/sec
Line: 56476 lines/sec
Polygon: 10757 polygons/sec
Rectangle: 2883 rects/sec
Arc/Ellipse: 16244 ellipses/sec
Blitting: 5272 operations/sec
Stretching: 373 operations/sec
Splines/Bézier: 30193 splines/sec
Score: 1985


DIB buffering

Text: 38551 chars/sec
Line: 84222 lines/sec
Polygon: 13714 polygons/sec
Rectangle: 1504 rects/sec
Arc/Ellipse: 17587 ellipses/sec
Blitting: 2524 operations/sec
Stretching: 290 operations/sec
Splines/Bézier: 30331 splines/sec
Score: 1849
 
Zuletzt bearbeitet:
Danke für euren vielen Antworten, ich habe mich jetzt nach langen Überlegungen für die
Nvidia MSI Cyclone 450GTS für 111€ entschieden

Gründe für die Entscheidung:

- Ich habe die letzten 2 Jahren meines Studiums ein HD4350 zum reinen Arbeiten drin gehabt,
somit wurde ich auch nicht mehr durch Spiele zusätzlich abbgelenkt.
Nachdem ich die HD6850 testete merkte ich dass mir die meisten neueren Computerspiele nicht mehr so richtig Spass machen wie früher, irgendwie ist alles auf Casual-Gaming ausgelegt und es fehlt an neuen Inovationen oder ich bin schon zu alt?
- brauche die Karte hauptsächlich zum Arbeiten, spiele nur sehr selten
- neuere Spiele sind mir zu teuer und unausgereift, ich warte lieber bis sie es nach 2 Jahren für 20 Euro gibt
- ich bin von vielen Spielen mit Steam und DLC Mist sehr abgeneigt
- spiele eigentlich nur Shooter und Stategie, Shooter dann auf nicht so hohen Einstellungen, damit man die Gegner leichter erkennt
- für eine bessere Übersichtlichkeit spiele ich nur mit 1600x900 mit schwarzen Rahmen auf einem 24" mit 1920x1080
- die 450GTS hat 11W im Idle und 17W für BlueRay-Betieb (HD6850 18W idle und 42W BlueRay)
- die 450GTS werde ich dann beim nächsten Aufrüsten in meinen HTPC einbauen
- die MSI Cyclone 450GTS ist auch unter Spielen bzw. GPU+CUDA Nutzung minimal lauter
als im Idle Betrieb
- nachdem ich mir jetzt einige Youtube Videos angesehen habe will ich jetzt unbedingt CUDA haben
- mit Nvidia gibt es etwas weniger Probleme als ATI/AMD

(Die 460GTX ist zwar auch nicht schlecht, hat 40% mehr Leistung,
braucht aber 2 Stromstecker, ist unter Last recht laut und natürlich auch teurer.)
 
Zuletzt bearbeitet:
MoJo77 schrieb:
Ich würde die 6850 nicht verkaufen. Ist auf jeden Fall schneller als eine Standard-GTX-460 bei deutlich geringerem Stromverbrauch.

Was genau ist bei dir eine Standard GTX? Falls du von der 768MB Version ausgehst, dann mag diese Theorie vielleicht noch stimmen. Die 1GB Variante der GTX460 liegt eher gleichauf mit der HD6850 bzw hat leicht die Nase vorn; bei besserer Bildqualität.

Beweise? Kein Problem, hier der Link dazu:
http://www.pcgameshardware.de/aid,7...weite-DirectX-11-Generation/Grafikkarte/Test/

Ansonsten würde ich dir raten, die 6850 zu verkaufen und dir eine 460 1GB zu holen.

LG
 
Zurück
Oben