Suche schnellste und möglichst leise Grafikkarte bis 250€

Meine Güte, euer Fanboy geblubber ist ja nicht mal mehr lustig, dass geht schon Richtung erbärmlich! *Peng* mal gucken welcher Hund jetzt bellt :rolleyes:

für 1080p hat bisher schon immer 2GB Vram gereicht

Es gab auch mal eine Zeit, da haben 256MB für alles gereicht, dann reichten die nimmer und es mussten 512MB sein, dann kam 1GB, darauf dann 2GB und nun steht der nächste Sprung in den Startlöchern.

Meiner Erfahrung nach (die über 10 Jahre Computerforentreiben beinhaltet) hatten immer die Leute länger Freude mit ihren Karten, wenn sie sich bei einem Modell, für die Version mit dem größeren Speicher entschieden haben. Das kann man meinet wegen auf Konsolenportierung schieben, aber dass ist nun mal das was wir zum zocken bekommen ;)

Man achte auf GTX 580 1,5GB vs. GTX 580 3GB, GTX 770 2GB vs. GTX 770 4GB
Watch_Dogs-1080p-Full-HD-TSMAA-v1.1-pcgh.png

Das mag der ein oder andere jetzt gerne als krasse Ausnahme ansehen, aber es zeigt genau den oben beschriebenen Trend und ich sehe keinen Grund, warum sich daran was in nächster Zeit ändern sollte.

@Salamibrot90210

Schau mal bei der ziemlich neutral wirkenden Seite 3DCenter.org vorbei, die schauen sich immer auf den gängigen Seiten die Tests an, analysieren die und berechnen aus den Testergebnissen einen Peformanceindex.

Im März kam die letzte Marktübersicht und in der (genau wie in den aktuellen kleinen Analysen) sehen die Jungs/Mädels von 3DCenter.org die GTX 770 2GB & R9 280X auf ein und dem selben Niveau.

Ich persönlich tendiere in deiner Preisklasse zur 280/280X, weil man mMn. mehr Hardware für sein Geld bekommt, die aber auch mehr Strom benötigt (ist ja auch der größere Chip ;)).
In der nächst höheren Preisklasse, tendiere ich aber mehr zum Nvidia-Spross (GTX 780), da sie mMn. nach das rundere Produkt abgibt (im Vergleich zur R9 290).
 
@D3Spieler:

Ich lüge?

http://mobile.pcgameshardware.de/Wa...s/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

3GB-VRam werden in 1920x1080 und Ultra benötigt. Andere Beispiele sind: Wolfenstein: The new Order oder Daylight (Battlefield Hardline evtl. auch). Alles Spiele, die in max. Settings und FullHD mehr als 2GB-VRam beanspruchen um flüssig zu laufen. Auffällig dabei ist: Dies sind die neuen Spiele, die auch auf den Konsolen erscheinen. Und die haben bekanntermassen genug VRam :) Daraus schliesse ich, dass steigender VRam-Verbrauch ein Trend wird.. (Ist ja auch gut, da eine Innovation)

Jetzt noch eine Gtx 770 mit 2Gb zu kaufen, die dann in neuen Games nicht mehr dieselbe Bildqualität liefern kann wie eine sogar billigere und gleichgute 280x mit 3GB ist irgendwie nicht mehr empfehlenswert.

Du siehst: Ich lüge doch nicht, deshalb wäre es angemessen sich für deine Anmassungen zu entschuldigen! :) Aber da beiss ich vermutlich auf Granit.. Das was Menschen am meisten hassen ist es wenn sie auf ihre eigenen Fehler hingewiesen werden.
 
Könnt ihr nicht lesen oder so?

Ich habe mehr als deutlich geschrieben dass ihr mit diesen unoptimierten Konsolenschrottspielen erst gar nicht an kommen sollt.

Aber wenn es sein muss.... :rolleyes:

Watch Dogs, warum kommt jeder Heini hier mit diesem Kackspiel an, dass nicht mal auf einem Titan SLI System ruckelfrei läuft?

Seid ihr irgendwie schwer vom Begriff oder so? Ihr könnt Benchmarks lesen, toll aber spielt selbst das Spiel. Ich habe es gespielt mit einer AMD und Nvidia GPU.

1. Diese Benchmarks beweisen rein gar nichts und zeigen inbesondere nicht die Microruckler auf
2. Ist es völlig Banane ob man 2, 3 oder gar 4GB Vram hat. Ruckelt beim Autofahren trotzdem.
3. Läuft das Spiel auf Nvidia Karten flüssiger selbst wenn man nur 2GB Vram hat als auf AMD, weil Nvidia das Spiel und die Treiber für das Spiel halbwegs optimiert hat, was man von AMD nicht gerade behaupten kann.
Ergänzung ()

BookerDeWitt schrieb:
@D3Spieler:

Ich lüge?

http://mobile.pcgameshardware.de/Wa...s/Watch-Dogs-Test-GPU-CPU-Benchmarks-1122327/

3GB-VRam werden in 1920x1080 und Ultra benötigt. Andere Beispiele sind: Wolfenstein: The new Order oder Daylight (Battlefield Hardline evtl. auch). Alles Spiele, die in max. Settings und FullHD mehr als 2GB-VRam beanspruchen um flüssig zu laufen.

1. Schwachsinn
2. Wo ist jetzt eigentlich der Beweis versteckt?
3. Daylight? Ernsthaft? Dieses low Budget Indie Game? Rate mal was das Problem ist.
 
Zuletzt bearbeitet:
Lies den Artikel durch. PCGH sagt, dass in Ultra+FullHD 2GB ruckeln wie Sau. Dazu gibts sogar ein Video. Und im Artikel steht, dass 3GB-VRam für das Spiel in höchsten Einstellungen Voraussetzung ist. Aber klar! Ich verlasse mich auf deine Aussage das AMD Mikroruckler hat *hust*. Das fällt ja den Testern nicht auf oder? :) Die Frametimes sind bei AMD so, dass sie solche Aussagen nicht decken, also liegt das Problem eher vor dem Bildschirm. (Treiber nicht aktualisiert? Treiberreste? ) Du weisst übrigens auch wieso AMD die Treiber nicht anpassen konnte?? :) Nein? Dann rede nicht drüber. Sondern informiere dich.
 
Uh, ein Treffer :D

D3Spieler schrieb:
Könnt ihr nicht lesen oder so?

Ich habe mehr als deutlich geschrieben dass ihr mit diesen unoptimierten Konsolenschrottspielen erst gar nicht an kommen sollt.

Durch das "ihr" sollte ich mich auch angesprochen fühlen oder?
Warum sollte es mich interessieren, was du gerne "nicht" sehen möchtest? Ist ja nicht so, als wäre mein Beitrag speziell für dich gewesen :rolleyes:


D3Spieler schrieb:
Watch Dogs, warum kommt jeder Heini hier mit diesem Kackspiel an, dass nicht mal auf einem Titan SLI System ruckelfrei läuft?

Weil es momentan der Hardwarefresser schlechthin ist und weil sich daran eben gut erahnen lässt, dass es wieder weitergeht.
Nebenbei deuten auch andere Spiele wie zb. Bioshock Infinite, so langsam auf das Ende der 2GB Karten. Was jetzt aber nicht heißen soll, dass man diese gar nicht mehr gebrauchen kann. Ich würde mir nur keine mehr neu kaufen.

Man achte auf die Minimum FPS der 2GB Karten.
Bioshock-Infinite-GPU-Benchmarks-1080p-DX11-Driver-Update.png

D3Spieler schrieb:
1. Diese Benchmarks beweisen rein gar nichts und zeigen inbesondere nicht die Microruckler auf
2. Ist es völlig Banane ob man 2, 3 oder gar 4GB Vram hat. Ruckelt beim Autofahren trotzdem.
3. Läuft das Spiel auf Nvidia Karten flüssiger selbst wenn man nur 2GB Vram hat als auf AMD, weil Nvidia das Spiel und die Treiber für das Spiel halbwegs optimiert hat, was man von AMD nicht gerade behaupten kann.

1: Beim PCGH-Test sind doch normale Ruckler schon klar, da bei den Einstellungen keine Karte eine konstant flüssige Bildwiederholrate darstellen kann.
2: Siehe "1" ;)
3: Na das ist auch keine Kunst, wenn AMD Knüppel zwischen die Beine geworfen bekommt (Stichwort: Gameworks)
 
exoplanet schrieb:
und warum kaufen dann mehr Leute Nvidia Grafikkarten statt AMDs?

Qualität statt Quantität und vor allem kennen Nvidia mehr leute und die haben schon immer ihren Ruf. das wird sich vermutlich auch nicht ändern so schnell. Die Nvidia Karten sind nicht schlecht, die meiste Leistung gegenüber der AMD merkst du garnicht. sie sind lediglich ein bisschen teurer. Was der Name macht. Das ist eben wie bei den Tv mit Sony und Medion

D3Spieler schrieb:
Watch Dogs, warum kommt jeder Heini hier mit diesem Kackspiel an, dass nicht mal auf einem Titan SLI System ruckelfrei läuft?

auf meiner gtx 780 läufts auf ultra ohne ruckler :daumen:
 
Zuletzt bearbeitet:
@exoplanet

Weil Nvidia viiiel bekannter ist und ATI/AMD sich schon seit gefühlt dem Urknall mit Gerüchten (Beitrag 15 ist zb. so eine verdorbene Saat) von Treiberproblemen, Spulenfiepen & roter Farbe geplagt ist ;)

Treiberprobleme & Spulenfiepen sind bei AMD nicht mehr ein Thema, als es bei Nvidia der Fall ist. Wird aber gerne in Foren behauptet, ohne das es dazu richtige Quellen gibt, die das bestätigen. Das bei Nvidia ganze Karten durch defekte Treiber abgeraucht sein sollen, wird aber gerne unter dem Tisch gekehrt (Beispiel 13.06.2013: Bluescreens, willkürliche Neustarts, beschädigte GPUs. Nvidia-Treiber GeForce 320.18 macht Probleme)

Glaubst du wirklich, meine Grafikkartenhistorie würde so aussehen wie sie ist, wenn ich wirklich Probleme mit ATI/AMD gehabt hätte, oder die Nvidia-Karten in meinem Bekanntenkreis zu der Zeit, etwas wirklich besser gemacht hätten? Ich denke nicht, denn ich habe mit keinem von beidem einen Vertrag und mir persönlich ist es auch ziemlich Latte wer die GPU Herstellt, die muss FPS liefern und mehr nicht.

2001 MSI GeForce2 MX 400
2002 MSI GeForce4 Ti 4200 (Defekt)
2003 Hercules ATI 9200 SE (Übergangskarte)
2003 Powercolor ATI 9800 XT (Defekt)
2004 Gainward GS GLH GeForce 6600 GT (2x Defekt)
2004 Asus GeForce N6600 GT (Defekt)
2004 Club 3D ATI X800XT und Powercolor X800GTO
2008 HIS IceQ ATI 2600XT (Übergangskarte)
2009 XFX ATI 4890
2012 XFX AMD 7950 BE DD (Ausgetauscht)
2013 Gigabyte 7950 OC

Falls einem das zuviel ATI/AMD ist, mein Telefon hat noch einen Nvidia-Chip (Tegra 3) ;)
 

Anhänge

  • nvidia-vs-amdft.jpg
    nvidia-vs-amdft.jpg
    82 KB · Aufrufe: 101
BookerDeWitt schrieb:
Lies den Artikel durch. PCGH sagt, dass in Ultra+FullHD 2GB ruckeln wie Sau. Dazu gibts sogar ein Video. Und im Artikel steht, dass 3GB-VRam für das Spiel in höchsten Einstellungen Voraussetzung ist. Aber klar! Ich verlasse mich auf deine Aussage das AMD Mikroruckler hat *hust*. Das fällt ja den Testern nicht auf oder? :) Die Frametimes sind bei AMD so, dass sie solche Aussagen nicht decken, also liegt das Problem eher vor dem Bildschirm. (Treiber nicht aktualisiert? Treiberreste? ) Du weisst übrigens auch wieso AMD die Treiber nicht anpassen konnte?? :) Nein? Dann rede nicht drüber. Sondern informiere dich.

Aber PCGH sagt ...

Sag mal bist du ein kleines Kind? Sicherlich nicht oder? Seit wann ist PCGamesHardware hier die heilige Schrift? Lies du eigentlich auch was anderes?

Setz mal deine Scheuklappen ab und besuch mal das Ubisoft Forum oder frag mal Spieler die das Spiel auch besitzen, anstatt hier einen auf PCGH Propheten zu machen - im Computerbase Forum. Kommst du dir nicht etwas peinlich vor hier ständig diese Boulevard Presse zu erwähnen?
PCGH ist die Bild Zeitung der Benchmark Seiten, totale Inkompetenz und die Benchmarks mit ihren durchschnittlichen FPS Werten sagen nicht viel über die Spielbarkeit aus, auch die Min FPS sagen als Einzelwert sehr wenig. 25s lange Benchmark Sequenz? Sagt bestimmt mehr aus als jemand der das Spiel mehrere Stunden gespielt hat. :daumen:

Ich sag dir jetzt mal was. Diese Benchmarks sind gemacht für Leute wie dich, für Spieler die gerade so noch dazu in der Lage sind ein Balken Diagramm lesen zu können. Mal will ja schließlich nicht jemanden wie dich überfordern und mit komplexen und langen aber informativen Analysen vor den Kopf stoßen. Das wäre ja viel zu viel Arbeit für beide Seiten.

Statt sich den Artikel durchzulesen hättest du mal lieber die Kommentare gelesen, damit wärst du jedenfalls besser beraten.

Wer sich für Watch Dogs eine 3GB Karte für Ultra Einstellungen holt, selbst wenn es eine GTX 780 ist und denkt dass es beim Fahren flüssig läuft der irrt und wenn die Karte von AMD ist der wird noch sein blaues Wunder erleben.

Watch Dogs läuft nach meinen Erkenntnissen die ich gesammelt habe mit einer 2GB Karte von Nvidia besser als mit einer 3GB Karte von AMD. Eine AMD Karte verursacht nicht nur stärke Mikroruckler auch brechen die FPS bei einem Overhead stärker ein.

Dennoch, das Spiel läuft auf Ultra Einstellungen sehr schlecht, egal wieviel Vram man hat oder wie schnell die GPU ist. Es ist als wenn die Engine nicht ausreichend für PC Hardware die eigentlich Ultra Einstellungen packen müsste, optimiert wurde.
Das ganze Spiel ist das reinste Fiasko.
 
Zuletzt bearbeitet:
Du sagst PCGH ist die Bild-Zeitung der Hardware-Nachrichten.
Welche seriöse Quelle kannst du empfehlen?
Ergänzung ()

Satsujin schrieb:
@exoplanet

Treiberprobleme & Spulenfiepen sind bei AMD nicht mehr ein Thema, als es bei Nvidia der Fall ist. Wird aber gerne in Foren behauptet, ohne das es dazu richtige Quellen gibt, die das bestätigen. Das bei Nvidia ganze Karten durch defekte Treiber abgeraucht sein sollen, wird aber gerne unter dem Tisch gekehrt (Beispiel 13.06.2013: Bluescreens, willkürliche Neustarts, beschädigte GPUs. Nvidia-Treiber GeForce 320.18 macht Probleme)

Ich hatte mal eine XFX Black Edition GTX 260 OC-Variante, die ist mir kurz nach der Garantiezeit buchstäblich abgeraucht.

Weil ich kurz vor einem Neukauf bin, was passiert eigentlich bei einem Spiel das PhysX unterstützt und man hat eine AMD Karte?
GTX 770 oder R9 280X oder vielleicht sogar eine R9 290, bin unschlüssig ob ich es doch mal wagen soll AMD bei Grafikkarten zu unterstützen.
 
Zuletzt bearbeitet:
Eine AMD Karte unterstützt GPU-Beschleunigung bei PhysX nicht, das heißt nicht dass dein PC anfängt zu brennen wenn du mit einer AMD-GPU ein PhysX-Spiel startest. PhysX übernimmt einfach der Prozessor - wenn der potent genug ist sollte dem das auch nicht schwer fallen...
 
wird dann automatisch die CPU PhysX berechnen oder muss man da
was manuell einstellen?
 
Automatisch :) Ich hab schon Hitman Absolution mit meinem System (siehe Sig.) gespielt. PhysX war automatisch aktiv.

Im Vorraus: es gibt nur sehr wenige Spiele die GPU-beschleunigtes PhysX haben. Meist ist es sowieso nur die Software-Variante und die übernimmt die CPU. Im Fall Borderlands 2 ist es zum Beispiel GPU-PhysX. Dort kann man zwischen "Low", "Medium" und "High" auswählen - "Low" übernimmt die CPU und ist das einzig verfügbare bei AMD-Karten.
 
Dann kann ich trotz AMD Grafikkarte PhysX automatisch genießen? :)

Vielleicht sollte ich es wagen und AMD testen. Hm, grübel. :p
 
Du kannst ja auch zu einer AMD Karte eine Nvidia als PhysX Beschleuniger stecken.
 
Leider nicht, dafür reicht mein Budget nicht mehr.
Aber die CPU kann ja PhysX berechnen, richtig?
 
exoplanet schrieb:
Leider nicht, dafür reicht mein Budget nicht mehr.
Dafür reicht eine GTX 630/640~ die sich dann nur um PhysX kümmert
Nur das Netzteil muss halt die ~60 Watt übrig haben (ein PCI-E 4X Link reicht für so eine Karte dann übrigens aus, falls du dich das fragst)

Aber die CPU kann ja PhysX berechnen, richtig?
Grafikkarten sind dafür besser geeignet, im Zweifelsfall sollte man dann PhysX besser deaktivieren sonnst ruckelt es wie Sau, weil die CPU der Grafikkarte hinterher hechelt.


ONTOPIC:
Da der Threadersteller sowieso ein Budget von ~250€ hat, wird er keine topaktuellen Spiele mit 8xMSAA spielen wollen. Sondern auf der besten Optik die er dafür bekommen kann und nicht alles auf das Maximum stellen wollen.
 
Zuletzt bearbeitet:
Schon interessant, was für unqualifizierte Anwürfe und gegenseitige Angriffe hier zu lesen sind. Ob das dem Fragesteller hilft, wage ich zu bezweifeln.

Persönlich würde ich zu einer R9 280X raten. 3GB VRAM statt 2GB wie bei einer GTX 770 und 384bit Speicheranbindung statt 256bit und ein etwas günstigerer Preis sind schließlich nicht zu verachten.
Obwohl man sagt, dass Karten mit Radiallüfter (die die heiße Luft hinten rausblasen) lauter sind als solche mit Axiallüfter, stimmt das so nicht.
Verwende seit ein paar Wochen eine HIS Radeon R9 280X IceQ Boost Clock, 3GB GDDR5. http://geizhals.at/de/his-radeon-r9-280x-iceq-boost-clock-h280xqs3g2m-a1034391.html

In Kombination mit einem Xeon E3-1245 v2 habe ich mal einen Durchlauf mit 3DMark Vantage im Performance-Modus getätigt. Mir ist dabei keine nennenswerte Lautstärkeerhöhung aufgefallen. Die Karte agierte flüsterleise und wurde nicht mal besonders warm. Unmittelbar nach dem Benchmark zeigte AIDA64 eine VRM-Temperatur von 68°C an. Gehäuse ist übrigens ein gedämmtes Corsair Carbide 500R. Nur im rechten Seitenteil habe ich zwecks besserer Unterbringung der Kabel die Dämmung weggelassen.

Benchmark-Ergebnis

3Dmark Score P31768
GPU Score 34560
CPU Score 25572

Seltsamerweise konnte ich keinen einzigen Testbericht über dieses Modell finden. Fast scheint es als ob man sie totschweigen wollte. Das ist natürlich nur mein sehr subjektiver Eindruck.

HIS Radeon R9 280X IceQ Boost Clock.jpg
 
Zurück
Oben