Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Was für ein Unsinn. Die Beispiele in denen 3GB nicht reichen sind bis auf Watch Dogs nicht existent.

Ja und nein. Pauschalisieren hilft nicht. Wenn ich auf 1080p spiele bist evtl auch für die nähere Zukunft (WD ausgenommen) noch ganz gut aufgestellt. Ab 1440p würde ich das so nicht unterschreiben. Da würde ich jede GTX 780 6GB einer TI vorziehen. Es kommt halt wie immer drauf an.
 
Pilstrinker schrieb:
@D3Spieler

Nee, dem reicht u.U. eine Karte mit mehr als 3GB. So, wie vor 2 Jahren eine GTX680 4GB einer mit 2GB in Skyrim und entsprechenden Settings keine Chance gelassen hat, und das alles noch mit FPS in gut spielbarem Bereich.

3GB-Karten sind für Enthusiasten keine Option mehr.

Und wen interessiert Skyrim hier geht es um Watch Dogs oder warum verweist du auf den Benchmark?

Willst du uns hier weiß machen, dass eine R9 290 ausreichend Leistung für Watch Dogs 4k@Ultra besitzt?

Es fehlt in erster Linie die Rohleistung. Genau das zeigt das Diagramm. Da bringen dir 4GB auch nichts. 12,6 FPS mit einer R9 290 sind nicht spielbar. Bist du wirklich so unfähig das zu begreifen?
 
Zuletzt bearbeitet:
Disco STFU schrieb:
Ich weiß nicht so recht was ich von diesem Test halten soll. Es werden nur Referenzdesigns getestet die sich sowieso kaum jemand kauft. Mehr Tests mit Customlösungen wären mir deutlich lieber. :)

Mal diesen Quote exemplarisch dafür, dass es erstens noch genug lieferbare Referenzdesigns gibt, sowohl von AMD als auch Nvidia; zweitens es ein unverhältnismäßiger Aufwand wäre, die Customs zu testen (wo es ebenso Unterschiede gibt und jeder intelligent genug ist, die einzelnen (Wunsch)-Custom-Karten mit Tests zu lesen) und drittens beide Lager Nachteile mit Referenzdesigns haben, da diese in der Regel niedrigere Taktraten haben aufgrund der heute üblichen Boost-Systeme.

Ebenso möchte ich daran erinnern, dass es MONATE gedauert hat, bis es außer diesen schwachsinnigen Referenzdesigns bei AMD mit Hawaii endlich vernünftige Custom-Modelle gab (in meinen Augen die erste interessante war die Vapor-X von Sapphire). Und selbstredend wurden diese Grafikkarten zahlreich gekauft. So gesehen müsste man den Custom-Kühler bei den Anschaffungskosten mit reinrechnen, möchte man nicht taub werden und im Sommer eine runtergetaktete Karte haben (ganz nebenbei, dass man hier wohl tendenziell die Garantie verliert - ja, ich kenn die Seite mit den Herstelleraussagen, läuft aber mMn immer auf Kulanz raus und kann schnell in 500€ für die Tonne enden).

Kindergarten hier
 
s fehlt in erster Linie die Rohleistung. Genau das zeigt das Diagramm. Da bringen dir 4GB auch nichts. 12,6 FPS mit einer R9 290 sind nicht spielbar. Bist du wirklich so unfähig das zu begreifen?

Und du blendest alles aus was größer als 1080p ist. Hallo es gibt auch noch 1440p und 1600p. Und ja R9290(x)/GTX780(TI) haben genügend Rohleistung für diese Auflösungen.
 
Nvidiabase returns.

Allein schon diese Aussage in der abschließenden Kaufberatung hat mich zum lachen gebracht:

In der 150-Euro-Klasse finden sich die Radeon R9 270X und die GeForce GTX 660 wieder. Die Radeon-Karte bietet die deutlich höhere Geschwindigkeit, die GeForce-Karte die bessere Energieeffizienz. Beide Produkte schenken sich insgesamt fast nichts.

Das muss scherzhaft gemeint sein, falls nicht kann ich CB nicht ernst nehmen.
 
D3Spieler schrieb:
Und wen interessiert Skyrim hier geht es um Watch Dogs oder warum verweist du auf den Benchmark?

Willst du uns hier weiß machen, dass eine R9 290 ausreichend Leistung für Watch Dogs 4k@Ultra besitzt?

Es fehlt in erster Linie die Rohleistung. Genau das zeigt das Diagramm. Da bringen dir 4GB auch nichts. 12,6 FPS mit einer R9 290 sind nicht spielbar. Bist du wirklich so unfähig das zu begreifen?

Du hast nicht ansatzweise kapiert, was das Skyrim-Beispiel aussagen soll.
 
Nee, das Beispiel ist hier so oft durchgekaut und analysiert worden, benutzt dazu die Suchfunktion.

Ich verlinke aber mal den Test.

Vielleicht kommt ihr dann auch von ganz alleine drauf.
 
Schöner Artikel!
Da sich aber niemand eine 290(X) im Referenzdesign kauft, ist dessen Aussagekraft allerdings gering.
Sollte jedem klar sein, wenn hier 290 und 290X nur 1% auseinander liegen.
Deshalb bitte noch eine 290 Tri-X/Vapor-X mit Referenztakt nachtesten und einfügen!
 
Pilstrinker schrieb:
Nee, das Beispiel ist hier so oft durchgekaut und analysiert worden, benutzt dazu die Suchfunktion.

Ich verlinke aber mal den Test.

Vielleicht kommt ihr dann auch von ganz alleine drauf.

Es gibt sicherlich ein Spiel mit einer bestimmen Einstellungen und Modifkation bei der 4GB Vram nicht ausreichen.

Na und? Laufe ich deswegen wie ein Clown durchs Forum herum und propagiere, dass 4GB Vram nicht mehr ausreichen?

Ich habe damals vor 2 Jahren eine GTX 670 2GB gekauft und bereue es nicht, klar hätte ich auch eine 4 GB Version kaufen können aber weißt du was? Das war es mir nicht wert, wegen einem Spieles wie Skyrim dass ich eh nicht oft spiele mehr Geld als nötig auszugeben und ich hatte Recht behalten. Bis auf ein Skyrim mit mods, haben mir die 2GB in jedem Spiel ausgereicht:

mainchartlbbnh.jpg


Nun besitze ich seit einer Weile die GTX 780 und auch hier habe ich mich für die 3GB Version entschieden und stelle keinerlei Beeinträchtigungen fest. Dein Skyrim oder Watch Dogs in 4k Auflösung Diagramm, interessiert mich nicht die Bohne. Ich spiele nicht in 4k Auflösung sondern in 1200p folgerichtig, besitze ich auch kein SLI mit 6GB Vram Karte die dafür nötig wären.
 
Zuletzt bearbeitet:
Den Test kann man als Referenz für die Referenzdesigns nehmen. Er soll als Orientierung dienen, um Unterschiede der Serien zu sehen. Wer ein bestimmtes Modell im Auge hat, muss dann auf Erfahrungen anderer zurück greifen und kleinere Tests lesen.
Ich finde den Test gelungen.
 
Ich frag mich persönlich noch ob ich Lieber auf die GTX 880 warten soll

Oder eine GTX 780 TI kaufen soll oder ne R9 290x

oder vielleicht sogar Dual GPU HD 7990 oder GTX 690

möchte auf Full HD spielen mit keinerlei problem und wenn ich mir nen
21:9 Monitor hole möchte ich den auch ohne probleme mit Maximalen FPS nutzen können
 
Ein aktueller Test und man nimmt wieder die Referenzkarten :freak: Was bitte soll das bringen, wurde jetzt nicht oft genug mit eigenen Benchmarks und hier im Forum gezeigt, erläutert, verglichen, dass die GTX-780 und auch die AMD R9 290(X) im Custom-Design teilweise deutlich bessere Resultate erzielen? Meine Herren... Was bringt es mir, eine Grafik von aktuellen Karten zu sehen, wenn z.B. meine GTX-780 mal glatte 20% schneller ist als eine Referenz-780? Und alle Gigabyte, MSI, Zotac, ASUS etc. Custom-Varianten der GTX-780 sind auch um die 15-20% schneller. Selbes Spiel bei den AMD Karten, der GTX-780Ti etc. Dieser Test hilft gar nichts, nada, niente...
 
D3Spieler schrieb:
Es gibt sicherlich ein Spiel mit einer bestimmen Einstellungen und Modifkation bei der 4GB Vram nicht ausreichen.

Na und? Laufe ich deswegen wie ein Clown durchs Forum herum und propagiere, dass 4GB Vram nicht mehr ausreichen?

Ich habe damals vor 2 Jahren eine GTX 670 2GB gekauft und bereue es nicht, klar hätte ich auch eine 4 GB Version kaufen können aber weißt du was? Das war es mir nicht wert, wegen einem Spieles wie Skyrim dass ich eh nicht oft spiele mehr Geld als nötig auszugeben und ich hatte Recht behalten. Bis auf ein Skyrim mit mods, haben mir die 2GB in jedem Spiel ausgereicht:

Nun besitze ich seit einer Weile die GTX 780 und auch hier habe ich mich für die 3GB Version entschieden und stelle keinerlei Beeinträchtigungen fest. Dein Skyrim oder Watch Dogs in 4k Auflösung Diagramm, interessiert mich nicht die Bohne. Ich spiele nicht in 4k Auflösung sondern in 1200p folgerichtig, besitze ich auch kein SLI mit 6GB Vram Karte die dafür nötig wären.

Immerhin bist du ja jetzt soweit gekommem, zuzugeben, dass es durchaus Situationen gibt, in denen mehr als 3GB VRAM helfen.

Das ist doch schon mal ein schöner erster Erfolg.

Und das alles irgendwie eine Sache der persönlichen Präferenzen ist, wobei dich ja nur der eigene Tellerand zu interessieren scheint.
 
@ Test

ich versteh das nicht @ Testteam ... ich hab mulimonitor getestet und bei mir stellt sich keine Verdoppelung des Verbrauches bei der 290x im Dualbildschirmbetrieb ein ....

um 1 W geht der Verbrauch bei mir hoch.

Egal ob die Bildschirme beide über DVI -> HDMI laufen oder einer mit nen direkten HDMI Kabel und einer DVI -> HDMI

die 2 Bildschrime sind das Gleiche Modell und Grafikkarte ist eine Sapphire 290x tri-x OC

Bitte testet das nochmal ausführlich, villeicht kommt das auch durch die neuen Treiber.
 
Was für ein Unsinn. Die Beispiele in denen 3GB nicht reichen sind bis auf Watch Dogs nicht existent.
Die Karte ist brand neu, meiner 580 3GB sind 4-5 Jahre nicht der Vram ausgegangen im Verhältnis zur Rohleistung.

Neue Games mit besseren Texturen werden den Vram so überlasten das die Karte schnell wieder verkauft wird und auf das nächste Modell zu wechseln für teuer Geld. HD Texturen brauchen keine Rohleistung nur Vram, daher kann man die Benches in dem Test sehr gut deuten was den Käufern noch blühen wird. Immerhin könnte die Karte von der Rohleistung her noch locker 3-4 Jahre durchhalten, aber vom Vram ist ja heute schon Schluss.

Eines der Geheimnisse warum die 8800GTX so lange, so schnell war, üppig Vram vom Start weg und nicht wie heute bei den 2 und 3GB NV Karten gerade noch ausreichend für ein paar Monate.
 
Sebbi schrieb:
@ Test

ich versteh das nicht @ Testteam ... ich hab mulimonitor getestet und bei mir stellt sich keine Verdoppelung des Verbrauches bei der 290x im Dualbildschirmbetrieb ein ....

um 1 W geht der Verbrauch bei mir hoch.

Egal ob die Bildschirme beide über DVI -> HDMI laufen oder einer mit nen direkten HDMI Kabel und einer DVI -> HDMI

die 2 Bildschrime sind das Gleiche Modell und Grafikkarte ist eine Sapphire 290x tri-x OC

Bitte testet das nochmal ausführlich, villeicht kommt das auch durch die neuen Treiber.
welches messgerät?
 
smilefaker schrieb:
Der Test ist eindeutig wieder pro Nvidia gefärbt, es wird in die gleiche Kerbe geschlagen wie zum GTX 680/GTX 670 Release.
- Keine Angaben über die minimalen FPS (wahrscheinlich weil AMD hier in der Regel viel besser abschneidet)
- Mantle Spiele wie BF4 werden nur im DX Modus gebencht für AMD GPUs

:stacheln:

Über diese sehr groben Mängel wurde Computerbase mehrmals aufmerksam gemacht, dennoch weigern sich vehement die Benchmarks zu vervollständigen und ggf. zu korrigieren. Ich kann kein Blatt mehr vor dem Mund nehmen, diese Benchmarks sind nicht vollständig und deshalb mangelhaft. In diesem unfertigen und mangelhaften Zustand kann man sie lediglich in die Tonne treten. Sorry, ist aber so.
 
Pilstrinker schrieb:
Immerhin bist du ja jetzt soweit gekommem, zuzugeben, dass es durchaus Situationen gibt, in denen mehr als 3GB VRAM helfen.

Das ist doch schon mal ein schöner erster Erfolg.

Und das alles irgendwie eine Sache der persönlichen Präferenzen ist, wobei dich ja nur der eigene Tellerand zu interessieren scheint.

Mich interessiert nur der eigene Tellerrand? Was ist denn bitte das für eine Redewendung? Selbst erfunden? Du bist echt witzig weißt du das? Das mit dem Clown war gar nicht so weit hergeholt. :lol:

Ich besitze im Gegensatz zu dir den Blick fürs Ganze und wäge nach eigenen Voraussetzungen und Ansprüchen ab, ob eine 3 oder 6GB Vram Karte von Nöten ist. Ich lasse mir dabei von dir nicht in die Suppe spucken nur weil du anderer Meinung bist.

Was ich aber amüsant finde sind diese lustigen Pauschalisierungen:

Pilstrinker schrieb:
Na ja, ein kleiner Vorgeschmack auf das Desaster, welches die Besitzer von 3GB-Karten immer häufiger erleben dürften, ergibt sich aus diesem Watch Dogs Diagramm.

Eine einzige Katastrophe für High-End-nVidia-Karten.

Ich finde es irre witzig wie du versuchst aus der Geschichte einen Strick für die GTX 780 zu drehen.
 
Zurück
Oben