Test Grafikkarten von Nvidia im Test: GeForce GTX 460, 560, 660, 760, 960 & 1060 im Vergleich

EchoeZ schrieb:
Was denn nun? Schauspieler oder psychische Erkrankung?

Dieser Francis ist eine von ihm erschaffene Figur.
Die anderen Sachen treffen auf die eigentliche Person zu.

Das Video ist Satire, sonst nichts.
 
Cytrox schrieb:
Selbst wenn die 970 als die übelste Krücke die diese Welt je gesehen hat in die Geschichtsbücher eingehen sollte, sie hatte allen AMD Karten immer noch voraus das sie sparsam genug war um im idle Betrieb die Lüfter nicht andrehen zu müssen. Und für manche von uns ist das nun mal ein Kaufgrund. Ja, selbst bei einem höheren Preis und bei weniger FPS - weil die Karte läuft nun mal ~90% der Zeit im idle.

Der war gut.

MSI 970 4G idle: 14w
MSI 290x Gaming Idle: 15W
MSI 290x Lightning Idle: 16W
Quelle:http://www.tomshardware.de/charts/v...tml?prod[7361]=on&prod[7291]=on&prod[7294]=on

Der gleiche Chip hat dann auf der 390/390x genauso das Zerocorefeature wie die 970 bekommen.
 
Cytrox schrieb:
Und für manche von uns ist das nun mal ein Kaufgrund. Ja, selbst bei einem höheren Preis und bei weniger FPS - weil die Karte läuft nun mal ~90% der Zeit im idle.

Da fällt mir noch was ein...wenn man schon einen auf Umweltengel macht...warum läuft denn bitte der PC dann 90% der Zeit im Idle. Wäre doch besser, den dann einfach in Standby zu schicken oder herunterzufahren. Zumindest heißt Idle für mich nichts am PC zu tun oder definierst du das anders?
 
kisser schrieb:
Leider sind die PCGH-Autoren wieder zu dämlich, das hier OFFENSICHTLICH vorliegende Treiberproblem zu erkennen.
Man vergleiche dazu auch die 3GB Karten GTX 1060 und GTX 780. Fällt was auf im Vergleich zur 280x?

Ja, dass nur die neuen Pascal Karten und alten Maxwell Karten>GTX980 einen vernünftigen Support bekommen haben oder wie ?

Ich seh nur eine R9 280X die definitiv über der Titan, GTX 780 und GTX 970 steht und eine R9 270X die sogar mehr fps als eine GTX670/770 hat ? am Speicher liegt das bestimmt nicht.
 
kisser schrieb:
Nein, dass hier ein Fehler für Karten <4GB RAM vorliegt.

Das kann man nur interpretieren.

Ich sehe eine GTX1060/ 3GB und eine GTX1060/6GB die eine Leistungsdifferenz von 5% haben, welche auf die Shader zurückzuführen ist, mit dem Speicher sollte das herzlich wenig zu tun haben.

Das Problem sehe ich nur bei Kepler/ Maxwell, schließlich ist die 6GB Titan auch betroffen und liegt unter einer R9 280X.
 
Zuckerwatte schrieb:
MSI 970 4G idle: 14w
MSI 290x Gaming Idle: 15W
MSI 290x Lightning Idle: 16W
Quelle:http://www.tomshardware.de/charts/v...tml?prod[7361]=on&prod[7291]=on&prod[7294]=on

Tja, blöd nur dass die Werte in meinem Fall irrelevant sind.

Hier mal ein anderes Benchmarkergebnis zur 970 vs 290 Thematik:

power_multimon.gif

matraj63 schrieb:
Da fällt mir noch was ein...wenn man schon einen auf Umweltengel macht...warum läuft denn bitte der PC dann 90% der Zeit im Idle.

Wenn ich im Browser surfe oder in Word etwas eintippe, dann ist bei mir die Grafikkarte im Idle. Ist das bei dir anders?

Ganz abgesehen davon, ich rede von der Lautstärke des Teils, nicht der Umwelt.
 
Auch wenn ich selber eine NVIDIA Karte habe bleibt NVIDIA was die langlebigkeit der Karten angeht ein schlechter DEAL die GTX 760 zum Beispiel war bei Release performater als die 7870 und hat an der 7950 gekratzt wenn man jetzt die beiden aktuellen Tests vergleicht schlägt sie nicht einmal mehr die 7870. Das gleiche Bild gibt es eigentlich in jeder Leistungsklasse wo AMD mal einen ähnlichen Gegenspieler parat hatte haben sie ja leider zur Zeit nicht wirklich. Ich nehme an bereits nächstes Jahr wird die RX 480 Meine Karte vermutlich schon überholen. ABer leider gab es diese nicht in der benötigten Größe.
 
Cytrox schrieb:
Ganz abgesehen davon, ich rede von der Lautstärke des Teils, nicht der Umwelt.

Ahja, da drehen die Lüfter bei AMD ja auf Hochtouren...nicht!
Ergänzung ()

Ich muss noch etwas ergänzen:
Also meinst du genau das Szenario, wo bei AMD ebenfalls die Lüfter stehen und die Karte lautlos arbeitet (übrigens mind. seit Rx 3xx) und die Leistungsaufnahme auf fast dem selben niedrigen Niveau wie bei NVidia ist...

Wo genau weigert sich AMD jetzt deiner Meinung nach stur?
 
Zuletzt bearbeitet:
Cytrox schrieb:
Tja, blöd nur dass die Werte in meinem Fall irrelevant sind.

Hier mal ein anderes Benchmarkergebnis

"MSI GeForce GTX 970 Gaming 4 GB
by W1zzard, on Dec 17th, 2014"


https://www.computerbase.de/2015-06...10/#diagramm-leistungsaufnahme-gesamtsystem_4

"24.06.2015 14:01, Wolfgang Andermahr "

Wie sich das bei einer 290x verhält, teste ich am WE gerne mal bei mir aus.

Hättest ja mal erwähnen können, das es dir speziell um Multimonitor geht. Das kam so nicht raus ;)

(https://community.amd.com/thread/180185 )

Edit: so Dualmonitor beide an, Browser offen.
dualmonitor setup.JPG

GPU scheint sich also runter zu takten, Memory bleibt aber immer gleich. Wäre mal interessant, wies bei einer 390x ist. Wahrscheinlich genauso
 
Zuletzt bearbeitet:
Ich glaube nicht, dass es schon erwähnt wurde, aber der Unterschied zwischen HD7870 und R9 270X ist deshalb so klein, weil es der selbe Chip bzw die selbe Karte ist! Nur mit ein paar MHz mehr!
Also man nehme eine HD7870, takte den Chip paar MHz höher und nenne es R9 270X. Fertig.
War ja als AMD das Namensschema änderte. Ein Paar Chips wurden ja umbenannt. Völlig gleich geblieben sind ja die R9 280 aka HD7950 und die HD7970 Ghz aka R9 280X!
Analog zur HD7870 --> R9 270X ist ja nVidia GTX680 zu GTX770!
Einfach eine 680 noch die paar MHz rausgequetscht und 770 genannt. Bei AMD warens noch ca +100MHz, bei der nVidia nur noch ca +40Mhz.


So, Nummer 2: Die Kepler Mittelklasse:
Die GTX660 Ti hat auch das beschnittene (asymetrische) Speicherinterface. Die 2 GB gliedern sich hallt in 1,5GB @ 192 Bit + 0,5GB @ 64Bit. Also 3 512MB Chips hängen an je 3 64Bit controllern, der vierte 512MB VRAM Chip hängt aber nur an einem 64Bit controller.
Der Chip ansich ist genau der selbe wie auf der GTX670!! Also gleiche Anzahl Shadereinheiten, etc. Takt ist halt noch leicht anders.
Es wurde also nur eine GTX670 an den Speichercontrollern beschnitten und als GTX660Ti verkauft.
Ich weiß das deshalb so genau, weil ich selber eine GTX660Ti nutze und mich vor dem Kauf natürlich besonders informiert habe.
Auch damals war ich mir dem "Problem" (was halt noch nicht als Problem in Erscheinung getreten ist) bewusst. Aber ich entschied mich dennoch für eine Karte mit dem Chip.
Wegen Benchmarks, dem Preis/Leistungsverhältnis und einem Mitternachtsangebot der leisesten GTX660Ti überhaupt: Der ASUS Direct CU II. 263€ damals, versandfrei, wenn ich mich recht erinnere. Ersetzte meine GTX460 1GB mit Standardkühler (auf der GTX460 waren die noch gut!) Von EVGA. FPB (free performance boost) Modell. Online registriert 10 Jahre(!!) Garantie!
OC ging auch leicht und weit nach oben, und es wurde nur das Luftrauschen an der Slotblende am PC hinten hörbar. Waren ja alles noch "direct Exhaust Kühler".

Die Karte ist als Ersatz noch im Keller im Schrank (iGPU in der CPU hab ich nicht).
Vl sollte ich sie mal wieder testen und hoffen sie geht kaputt um von evga eine neuere Ersatzkarte zu bekommen und diese dann verkaufen ;) Nein, bin ja kein Schmarotzer!!

Zurück zur GTX660 Ti: von der GTX660 aus gesehen hatte die Ti daher viel mehr Shadereinheiten und daher auch viel mehr Leistung!
Später kam noch eine Kepler, genannt GTX760. Völlig unnötig das Teil, hatte sie weniger Shader als eine GTX660 Ti, wurde aber deutlich schneller getaktet, dass sie trotzdem leicht schneller war.
Also meine asus 660Ti boostet ganz ohne zusätzlichen Eingriff (oc oder was immer) deutlich höher als von nvidia angegeben. Der OC Spielraum soll ach groß sein.
Bei meiner asus kommt dazu, dass sie nicht nur extrem(!) Leise ist, sondern auch extrem kühl.
Furmark bringt die Karte nicht in den hörbaren Bereich, die Temps bleiben lächerlich niedrig. Also da geht noch Einiges!
Folglich ist die GTX760 total fürn A.
Hier wurde sie aber getestet, genauso wie die R9 270X aka HD7870 OC.
Tja, hier wurde einfach nach Namensgebung und Jahreszahl getestet, nicht nach Chips.
Aber ok, wenns halt keine Karte mit neuem Chip gab und die wiederverwerteten eine gewisse Absatzzahl hatten, versteh ich das.

Die GTX960 hätte echt super werden können, aber das auf 128Bit beschränkte Speicherinterface hat sie dann unbrauchbar gemacht.
Argumentiert wurde ja mit der Speicherkompression von Maxwell ggü Kepler.
Aber 128bit und zu DEM Preis damals? Nö nVidia, Nö!


So, hoffe ich habe nix vergessen was ich sagen wollte.
Es gibt online auch eine Seite, wo sämtliche Chips tabellarisch nach specs aufgeschlüsselt sind.
Da kann man dann super die Shaderzahl, MHz, SI, Speicherbandbreite, ROPS, TMUS, etc miteinander vergleichen.
Also innerhalb einer Generation grob Shader x MHz rechnen (für die Chipleistung), und dann noch die Größe vom VRAM und auch die Anbindungssgeschwindigkeit! Letztere ist die ganze Zeit wichtig, solange der VRAM nicht voll ist. Ist er das, ist das Spiel plötzlich unspielbar.
Aber so lange es läuft, ist vom vram genug da und es zählt nur die Bandbreite.

Jaja, ich weiß, Shader x MHz ist eine Milchmädchenrechnung, aber ich sagte ja, dies gilt ausschließlich nur innerhalb einer Generation, gibt aber grob die Leistung wieder.
Natürlich gibts dann noch weitere Unterschiede zB die Anzah an Raster Operatoren (ROPs), Texture Mapping Units (TMUs), Anzahl und Effizienz von Tesselatoren etc pp.

Wenn ich am PC bin und den Link zur Tabelle habe mache ich eine Tante Edit.


MfG
 
aivazi schrieb:
Das kann man nur interpretieren.

Ich sehe eine GTX1060/ 3GB und eine GTX1060/6GB die eine Leistungsdifferenz von 5% haben, welche auf die Shader zurückzuführen ist, mit dem Speicher sollte das herzlich wenig zu tun haben.

Dann siehst du da offenbar was anderes als ich, denn das sind mehr als 5%:
 

Anhänge

  • Image7.jpg
    Image7.jpg
    15,3 KB · Aufrufe: 615
Das ist 1440P.. Was erwartet man auch von einer Karte, die schon bei Erscheinen deutlich zu wenig VRam mit sich bringt?

Unter FullHD hingegen ist die 6GB-Karte tatsächlich nur 5FPS schneller als die 3GB-Version. Also 95 zu 90FPS, ergo 5/90, oder ~ 5,5%.
Deine Aussage, dass bei nVidia alle Karten <4GB noch einen Treiberfehler haben stimmt wohl so nicht. Kepler, Maxwell und Pascal performen allgemein nicht besonders gut in Resident Evil. Besonders nVidias alte Generationen, oder die 970 hat große Probleme.
 
Hmm, ca. dreifache Leistung mit meiner baldigen Notkarte gegenüber meiner 470. Die neue wird eine 960 und wird dann verwendet, wenn die 1080 mal verkauft wird oder kaputt ist. Bei GTA5 müsste die auf Niedrig 180-300FPS rum schaffen, bzw. nicht voll ausgelastet sein wegen CPU-Limit oder Engine-FPS-Limit.
 
tomasvittek schrieb:
Es war schon peinlich genug als du das erste Mal auf Francis Kunst Figur "Boogie" reingefallen bist. Du wirst deine Situation kaum verbessern indem du weiter darauf rumreitest.
Ironischen Applaus dem Herren...

Den Applaus gebe ich gerne zurück, scheinbar hast Du den Bezug nicht verstanden, obwohl ich es mehrmal verdeutlicht habe ;)
Egal ob Show oder echt, es ist (für mich) ein Paradebeispiel für Leute, die über 1300 Stunden im Jahr zocken, und sich wegen Stromkosten beschweren. Die haben halt mit Sicherheit andere Sorgen. Und weil ich auf LANs genau solche Ausraster-Typen mit hohen Spielzeitaufkommen kennen gelernt habe (und nicht nur dort) bleibe ich dabei :D

Cytrox schrieb:
Genau! Weil eine Glühbirne kommt selbst bei 100W noch ohne aktive Kühlung aus! :evillol:
Noch so ein Raffnix, der einen Satz herauspickt um die Worte im Mund rumzudrehen... Eine Glühbirne mit den Stempel 100W 'verbraucht auch in 10 Stunden 1kWh. Für eine Graka mit TDP 100W gilt das NICHT!
Jetzt geschnallt ?:evillol:

Manch einer hier im Forum hat einem Weitblick...gerade soweit wie er sich selbst werfen kann...
 
Genau deswegen nimmt man ja idR auch Benchmarks wie Furmark damit die GPU wirklich voll Last schiebt das ist dann eben der worst case. Aber ja es sollte schon klar sein, dass die GPU nicht immer auf 100% läuft auch wenn sie 100% ausgelastet ist.
 
Zurück
Oben