Test Asus GeForce GTX 1060 3 GB im Test: 3.072 MB VRAM reichen nicht immer aus

Auf der zweiten Seite sind bei der Tabelle "Die Asus GeForce GTX 1060 3 GB Dual OC im Vergleich zur Founders Edition" die Lüfter verkehrt aufgelistet - zumindest hat die Asus-Karte auf allen Bildern zwei Lüfter :)
 
ZRUF schrieb:

Was ich etwas tendenziös wirkend finde, ist allerdings, dass im Fazit gleich mehrfach darauf hingewiesen werden muss, wie toll doch das nVidia-Speichermanagement sei, auch wenn es trotzdem nicht hilft. Das wirkt irgendwie ein bisschen wie: Irgendwie müssen wir ja auch noch auf AMD spucken, wenn nVidia schon kritisiert wird.

Ist doch typisch …
Am traurigsten finde ich es, daß hier zielbewußt einmal mehr von ComputerBase eine nVidia-Karte schöngeredet wird. Selbst ihre offensichtlichen Schwächen wie das konsequente einbrechen der Frames verursacht durch den zu geringen Speicher weiß man mit schlechtestenfalls neutralen Formulierungen zu beschönigen, indem man sagt, daß „plötzlich die Framerate abfällt“. Klingt ja nun einmal bei weitem nicht so drastisch wie „einbrechen“.

Ganz allgemein wird im gesamten Artikel nur entfernt diffus darüber lamentiert, daß 3072 MByte halt „manchmal nicht genug“ seien. Überall das selbe Bild: Da wird verniedlicht von der „zweiten Version der GeForce GTX 1060“ geschrieben und blumig von „Schwächen der kleinen Version“.

Stromverbrauch!
Wie bitte? Die Karte ist um etliche Shader kastriert, hat um die Hälfte weniger VRAM zu versorgen, und verbraucht trotzdem mehr als die 6-GByte-Version. Bitte, was?! Der Verbrauch der für eine beschnittene, solch schwache Karte – bei der ja erwiesenermaßen nur die Hälfte des VRAMs auf der Haben-Seite zu Buche schlägt und zudem die GPU weniger Einheiten befeuern muß – exorbitant und unerklärlich hoch liegt, wird wieder in‘s beste Licht gerückt:
„Unter Last genehmigt sich der Testrechner im Durchschnitt 192 Watt und damit vier Watt mehr als die GeForce GTX 1060 Founders Edition mit dem doppelten Speicher. Der Grund dafür ist in den leicht höheren Taktraten der GeForce GTX 1060 3 GB Dual OC. Das überwiegt den positiven Effekt aus weniger VRAM und weniger Shadern.“
— Zitat ComputerBase

Selbst das Fazit ist positiv …
Obwohl man als Résumé des Ganzen eine Empfehlung für die Konkurrenz aussprechen muß, kann man es sich wieder nicht verkneifen, zumindest im Abgang noch ein paar positive Noten fallen zu lassen und das Schlussbild zumindest neutral zu gestalten.

Im gesamten Artikel findet sich nirgendswo ein einziges Mal eine Erwähnung, daß hier nVidia mal wieder durch den identischen Namen mit Täuschungsabsicht schlicht Bauernfängerei betreibt. Daß jenes kapitale Manko nicht einmal als größter Negativ-Punkt in‘s Fazit wandert, ist einfach nur be·schä·mend! … und dann wundert man sich allen Ernstes , daß man als nVidiaBase verschrien ist.

@Wolfgang
Warum findet die offensichtliche Trickserei nicht ein einziges Mal Erwähnung? Das ist arglistige Täuschung und das wißt ihr!

Wieso findet ihr die extrem erhöhte Stromaufnahme im Vergleich zum 6-GByte-Modell nicht Besorgnis erregend und tut das lapidar mit dem höheren Takt ab? Der höhere Takt kann doch unmöglich den Verbrauch der fehlenden 3 GByte kompensieren und sogar überschreiten?! Das sind lediglich 4,9% beim Basis-Takt respektive 4,6% beim Boost-Takt, welche stärker in‘s Gewicht fallen als die Leistungsaufnahme von 3 GByte GDDR5. Ist das euer Ernst? Mit der Karte stimmt doch etwas nicht!

In diesem Sinne

Smartcom
 
Wann werden es die Leutchen nur endlich begreifen, dass ein Test zum Release einer Karte so gut wie nichts über deren Halbwertszeit aussagt? Heute werden Spiele getestet, die es heute gibt. Also sind die Ergebnisse nicht verwunderlich. Hier wird die Gegenwart abgebildet.

Gut gemeinter Rat von mir an potenzielle Käufer:
Du bist im Zweifel, was du dir kaufen sollst und hast nicht viel Geld?
Du weißt nicht, wem du glauben sollst, weil hier jeder etwas Anderes erzählt?
Spare lieber noch etwas und kaufe dir keine 3GiB (Nvidia) oder 4GiB (AMD) Karte. Du wirst es in einigen Jahren nicht bereuen! Darauf verwette ich mein linkes Ei.


trane87 schrieb:
Ist zwar wieder First World Problem, aber ich hätte gerne eine bezahlbare Karte mit 12GB VRAM.
Kommt in einigen Monaten. Für etwa 800 Euro als GTX1080ti. Gedulde dich noch ein wenig. Ich fürchte, dieser Betrag muss einem 4k derzeit jedoch wert sein, wenn man kaum Kompromisse bei der Bildqualität eingehen möchte.
 
Naja also der Test zur RX470 8GB ist doch irgendwie überflüssig. Da kann man sich auch direkt die Werte der RX480 8GB anschauen, die paar Prozent die der 470 fehlen kann man sich dann selber denken.
 
Ja is halt die OEM Blender Karte. Da steht dann schön GTX1060 drauf und gut. Sry aber diese Karte müsste umbenannt werden. Die selbe Bezeichnung nur mit weniger RAM geht garnicht. Das ist nicht die selbe Hardware und das sollte man auch so kennzeichnen müssen. Meinetwegen 1060LE, oder sowas in der Art. Das hier is aber Bauernfängerei.
 
Netter Test der nur das bestätigt, was sich alle gedacht haben.
Irgendwie kommt mir die Karte 2016 vor wie ne 970 GTX 2.0 .
Denn wenn sich nicht gerade die Grafikkarte im htpc in Luft auflöst würde ich hier eher auf eine passive 1050 2gb Version warten.

Trotzdem kenne ich einige für die diese Karte ein guter Kauf wäre.
Und für meine Ansprüche reichen auch die 6Gb der 1060 aus.
Ind er WoW Gilde von ca 40 Leuten sieht es so aus das es ca 5-10 Leute gibt die richtig viel Geld reinbuttern und eher i6 6600 und i7 6700 nutzen mit enstprechender graka und ram und der rest bewegt sich sehr weit dahinter und gibt fast nicht aus sondern das ganze muss einfach laufen .
DA stecken Prozessorseitig maximals ein fx 6300 drinnen und auf Grakaseite als Maximum eine 760 2gb 660Ti und ähnliches.
Einen Auflösung von 1440p oder höher ist da auch keine Option da viele hier auch das TV Gerät benutzen als Monitor.

Trotzdem hat die 1060 3gb das Problem das es die 470 und 480 mit 4gb gibt und man diese bei einem Neukauf eher empfehlen kann bei selben Preis oder man sich auf dem gebrauchtmarkt nach einer billigen 980 umsieht.
Theoretisch könnte es für diese Bekannten von mir, die nicht so viel Geld in den PC stecken wollen sogar eine 3,5 GB GTX 970 für 150€ oder weniger sein, als optimaler Mittelweg aus P/L .
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
Im gesamten Artikel findet sich nirgendswo ein einziges Mal eine Erwähnung, daß hier nVidia mal wieder durch den identischen Namen mit Täuschungsabsicht schlicht Bauernfängerei betreibt. Daß jenes kapitale Manko nicht einmal als größter Negativ-Punkt in‘s Fazit wandert, ist einfach nur be·schä·mend! … und dann wundert man sich allen Ernstes , daß man als nVidiaBase verschrien ist.

@Wolfgang
Warum findet die offensichtliche Trickserei nicht ein einziges Mal Erwähnung? Das ist arglistige Täuschung und das wißt ihr!


Smartcom

Da hat Volker sich in der News hier viel deutlicher ausgedrückt.

https://www.computerbase.de/2016-08/geforce-gtx-1060-3-gbyte-1152-shader/

Volker schrieb:
Bauernfang unter gleichem Namen

Ohne eine Anpassung des Namens auch nur auf minimale Weise steht der nicht voll informierte Kunde im Laden vor einem Dilemma. Während 3 GByte als Speicher auf den ersten Blick „nur“ nach einer Halbierung aussehen, sorgen zusätzlich zehn Prozent weniger Shader dann im Gesamtpaket eben doch für einen deutlichen Unterschied bei eigentlich namensgleichen Modellen.
 
  • Gefällt mir
Reaktionen: TechFA
Na na,
so schlecht ist die Karte nun auch nicht,
ich spiele mit meiner GTX 960 2GB auch noch fast alles in guter Qualität. :)
Auch Battlefield 1 läuft fflüssig.
 
VikingGe schrieb:
Was mich an der Methode stört, ist, dass sie noch nicht viel über Real World-Texturen aussagt. Da komplett monochrome Texturen mit mehr als einem Pixel Größe eher die Ausnahme sind, wird es in der Praxis kaum relevant sein, ob diese bei Grafikkarte A nun 3x so effektiv komprimiert werden wie bei Grafikkarte B, wenn gleichzeitig die Kompression von Details ineffektiver ist (so ähnlich wie beim Vergleich von Lossless JPEG mit PNG).
Nein, die Kompression arbeitet (zumindest bei NVIDIA, AMD hinkt hier hinterher) sehr gut, auch in realen Spielen:
pascal-memory-compression-vs-maxwell-jpg.161019

Rosa sind komprimierte Bereich.

Effektiv kommt NVIDIA da auf eine Steigerung von 40-50% (Maxwell: 20-30%, Pascal 20% zusätzlich zu Maxwell).

Smartcom5 schrieb:
Stromverbrauch!
Wie bitte? Die Karte ist um etliche Shader kastriert, hat um die Hälfte weniger VRAM zu versorgen, und verbraucht trotzdem mehr als die 6-GByte-Version. Bitte, was?! Der Verbrauch der für eine beschnittene, solch schwache Karte – bei der ja erwiesenermaßen nur die Hälfte des VRAMs auf der Haben-Seite zu Buche schlägt und zudem die GPU weniger Einheiten befeuern muß – exorbitant und unerklärlich hoch liegt, wird wieder in‘s beste Licht gerückt:
Ich suche gerade den Facepalm-Smiley...

4W (!) bei einem Gesamtsystem-Verbrauch von 188W als "exorbitant" zu bezeichnen, ist selbst dann lächerlich, käme es von der AMD-Marketingabteilung. Der Unterschied beträgt gerade mal 2 Prozent!

Zumal die Karte Karte zwar um Shader kastrierte wurde, ggü der 6GB-Version aber mehr Cluster versorgen muss. Und die Leistungsaufnahme von den Speicherchips auch identisch sein dürfte, unabhängig ob 3 oder 6 GB.

Also wirklich, da rettet auch kein FettKursivundUnterstrichen.
 
Smartcom5 schrieb:
Stromverbrauch!
Wie bitte? Die Karte ist um etliche Shader kastriert, hat um die Hälfte weniger VRAM zu versorgen, und verbraucht trotzdem mehr als die 6-GByte-Version. Bitte, was?! Der Verbrauch der für eine beschnittene, solch schwache Karte – bei der ja erwiesenermaßen nur die Hälfte des VRAMs auf der Haben-Seite zu Buche schlägt und zudem die GPU weniger Einheiten befeuern muß – exorbitant und unerklärlich hoch liegt, wird wieder in‘s beste Licht gerückt:

Das ist nun aber so, Taktraten und dafür nötige Spannungen machen wesentlich mehr aus als ein paar abgeschaltete Einheiten oder ein bischen VRAM. Bei der GTX 1060 sind ja nun die Taktraten identisch und hier handelt es sich um ein OC-Modell. Die verbrauchen ohnehin meist ein gutes Stückchen mehr, weil die Hersteller auch nicht mit Spannung geizen - Es müssen ja möglichst viele Chips die Taktrate schaffen.
Bei RX 470/480 sind bei ansonsten identische Varianten auch nur 20-30W unter Last (Die 480er takten meist höher, auch beim Speicher).
 
Einstein90 schrieb:
So schlimm, wie es in diesem Review beschrieben ist, scheint das VRam-Problem nicht zu sein. Natürlich kommt es auf die Spiele an, aber niemand wird gezwungen, mit Ultra-Details zu spielen.

Nun hör aber bitte auf und setzt die grüne nVidia Brille ab, denn wer kauft denn für den Vollpreis eine so unausgegorene Karte (was das Leistungs- zu Speicherverhältnis angeht), die jetzt schon in nicht wenigen aktuellen Spieletiteln deutlich ruckelt (wie soll das erst in 1-2 Jahren werden), das ist eine Zumutung und Kundenabzocke/-täuschung par excellence.

Wenn Du das nicht so siehst (mit dem nVidia-typischen Speichergeiz außerhalb der Titan-Serie leben kannst), ist das Dein gutes Recht, aber empfehlenswert ist diese 3 GB Karte "Typ Bauernfänger" (mit Speicherausbau Stand 2012) sicherlich heutzutage für kaum einen (da kannst Du noch so viele Videos mit ausgesuchten/cherry-picked Benchmarks hier auffahren), da laufen selbst die Vorgenerations mit 4 GB bestückten R9 380(X) und GTX 960 GPUs für geringere Anschaffungskosten runder.

Insgesamt sind die RX 470 Karten (die Sapphire Nitro+ bietet übrigens eine Backplate und ist besser als das MSI Modell wegen des höher getakteten Speichers und Bios-Fix) selbst in der kleinen Variante mit 4GB die bessere Investition für maximal 2 Jahre, wer die Karte länger/maximal "ausfahren" will, der sollte in jedem Fall zur 8 GB Version greifen.


@ Kasmopaya

D708 schrieb:
Wo ist unser VRAM Guru, wenn man ihn braucht?

Dein Typ war gefragt und wie es ausschaut bist Du dem Ruf gefolgt :D.

Zwirbelkatz schrieb:
Darauf verwette ich mein linkes Ei.

Was würde es brauchen, damit Du darauf auch noch Dein rechtes Ei verwettest :o ;)?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
JazzLash schrieb:
Ist er, behauptest du das Gegenteil?

Hör doch mal endlich auf zu trollen hier und les den Test! :freak:

Wolfgang hat doch explizit geschrieben, dass man eben nicht nur auf die Länge des Balkens schauen soll, da extreme Ruckler auftreten die einem den Spielspaß doch sehr trüben...
Von daher hilft es einem herzlich wenig den "längeren" Balken zu haben, wenn man damit trotzdem weniger Freude als mit einer "langsameren" RX 470 hat.
So schwer zu verstehen?
 
Zuletzt bearbeitet:
Wenn jemand nur Spiele zockt, die weniger als 3GB verbraten ist die Karte ein absolutes Schnäppchen.
Für alle anderen sowie unwissenden ist sie Schrott. Ich bin schon auf Threads gespannt wie "warum ruckelt mein Spiel ich hab doch ne fette 1060"
 
AlessandroVolta schrieb:
Wie bereits gesagt: Black ist eine rein schwarze Textur - hier kann die Kompression nahezu perfekt arbeiten. Random sind einfach nur absolut zufällige Farbwerte und damit überhaupt nicht komprimierbar.

Hier im FuryX Test erklärt:

http://techreport.com/blog/28800/how-much-video-memory-is-enough

Ah, Danke, das hilft schon eher fürs Verständnis. Jetzt wäre es noch interresant, wie sich das in der Praxis unterm Strich auswirkt. Gibt ja nicht nur die zwei Extreme.

Für die GTX 1060 mit 3GB heißt das, dass sie vermutlich noch ein klein wenig besser komprimiert als die RX480, sagen wir mal im Schnitt halt so 10% gesamt (Mix aus gut und weniger gut zu komprimierenden Texturen), aber trotzdem 25% weniger VRAM besitzt (im Vergleich zur RX480/470 4GB). Da glaub ich nicht, dass die bessere Kompression den VRAM-Mangel wett macht.
 
matraj63 schrieb:
Für die GTX 1060 mit 3GB heißt das, dass sie vermutlich noch ein klein wenig besser komprimiert als die RX480, sagen wir mal im Schnitt halt so 10% gesamt (Mix aus gut und weniger gut zu komprimierenden Texturen), aber trotzdem 25% weniger VRAM besitzt (im Vergleich zur RX480/470 4GB). Da glaub ich nicht, dass die bessere Kompression den VRAM-Mangel wett macht.
Aha. Ich verlinke dir einen Test mit einem Kompressionsvorsprung von NVIDIA bei der älteren Maxwell-Architektur von >60% (und Pascal ist da noch besser geworden) und du behauptest einfach mal "halt so 10%".

Hast du belastbare Zahlen oder denkst du dir einfach nur irgendwas aus? Das ist nämlich ziemlich lächerlich, nachdem ich dir hier harte Fakten geliefert habe.

Tatsächlich erreicht Maxwell schon >20%:
BandwidthSavings.png

Und Pascal noch mal 20% oben drauf:
PascalCompress.png


Selbst der Worst case liegt oberhalb deiner 10% und beide addiert erreicht man exakt 30% Kompressionsvorteil.
 
Die Karte ist so unnötig wie ein Kropf.

Mich überzeugen aber auch nicht die RX 480/470/460, GTX 1060/1070/1080.
Entweder sind sie zu teuer, oder konkurrieren direkt mit der Leistung der 28nm Generation(-en).

Bei den CPU-Test stand früher schon oft, dass "sich dieses Angebot hauptsächlich an Besitzer älterer CPUs richtet". Jetzt trifft das auch schon teilweise bei den GPUs zu. Jetzt wird hier auch öfter wieder der Blick zum Gebrauchtmarkt empfohlen, oder Angebote der letzten Gen im Abverkauf. Ich lese auch öfter das Wort "Sidegrade". Einigen ist also schon so langweilig, dass sie sich neue GPUs kaufen, obwohl sie sich rein von der Leistung nicht verbessern.

Hoffentlich endet diese Stagnation im GPU-Bereich wieder, und mit AMDs ZEN kommt ja bald endlich wieder etwas Schwung bei den CPUs.
 
Zuletzt bearbeitet von einem Moderator:
JazzLash schrieb:
Betrifft das jedes Spiel?
So schwer zu verstehen?

Brauchst deine Begriffsstutzigkeit nicht auf andere projizieren:rolleyes:
Man kauft sich eine neue Graka, um richtig, neue Spiele damit spielen zu können. Und das es da zu Problemen kommen kann hat Wolfgang aufgezeigt.
Von daher brauchst du nicht davon zu reden, dass sie pauschal besser wäre, den dies ist schlichtweg falsch.
Und wieso nimmst nicht die Benches von hier? Nicht gut genug?
Wenn du unbdingt eine Nvidia haben möchtest kauf dir halt die 6 GB Variante, aber 3 GB sind einfach nicht mehr zeitgemäß, das merke ich an meiner GTX 780.
 
Zurück
Oben