Test Asus GeForce GTX 1060 3 GB im Test: 3.072 MB VRAM reichen nicht immer aus

Meine Sapphire rx 470 Nitro+ mit 8Gb hat 230€ bei Amazon.fr gekostet. Ja, war ein Schnapper aber damit erübrigt sich die Frage ob eine 1060 mit 3 oder gar 6 GB sinnvoller ist bzw. stellt sich die Frage erst gar nicht. Viele Tests die ich gesehen habe, belegen dass diese Karte mi ein wenig OC bereits jetzt schon die 1060/6GB rein FPS technisch kommt. Undervolting sei Dank, kommt sie auch auf einen ähnlichen Stromverbrauch. Zukünftig wird die Karte mit Vulcan/DX12 mehr profitieren als mit einer vergleichbaren Nvdia Karte.

Dafür habe Freeysnc, 8GB Vram, eine sparsame und flüsterleise Max 35dbA Karte, welche ich minimal 2, eher 3 Jahre für FullHD Nutzen kann. Selbst zum normalen Preis von ca. 260€ würde ich diese Karte einer rx480 oder 1060 vorziehen. Derzeit ist sie aber überall ausverkauft.

Die 1060/3GB halte ich für einen schlechten Scherz!
 
Nehm ich doch? Im Gesamtrating führt die 1060 mit 3gb gegenüber der RX4XX Karten, und in den Frameverläufen bei DigitalFoundry sehen diese stabil aus.

dass diese Karte mi ein wenig OC bereits jetzt schon die 1060/6GB rein FPS technisch kommt.

Die Pascal Karten lassen sich besser OCen. :cool_alt:

Aber mit 230€ hast du auf jeden Fall alles richtig gemacht.
 
Zuletzt bearbeitet:
Nach erneuter Lektüre des VRAM Specials in der PCHW Print frage ich mich doch, warum dort komplett andere Ergebnisse rauskommen im Vergleich zu diesen Videos der letzten 2 Seiten?
 
Ich kauf doch keine Karte, die am Kaufdatum schon am VRAM Limit kratzt.
 
AlessandroVolta schrieb:

Ich halte es für grundsätzlich falsch, dass man Marketingfolien verlinkt und dann versucht wahrheitsgetreue technische Details daraus zu ziehen.

Oder kurz: nVidias Kompression in allen Ehren, aber deren Marketing ist einfach ein Lügenverein. Ergo sehe ich diese Kompressionswerte nicht als real an, bis nicht in Spielen bewiesen.

Des weiteren halte ich zu starke Kompression in Zeiten von physically-based-Renderer für gefährlich, da möglicherweise viel zu schnell bildverfälschend.
 
Aber bei DX12 widerspricht dir gerade die aktuelle Kolumne von Wolfgang:
Wenn die Entwickler, die aktuell die Dx12-Implementierungen vergeigen, Vulkan nutzen würden, sähe das ganze nicht anders aus - nur, dass dann alle auf Khronos herumhacken würden und Dx12 in den Himmel loben würden, weil AOTS dann eben das einzige Positivbeispiel wäre.

Nur mal so als Erinnerung, weder in Talos Principle, noch in Dota 2 hat der Vulkan-Renderer bisher irgendwelche Vorteile gegenüber Dx11. Die Leute haben schon Grabreden auf Vulkan gehalten - wahrscheinlich dieselben, die die Schnittstelle wegen Doom jetzt in den Himmel loben und dabei vergessen, dass a) bei Id jede Menge technisches Know-How arbeitet und b) eine brandneue Engine eingesetzt wird, die bereits gut auf die neuen Gegebenheiten angepasst worden sein dürfte. Und letzteres ist, wie so viele hier schon vor mir geschrieben haben, genau das, was aktuell fehlt.
 
Chillaholic schrieb:
Da hat Volker sich in der News hier viel deutlicher ausgedrückt.
Ja, warum findet sich so etwas nicht im Test der Karte, da wo es hingehört?!

@Wolfgang
Mensch Wolfgang, Du hast echt richtig gute Arbeit gemacht bei den letzten Artikeln und Nachrichten zum IDF und Computex, waren richtig toll zu lesen, und dann kommt wieder so ein Quatsch. Kommt doch bitte mal aus eurer grünen Ecke und traut Euch, Mist als Mist und negative Aspekte als eben solche zu benennen!

Was soll denn schon passieren? Daß ihr die nächste nVidia-Karte zum Release nicht bekommt? Wow …
Na und? Keinen interessiert‘s, wenn ein Test später kommt, er wird dann halt nur später gelesen – so etwas solltet ihr doch schon bei den Zugriffszahlen sehen! Dann kriegt ihr halt die Karte vom Kollegen einer befreundeten Redation. Gibt es nicht? Gut, dann holt man die sich aus dem Einzelhandel, wenn Huang mal wieder bockiges Kind spielt. Ich kapier‘s einfach nicht …

AlessandroVolta schrieb:
Ich suche gerade den Facepalm-Smiley...

4W (!) bei einem Gesamtsystem-Verbrauch von 188W als "exorbitant" zu bezeichnen, ist selbst dann lächerlich, käme es von der AMD-Marketingabteilung. Der Unterschied beträgt gerade mal 2 Prozent!

Zumal die Karte Karte zwar um Shader kastrierte wurde, ggü der 6GB-Version aber mehr Cluster versorgen muss. Und die Leistungsaufnahme von den Speicherchips auch identisch sein dürfte, unabhängig ob 3 oder 6 GB.
Schön, wie Du meine Aussage mal wieder aus dem Zusammenhang reißt …
Lerne lesen. Niemand hat behauptet, daß der Verbrauch exorbitant über der Referenz mit jener 6GByte liegt.
Meine Aussage war vielmehr, daß er für die Verhältnisse in Relation (sic!) unerklärlich hoch liegt – ist ein kleiner aber feiner Unterschied, welcher Dir offenischtlich entgangen ist.

Deine Aussage der zwei Prozent machen auch dann nicht das „exorbitant“ wett, wenn Du‘s noch so vermeintlich schön im Kontext versucht zu verstecken. Fakt ist, die Karte hat 10% weniger Shader und um 50% verringerten VRam und verbraucht trotzdem nicht nur in Relation unerklärlich mehr als die Founder‘s Edition mit 6 GByte sondern auch absolut, obwohl sie lediglich weniger als 5% mehr Takt hat.

Und was bitte soll dein Satz von wegen daß die „Leistungsaufnahme von den Speicherchips auch identisch sein dürfte, unabhängig ob 3 oder 6 GB“? Wie kommst denn auf so einen Nonsense? Meinst Du, die 3 GByte leben von Luft und Liebe oder was? Gerade der VRam-Stromverbrauch war schon immer ein signifikanter Faktor in der Leistungsaufnahme des Gesamt-PCB.

Tigerfox schrieb:
Das ist nun aber so, Taktraten und dafür nötige Spannungen machen wesentlich mehr aus als ein paar abgeschaltete Einheiten oder ein bischen VRAM. Bei der GTX 1060 sind ja nun die Taktraten identisch und hier handelt es sich um ein OC-Modell. Die verbrauchen ohnehin meist ein gutes Stückchen mehr, weil die Hersteller auch nicht mit Spannung geizen - Es müssen ja möglichst viele Chips die Taktrate schaffen.
Bei RX 470/480 sind bei ansonsten identische Varianten auch nur 20-30W unter Last (Die 480er takten meist höher, auch beim Speicher).

Ich weiß, daß diese Karte ein OC-Modell ist. Ich weiß ebenso, daß ein Chip außerhalb seines Sweetspots erheblich oder gar exorbitant mehr Strom verbraucht, wenn er mit höherem Takt gefahren wird – gerade GPU's. Das erklärt aber noch lange nicht, weswegen nicht einmal 5% mehr Takt derart desaströs das Gesamtbild des Verbrauchs zerstören, obwohl die Hälfte an VRam und eine reduzierte Shader-Anzahl den Verbrauch erheblich nach unten drücken müßten.

Das bedeutet, obwohl die Karte mit weniger Shadern und nur der Hälfte an VRam läuft, vernichten die ±4,9% beim Basis-Takt respektive ±4,6% beim Boost-Takt nicht nur den verringerten Verbrauch der teil-deaktivierten GPU, sondern machen obendrein auch die gesamte Stromersparnis der 3 GByte GDDR5 zunichte.
Ich bleibe dabei, die Karte ist strange. Bei praktisch allen anderen Reviews verbraucht sie sogar signifikant mehr (±25-45W) als die normale GTX 1060, slbest bei nahezu identischem Takt.

AlessandroVolta schrieb:
Nein, die Kompression arbeitet (zumindest bei NVIDIA, AMD hinkt hier hinterher) sehr gut, auch in realen Spielen:

Effektiv kommt NVIDIA da auf eine Steigerung von 40-50% (Maxwell: 20-30%, Pascal 20% zusätzlich zu Maxwell).
Schon Tonga hatte bereits effektiv ±27%, Polaris bringt‘s auf ±36%.
AlessandroVolta schrieb:
Aha. Ich verlinke dir einen Test mit einem Kompressionsvorsprung von NVIDIA bei der älteren Maxwell-Architektur von >60% (und Pascal ist da noch besser geworden) und du behauptest einfach mal "halt so 10%".

Selbst der Worst case liegt oberhalb deiner 10% und beide addiert erreicht man exakt 30% Kompressionsvorteil.
Und was sind 40-50% - 36%? Keine 14%?

Davon ab, was bringt einem höhere Frames, wenn dabei die Bildqualität extremst drunter leidet?
Da habe ich lieber 10% weniger FPS, aber dafür habe ich etwas für‘s Auge. Dieses getrickse im Hintergrund nur um den längeren Balken zu haben – und wenn‘s auch nur ein, zwei Prozent sind – ist mit verlaub einfach nur kindisch und trifft gebührend stets die Richtigen.


In diesem Sinne

Smartcom
Ergänzung ()

matty2580 schrieb:
Bei Vulcan mag das vielleicht in Zukunft so sein, obwohl es da bisher nur dass neue Doom gibt.
Aber bei DX12 widerspricht dir gerade die aktuelle Kolumne von Wolfgang:
https://www.computerbase.de/news/grafikkarten/kommentar-directx-12-es-hakt.56653/

Mit Verlaub, aber es wird ja auch derzeit seitens der Studios und Medien alles dafür getan, damit es scheitert. Da bleiben solch frühzeitige Abgesänge von erklärten nVidia-Enthusiasten kaum aus – profitiert hier doch in erster Linie nVidia davon, während AMD aus DirectX 12/Vulkan mehr Vorteile ziehen würde oder es zumindest zu einem Gleichstand käme. Offensichtlich nicht gewollt, weder von einschlägigen Medien, noch von der Branche, die sich wahrscheinlich über die Jahre an die Gelder vom Team Grün schlicht gewöhnt hat.


In diesem Sinne

Smartcom
 
Ich bin weder pro AMD (das war ich früher) noch pro Nvidia.

Ich würde auch nicht von einem Scheitern bei DX12 schreiben. Dafür ist es noch viel zu früh. Aber dieser Prozess bis DX12 sich langsam durchsetzt, dauert halt schon über 2 Jahre an, und es wird auch noch Monate/Jahre andauern.

D.h. hier ist nur ein sehr kleiner Mehrwert gegenüber älteren APIs entstanden. Und es ist aktuell und in naher Zukunft einfach falsch zu behaupten, dass hier ein Kriterium für oder gegen einen Hersteller von GPUs besteht.

Irgendwann in 2 Jahren gibt es schon wieder ganz andere, modernere GPUs, sowohl von AMD als auch von Nvidia. Dann kann man das auch gerne als Kaufargument nennen, aber NICHT jetzt.

Das schreibe ich aber selbst schon seit über 2 Jahren. Und jetzt bestätigt das noch einmal Wolfgang mit seiner Kolumne. ^^
 
Zuletzt bearbeitet von einem Moderator:
@Wolfgang,
danke für den Test.

Zur Karte selbst habe ich gemischte Gefühle. Die Bezeichnung ist nicht unglücklich, sie ist irreführend. Da ist AMD mit der 470 einfach den besseren Weg gegangen.

Die Leistung der Karte an sich selbst ist ok. Jedoch 3GB VRam sind 3GB Vram. Heute teilweise zu wenig. In Zukunft immer öfter zu wenig. Bin mal gespannt ob es die FakeGTX1060 mit 6GB Vram geben wird. So wie es auch die RX470 mit 8GB Vram gibt.

Derzeit kann ich Leute nur zur Originalen GTX1060 raten als zur der hier vorgestellten.

@Smartcom
Es sind vielleicht Chips welche in der Produktion nicht für die Originale GTX1060 gereicht haben. Kann gut sein, das nicht nur der Cut den Unterschied zwischen FakeGTX1060 und Original GTX1060 ausmachen, sondern auch ein schlechterer Leistungsverbrauch.
 
Normale Grafikkarten scheint Nvidia nur im oberen Preissegment anzubieten.

Wenn ich 300€ oder mehr investiere will ich auch eine gute Grafikkarte und nicht eine Grafikkarte die den Eindruck einer Krüppelkarte erweckt.

Die GTX 1060 empfinde ich schon wegen dem 192 Bit-Speicherinterface als Krüppel.

Da würde ich eher zur RX 470/480 greifen.


Für mich scheidet daher die GTX 1060 generell aus und die GTX 1070 ist mir derzeit zu Teuer also wird auf die abgespeckte VEGA gewartet und hoffe, dass diese noch dieses Jahr erscheint.
 
Wolfgang schrieb:
ComputerBase bereitet aktuell einen Artikel vor, der sich um die Vorteile eines größeren beziehungsweise die Nachteile eines kleineren Grafikkartenspeichers dreht. Modelle mit 3.072 MB, mit 4.096 MB, mit 6.144 MB und mit 8.192 MB werden daran teilnehmen.
Jetzt würde ich erst einmal auf den angekündigten Test hier dazu warten, bevor man die 1060 mit 6GB gleich ablehnt. Bei der PCGH gab es das in der Print-Version, und davor einen Kommentar von Raff.

Ja 6GB VRAM sind schon jetzt grenzwertig, und können jederzeit ausgereizt werden.
Trotzdem ist die 1060 mit 6GB VRAM keine schlechte GPU.
 
Lumi25 schrieb:
Die GTX 1060 empfinde ich schon wegen dem 192 Bit-Speicherinterface als Krüppel.

Da würde ich eher zur RX 470/480 greifen.
Nur dass der Krüppel dennoch schneller rennt. ^^

Du würdest also zu einer langsameren Karte (besonders RX 470) greifen, nur weil diese auf dem Datenblatt an einer stelle eine etwas höhere Zahl stehen hat?

ne R9 390 hat 512 bit speicherinterface, schafft es aber nicht eine 192 bit GTX 1060 zu schlagen, diese ist nämlich schneller.
Was hat man also davon dass das speicherinterface höher ist? Absolut NICHTS.
Es kommt einzig und alleine auf die reale Leistung an, die in Games abgeliefert wird.
 
Darkseth88 schrieb:
Nur dass der Krüppel dennoch schneller rennt. ^^

Du würdest also zu einer langsameren Karte (besonders RX 470) greifen, nur weil diese auf dem Datenblatt an einer stelle eine etwas höhere Zahl stehen hat?

ne R9 390 hat 512 bit speicherinterface, schafft es aber nicht eine 192 bit GTX 1060 zu schlagen, diese ist nämlich schneller.
Was hat man also davon dass das speicherinterface höher ist? Absolut NICHTS.
Es kommt einzig und alleine auf die reale Leistung an, die in Games abgeliefert wird.

inb4 "muh frametimes" :D
 
matty2580 schrieb:

Irgendwann in 2 Jahren gibt es schon wieder ganz andere, modernere GPUs, sowohl von AMD als auch von Nvidia. Dann kann man das auch gerne als Kaufargument nennen, aber NICHT jetzt.
Zumindest nVidia müßte für entsprechende Performance große Teile ihrer Architektur umkrempeln …
.Snoopy. schrieb:

@Smartcom
Es sind vielleicht Chips welche in der Produktion nicht für die Originale GTX1060 gereicht haben. Kann gut sein, das nicht nur der Cut den Unterschied zwischen FakeGTX1060 und Original GTX1060 ausmachen, sondern auch ein schlechterer Leistungsverbrauch.
Davon gehe ich stark aus, ja.
Das werden Chips sein, die aussortiert wurden, weil sie für die reguläre GTX 1060 nicht zu gebrauchen sein. Allerdings wäre es glaube ich erheblich besser gewesen, diese als stärker teil-deaktivierte GPUs als GTX 1040 oder 1050 in den Handel zu bringen, anstatt auf biegen und brechen die Leistung einer 1060 erreichen zu wollen. ich meine, das Ding ist ja gut und schön, allerdings verbraucht sie bei vielen Reviews im Schnitt mal eben bis zu 45W mehr als die GTX 1060 …


In diesem Sinne

Smartcom
 
Falls sich eine Grafikkarte kaufen würde wäre es die AMD RX460 oder die GTX 1050. Alle beide mit 4 GB RAM. Alles darunter finde ich auch bei der Leistungsklasse zu wenig.
Auch weil ich die länger als 2 Jahre behalte. Im Gegensatz zu früher. Nicht zu vergessen Mods, wie ich gerade bei Fallout4 feststelle, das meine 2 GB schnell an die Grenze kommt.
Aber immer, wie einige schreiben pauschal gleich auf 8GB zu setzten, generell, finde ich doch weit übertrieben. Nicht alle spielen über FullHD mit exotischen Grafik- Einstellungen.
 
Warum wird denn noch mit dem völlig verbuggten, katastrophalen F1 2015 getestet?? :freak: Dann könnte man auch das letzte Batman-Spiel verwenden, wäre genauso aussagekräftig.

Die 2016-Version ist schon raus und viel besser programmiert + sieht nochmals besser aus.
 
Nvidia sollte für die Namenswahl abgestraft werden, indem man ihre Karte einfach gegen die 480 mit 4GB antreten lässt...
Diese hat ja auch einen reduzierten Speichertakt und ist somit genauso wie die 1060 3GB in ihrer Leistung beschnitten.
P.S. Ich hab eine XFX 480 8GB für 220€ bekommen... (mindfactory)
 
Bei CPUs und GPUs gehts heutzutage nur um DURCHSATZ.
 
Zurück
Oben