News GeForce GTX 1060: Das sind die Partnerkarten mit 3 GByte Speicher

Blackland schrieb:
Ich nutze eine GTX660TI mit 3 GB und habe ebenfalls keine Probleme mit aktuellen Spielen auf high/ultra bei 2560*1440! :D

Jedoch muss Du hier überlegen: Es geht um einen Neukauf und da empfiehlt es sich eben, zu mehr als 3 GB zu greifen, wenn es der Geldbeutel erlaubt. Es ist einfach Zukunftssicherer. ;)

Ich muss nichts überlegen, ehr mußt du drüber nachdenken Postings vollständig zu lesen, denn wie ich bereits schrieb:
Heino56564554 schrieb:
...
Würde mir aber in der Zukunft auch eine GRAKA mit mehr Speicher (8GB)kaufen. Aber momentan liegt der Kauf einer neuen Karte noch weit in der Zukunft.
 
PTMgerman schrieb:
Wenn die 3GB der 1060 nicht ausreichen dann tun das die 4GB der 470 auch längst nicht mehr.
Eine sehr falsche Schlussfolgerung und das wirst du bei entsprechenden Tests auch sehen. ;)

In Deus Ex: MD werden in FullHD schon 4GB eng (aber noch ausreichend!) und in Hitman DX12 (DX11 wird's sicherlich genauso aussehen) geht der 1060 3GB, schon in FullHD wohlgemerkt, der Speicher aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11135640&postcount=885

Es gibt noch mehr entsprechend Spiele da draußen und es werden in Zukunft eher mehr als weniger.

Wir reden hier von einer Karte, die vom Niveau her irgendwo zwischen der 970 und 980 liegen dürfte und 200€+ kostet. Da kann es doch nicht ernsthaft der Sinn sein, in FullHD schon Details runterzuschrauben, weil der Speicher zu mickrig ist...
 
Zuletzt bearbeitet:
Da sind sie wieder, die NV Fanboys, die sich 3GB schönreden:

Lemiiker schrieb:
Lieber eine 1060 mit 3GB als eine RX470 mit 4 GB. Nvidia geht viel pfleglicher mit VRAM um als AMD. Sieht man schön am Test zur 460. Da muss AMD 4GB verbauen, um mit einer 950 mit gerade einmal 2GB mithalten zu können.

Warum schreibt man so einen Unfug, wenn man absolut keine Ahnung hat?

Kauft euch den Müll, lasst euch mal wieder mal wieder veralbern, aber bitte hört auf, hier zu erzählen wie toll das ist!
 
Dass stimmt der 3GB Zug in Grafikkarten ist abgefahren nur NV will es nicht war haben. Trotzdem werden sich viele dass ding kaufen weil sie denken es reicht da ja NV so sparsam um geht mit dem RAM. So dann müßte ja die GTX1050 und mit 2GB kommen naja warten wir mal ab lustige wäre wenn die GTX1050 doch mit 4GB kommt und dann weniger Framedrops hat als die GTX1060 3GB. Wie gesagt dass Lineup von beiden Herstellern ist mehr als dürftig und da bleibe ich mindestens bis zum Ende des Jahres bei meiner guten alten HD6850 OC die reicht mir bis jetzt noch und sie funktioniert einwandfrei dafür dass sie schon so alt ist und ständig OC läuft.
 
Blackland schrieb:
Ich nutze eine GTX660TI mit 3 GB und habe ebenfalls keine Probleme mit aktuellen Spielen auf high/ultra bei 2560*1440! :D

Ich frage mich manchmal welche Spiele Leute mit derartigen Postings wie hier mit "aktuell" meinen.
Die GTX 1070 packt Witcher 3 in den genannten hohen/maximalen Settings bei etwa ~50-60FPS. Sind dann (geschätzte) ~15-20fps mit der GTX 660Ti (nichteinmal halb so stark) keine Probleme für dich oder meinst du mit "aktuelle Spiele" irgendwelche 2D Wimmelbild-Spiele?

Ich halte diese falsche Lobpreisung des selbst gekauften Produkts für sehr gefährlich: Dadurch könnten andere hier, die gerade auf der Suche nach einer passenden Grafikkarte sind einen Fehlkauf machen, nur weil einige aus mittleren Details ohne AA plötzlich High/Ultra machen und/oder mit ruckeligen 25fps spielen...
 
Zuletzt bearbeitet:
@xes
Ich würde gerne was dazu schreiben, leider hab ich das Spiel noch nicht. Ich finde auch die ganzen Benchmarks hier von CB oder PCGH unrealistisch. Es gibt fast keinen sichtbaren Unterschied zwischen Ultra/High und doch wird immer Ultra genommen. Wenn eine 1070 bei Witcher3 um die 50-60 fps packt, dann gehe ich von realistischen 75 fps aus. Ich würde aber wenn möglich die fps immer auf 60 oder 30 fps limitieren, ich mag die fps Schwankungen nicht.
 
D3xo schrieb:
@xes
Ich würde gerne was dazu schreiben, leider hab ich das Spiel noch nicht. Ich finde auch die ganzen Benchmarks hier von CB oder PCGH unrealistisch. Es gibt fast keinen sichtbaren Unterschied zwischen Ultra/High und doch wird immer Ultra genommen. Wenn eine 1070 bei Witcher3 um die 50-60 fps packt, dann gehe ich von realistischen 75 fps aus.

Man erkennt, dass du Witcher 3 nicht besitzt, der Unterschied vs High und Ultra ist dort nämlich z.B. in der Foliage Distance zu erkennen, die deutlich geringer wird, desweiteren hat man noch mehr Pop-Up als sonst. Die Einschätzung von 50-60FPS in WQHD ist mMn auch sehr passend, in Worst Cases kann die Bildrate nämlich noch deutlicher fallen.

Ich muss dir leider zustimmen, dass der "Ultra-Wahn" unpassend ist. Die doppelte Schattenauflösung etc. bewirkt kaum noch etwas. Nur wendest du das auch (oder in deiner Argumentation hauptsächlich) auf Texturen an und genau hier scheiden sich unsere Geister. Der Texturenregler kostet null Leistung, nur VRam, verbessert aber die Bildqualität mehr als alles andere.. man bekommt weniger LoD-Pop-In und deutlich detaillierteres Bild quasi für lau (ja, gleichgültig welcher Bildschirmauflösung, da Texturen "gestreckt" werden bringt es immer mehr Detailreichtum) egal welche GPU-Rohleistung man besitzt. Deshalb greift man eben bei einem Neukauf nicht mehr zu nur 3GB mit dem Ziel deshalb Bildqualität zu senken falls nötig. Für was kauft man sich denn sonst neue Grafikkarten? Um die Performance, als auch die Bildqualität zu verbessern, ein Ziel, dass sich mit der 3GB 1060 eben deutlich schlechter verwirklichen lässt als mit anderen vergleichbaren Karten. Die Rohleistung ist für die "einfachen" Games wie Dota etc. zu hoch (-> ergo auch der Preis)/nicht notwendig, der VRam für AAA-Blockbuster der Rohleistung entsprechend aber zu wenig für angemessene Optik.
 
das stimmt nicht ganz ab ner bestimmten menge kostet auch eine hohe Textur Auflösung Leistung z.b ist der siecher auch nur begrenzt schnell. allerdings must der unterschied schon drastisch sein wen du die Textur Auflösung ver 10 fachen würdest gäbe das schon einen unterschied in der pervormance
 
Terabyte100 schrieb:
das stimmt nicht ganz ab ner bestimmten menge kostet auch eine hohe Textur Auflösung Leistung z.b ist der siecher auch nur begrenzt schnell. allerdings must der unterschied schon drastisch sein wen du die Textur Auflösung ver 10 fachen würdest gäbe das schon einen unterschied in der pervormance

Vielleicht hätte ich erwähnen sollen, dass die Texturen eines handelsüblichen Spiels keinerlei Performanceveränderungen bewirken, wenn man nicht im absoluten CPU-Limit klebt und die Streaming-Engine durch schlechtere Texturen entlastet. Wer heutzutage in ein Spiel geht und die Texturen von Ultra auf Low stellt wird vielleicht maximal ein halbes FPS mehr haben. Konstruierte Szenarien mit 16K-Texturen oder mehr sind natürlich als Ausnahme dieser Regel zu betrachten, aber auch realitätsfern. Einen merkbaren Performanceeinbruch bekommt man durch höher aufgelöste Texturen momentan eben nicht.*

Tante Edit: *Solange man eben genügend VRam auf seiner Grafikkarte verbaut hat.
 
Zuletzt bearbeitet:
@BookerdeWitt
Ist schon alles richtig was du schreibst, wir haben uns vielleicht nur etwas missverstanden. Ich verändere die Texturqualität auch nie. Vielleicht ist der Unterschied bei Witcher3 zwischen Ultra/High wirklich so gravierend, aber bei sehr vielen Spielen kostet das nur unnötig Leistung.
 
der unterschied bei norm games kleiner z.b in mc ist der unterschied schon deutlicher ich habe minecraft mit Standard Texturen und Schader getestet und hatte etwa 60 fps mit dem 512 x pack hatte ich etwa 50 fps
 
Was mich interessiert warum es immer noch keinen Test zu der Karte gibt und zwar nirgendwo. Schon merkwürdig sonst erhalten doch die Magazine und Onlineportale immer Testmuster von den herstellern.
 
Ach Leute..
Nvidia will karten verkaufen, am liebsten wäre ihnen wenn jeder alle 3 Monate ne neue Karte bräuchte..
Für Leute die keine neuen Mega-Grafik Shooter/Games spielen passt die doch, ob sie damit für die Zukunft gerüstet sind ist dann wieder eine andere Frage ;)
wenn sie in 3 Jahren noch immer dieselben Spiele spielen - warum nicht?
Meine 6950 hat auch einige Jahre gut im PC meiner Frau gedient konnte bisher alles gut spielen, nun kommt ne neue Generation rein in meine Kiste und die 770 wandert zu ihr..
Man muss ja nicht immer alles auf max. Details spielen..
 
Zuletzt bearbeitet:
Darksteve schrieb:
Für Leute die keine neuen Mega-Grafik Shooter/Games spielen passt die doch, ob sie damit für die Zukunft gerüstet sind ist dann wieder eine andere Frage ;)
...
Man muss ja nicht immer alles auf max. Details spielen..
Schwächere Grafikkarten sind doch garnicht das Problem. Hier wird dem (unwissenden) Kunden aber aufgrund des gleichen Modellnamens vermittelt, dass es sich um ein vergleichbar gutes Produkt handelt.
Würde die Grafikkarte "GTX 1050 Ti" heißen, würde vermutlich niemand meckern. So wird aber der ein oder andere eher zu einer beschnittenen GTX 1060 als zu einer RX 470 greifen, weil er nur die Vergleichswerte der "normalen" GTX 1060 kennt, die Unterschiede für deutlich größer hält und eventuell einen ungerechtfertigt hohen Aufpreis dafür zahlt.
 
http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_gaming_x_3gb_review,29.html

Lustig... Macht überraschenderweise kaum nen wirklichen unterschied. Frametimes sind nahezu identisch, die Frames sind selbst in 1440p und 4k nur etwas unter dem 6gb modell (natürlich beide keine flüssigen fps mehr, aber hab ehrlich gesagt erwartet, dass die 1060 an fps verliert weil auflösung zu hoch, die 3gb variante aber komplett auf <5 fps einbricht, weil der speicher komplett überläuft. Tut er aber bei keinem Spiel selbst in 4k nicht.....)

(Hinweis: Rechnerisch nehm ich die GTX 1060 6gb als Basis, damit 100%)
Bei Rise of the Tomb Raider in 4k und Ultra sind es gerade mal 17 fps zu 26 fps (das sind 65% der fps einer 6gb version.).
Prozentual macht sich der speicher hier bemerkbar, aber immernoch nicht "so" stark, wie ich es gedacht hätte.

In 1440p sinkt die Leistung nur noch auf 88%.
In 1080p dann auf 89,7%.

Das heißt, erst höher als 1440p machen sich 3gb statt 6gb bemerkbar (und das, obwohl es hier schon zig screens unter 1080p gab, wo die Vram belegung auf 6-7gb hoch ist).

Oder Hitman in DX12, Ultra settings:
Die 3gb version erreicht in
1080p: 80%
1440p: 77%
Sollten bei 10% weniger shader und gleichem Takt aber maximal runde 10%~ weniger leistung ergeben. Das heißt, selbst in 1080p fängt der speicher an minimal zu limitieren um in diesem Fall 3-4 fps.

Far Cry Primal:
1080p: 92,5%
1440p: 93,75%
2160p: 88%

Und da soll noch jemand angst haben, die 6gb wären gegenüber 8 so im Nachteil.... ^^
 
Dumm nur das bei Hitman Schattendetails mit dem aktuellen Treiber nur auf mittel gestellt werden können. Btw nur bei der 3gb Variante...

GG Nvidia.. So verarscht man sogar die ganzen Foristen, da die nur auf Balken starren können...
Quelle: 3dcenter Format_c. Für Tomshardwareseite tätig...
Wer weiß was die Treiberseitig noch alles beschnitten haben...
 
Da frag ich mich aber, ob die schatten bei der 3gb variante im bench auf mittel waren, und sonst überall auf hoch/max, oder ob das dann bei jeder grafikkarte auf den kleinsten gemeinsamen Nenner angepasst wurde.

Denn bei unterschiedlichen settings wären die tests schonmal komplett wertlos.
 
Da bei dem Test von Guru nicht drauf eingegangen wird, dürfte es denen nicht aufgefallen sein... Ich würde stand heute einfach noch etwas vorsichtig mit Prognosen sein und warten, bis mehrere gewissenhafte Seite das gecheckt haben.
 
Abwarten auf die neun DX12 Titel die bald erscheinen und hätte gerne Witcher 3 benchmarks gesehen und andere Speicherfresser. Ohne CB oder HL test kommt sowas auf jeden fall bei mir nicht ins Gehäuse davon abgesehen ist sie viel zu teuer gegenüber einer RX470.

Aber zurzeit sowieso so ein Problem der aktuellen Grafikkarten Gen leider.
 
Zurück
Oben