News GeForce GTX 1060: Erste Partnerkarten von Gigabyte, Inno3D und MSI

Hmm... die Innos sehen irgendwie so aus, als würden sie das PCB der 1070/80 verwenden... wär natürlich schick, könnte man 1a den Founders Kühler der 1080 daraufsetzten, der sollte den kleinen Chip auch halbwegs gut kühlen :D
 
Da die Karte nur 6 GB Vram hat kommt die für mich schon mal nicht in Frage. Selbst unter FHD werden bald 4 GB zu wenig sein. Nach fast 10 Jahren treuer NVIDIA Kunde will ich mir eine RX 480 holen
8GB könnte die Karte wirklich locker ab. Stimmt. Vor allem wenn man UHD Texturen rein klatscht, die ja keine Rohleistung fressen, die FPS also stabil bleiben solange ausreichend Vram vorhanden ist. Wirklich wieder magere Vorstellung seitens NV in Sachen Vram. Aber das ist ja nix neues. Ausreichend Vram gibts nur ab. 1000€ in der Titan Klasse.

Ein Hoch auf AMD. :)

Bin ja schon gespannt ob die 490 etc. auch gleich ausreichend für 4 Jahre oder so bekommen wird. Ich traue es ihnen zu. Die 4GB der Fury X waren technisch bedingt, freiwillig hat das AMD nicht gemacht.
 
Bei videocardz werden Bilder von Gainward und Galax gezeigt. Bei Galax gibt es eine "Founders Edition". Eventuell hat die ja die Standardtakte der offiziellen Founders Edition.
 
Haben die Customs denn nun einen Stecker für eine SLI Bridge?
Ergänzung ()

Kasmopaya schrieb:
8GB könnte die Karte wirklich locker ab. Stimmt. Vor allem wenn man UHD Texturen rein klatscht, die ja keine Rohleistung fressen, die FPS also stabil bleiben solange ausreichend Vram vorhanden ist. Wirklich wieder magere Vorstellung seitens NV in Sachen Vram. Aber das ist ja nix neues. Ausreichend Vram gibts nur ab. 1000€ in der Titan Klasse.

Ein Hoch auf AMD. :)

Es scheint so weiter zu gehen wie in den letzten Jahren auch schon. AMD spart etwas bei den Entwicklungskosten (was eine höheren Stromverbrauch zur Folge hat) und packt als Ausgleich mehr Speicher auf die Karten.

Wer möchte das die Caselüfter 10-15 Prozent langsamer laufen, nimmt eine GTX 1060, wer seine Karte möglich lange nutzen mochte, greift zur RX 480.
 
sdo schrieb:
Wir haben mit der 1070 und 1080 bereits gesehen wie das mit den Preisen funktioniert.

Aber die 1070 und 1080 haben keine ernstzunehmende Konkurrenz, wer Leistung in dem Bereich will, der muss eine dieser beiden Karten kaufen.

Bei der 1060 verhält es sich anders, da die RX480 auf Augenhöhe ist. Ist die 1060 zu teuer, greifen viele zur 480. Um das zu verhindern, muss Nvidia sich auch preislich an AMD orientieren.
 
warum habe die alle so große kühler. das ist nichts für kleine gehäuse
 
Wenn man zu 100% die Spezifikation erfüllen will, dann ist auch der 6Pin ein Problem und da ist mit SW nichts zu machen.
Da AMD aber alle 6 Pins des Steckers nutz, ist eine Belastung >75W technisch egal - ändert aber nichts an der nicht eingehaltener Spezifikation.

Fazit
Nicht schön, aber es funktioniert ohne Probleme.
 
Die Nv-Karten überwachen aber jede der Rails (Hardwareseitig), da fließt nur ne Ms zuviel und schon, wird die Karte gebremst.
 
Schon erstaunlich, dass man von den RX 480 Custom-Modellen, trotz Marktstart lange vor der GTX 1060, kaum Infos bekommt, neben ein paar Bildern zur Sapphire Nitro scheint die Powercolor Devil da wohl eine rühmliche Ausnahme zu sein:

http://videocardz.com/61978/powercolor-radeon-rx-480-red-devil-gets-new-picture

und kommt wohl mit 3 Lüftern daher.

Ich hoffe HIS, XFX und MSI kommen auch bald 'mal in die Gänge mit den Custom-Modellen der RX 480?

Insbesondere, wenn jetzt schon mehr GTX 1060 Konkurrenz-Custom-Modelle per Photos gezeigt werden, wäre es vielleicht 'mal Zeit für AMD die starren/unflexiblen Veröffentlichungs-Zeiträume (wohl auf NDAs basierend, denn die Boardpartner werden wohl kaum freiwillig die Custom-Modelle länger zurück halten als notwendig/vorgeschrieben) anzupassen!

Ob es dann die Custom-Modelle im Bundle mit dem Deus Ex - Mankind Divided (Gaming Evolved) Spieletitel im August geben wird?
 
InteGralFormat schrieb:
Wenn AMD jetzt wirklich den Treiber noch nach unten anpasst und die 480er dann vielleicht doch wirklich in der Region um 150W zu finden sind, dann frage ich mich, was die Angabe von NieVidia soll: 75% bessere Effizienz. Gut - 15% mehr Leistung angeblich (bezieht sich wahrscheinlich auf Vorsprung durch Gameworks).
Also nehmen wir 150W*1,15*0,25 = ~43W. Irgendwas stimmt hier nicht (ich weiß, dass das mehr als grob überschlagen ist).
Die Rechnung macht keinen Sinn.
75% bessere Effizienz bedeutet, dass sie 75% mehr Leistung pro Watt bietet und nicht, dass sie nur 25% der Leistung der 480 braucht (was übrigens der Faktor 4 und nicht 1,75 ist). 100% wäre doppelte Leistung pro Watt. Also die Leistung pro Watt der 480 nehmen und mit 1,75 multiplizieren um auf die Leistung pro Watt der 1060 zu kommen.
 
Was haben die ganzen N00bs hier eigentlich mit "viel VRAM"?

VRAM wird seit 1995 nicht mehr hergestellt, meine letzte Karte mit VRAM war eine TIGA 34020 für Amiga-Computer und eine S3 968 für Vesa Local Bus.

RAM in einer Grafikkarte wird zu 80-95% von Texturen belegt, alles andere belegt den Rest. Halbiert man die Texturauflösung Viertelt sich der Speicherbedarf, das ist die ganze Magie. Selbst ARK belegt mit hohen Texturen nur 1,8GB auf einer 8GB Karte, viele andere Spiele nichteinmal das. Ultra braucht mehr aber ich sehe da keinen Unterschied.

RAM bremst die Hardware. Viel RAM bremst mehr. Das hat mit den Busloads zu tun, mehr RAM an den Bus erhöht die Load und damit sind mehr Waitstates nötig und damit ist viel RAM immer etwas langsamer als wenig.

RAM bremst die Software. Die vierfache Texturmenge braucht nunmal auch mehr Rechenleistung und Bandbreite. Das steigt zwar nicht linear aber trotzdem bremst das.

Die Auflösung des Monitors hat nichts mit dem RAM-Verbrauch zu tun. Selbst 3840x2160 mit Tripple Buffer, 32Bit/Pixel und 16Bit Z-Buffer brauchen nur 150MB, üblicherweise sinds aber eher Double Framebuffer mit single Z-Buffer = 66MB.
 
Also ich bin froh, das ich die 270x damals mit 4 statt 2gb gddr Speicher gekauft habe...
Im Worst Case habe ich 2,4gb belegt... bei 1440p, ist zwar nur minimal darüber aber das machts eben aus...
 
Crass Spektakel schrieb:
Was haben die ganzen N00bs hier eigentlich mit "viel VRAM"?

VRAM wird seit 1995 nicht mehr hergestellt, meine letzte Karte mit VRAM war eine TIGA 34020 für Amiga-Computer und eine S3 968 für Vesa Local Bus.

RAM in einer Grafikkarte wird zu 80-95% von Texturen belegt, alles andere belegt den Rest. Halbiert man die Texturauflösung Viertelt sich der Speicherbedarf, das ist die ganze Magie. Selbst ARK belegt mit hohen Texturen nur 1,8GB auf einer 8GB Karte, viele andere Spiele nichteinmal das. Ultra braucht mehr aber ich sehe da keinen Unterschied.

RAM bremst die Hardware. Viel RAM bremst mehr. Das hat mit den Busloads zu tun, mehr RAM an den Bus erhöht die Load und damit sind mehr Waitstates nötig und damit ist viel RAM immer etwas langsamer als wenig.

RAM bremst die Software. Die vierfache Texturmenge braucht nunmal auch mehr Rechenleistung und Bandbreite. Das steigt zwar nicht linear aber trotzdem bremst das.

Die Auflösung des Monitors hat nichts mit dem RAM-Verbrauch zu tun. Selbst 3840x2160 mit Tripple Buffer, 32Bit/Pixel und 16Bit Z-Buffer brauchen nur 150MB, üblicherweise sinds aber eher Double Framebuffer mit single Z-Buffer = 66MB.

noch nie so viel grütze von einem newb gehört der andere als "N00bs" mit zwei heftigen Nullen betitelt.

VRAM bedeutet letztendlich nur "Video-RAM" aber ok und mehr RAM bremst auch nicht aus, das kommt mehr auf die Anwendungen drauf an, gibt genauso gut Anwendungen die mit mehr RAM besser skalieren du pr0

Dazu kann man locker den VRAM zu hauen mit texturen etc., heißt man kann nie genug haben und nur weil "du" keinen Unterschied zwischen Ultra details siehst heißt das noch lange nicht das andere es auch nicht sehen. p.s. da würde ich vielleicht mal zum Optiker gehen oder nen neuen Monitor kaufen ;-)

Note 6, Setzen.
 
Zuletzt bearbeitet:
oldmanhunting schrieb:
Wer macht denn so einen Blödsinn? Für das selbe Geld gibt es eine richtige GPU, die dann auch noch die Hälfte verbraucht und die selbe Leistung hat.

Wenn du in der Entwicklung sitzt und ein SLI System testen willst, dann ist es wichtiger das es SLI hat als das es maximal effizient und schnell ist ;)
 
Haben die Karten nun SLi oder nicht? Wenn ein Sli Anschluss vorhanden ist und nicht funktioniert ist es doch verarsche.
 
Das ist das NVidia Referenzdesign. Bei der Customkarte Inno3D iChiLL GeForce GTX 1060 X3 sieht man aber einen SLI Anschluss.
 
BlackWidowmaker schrieb:
Hallo @ all,

letztendlich bleibt alles wie gehabt. Die GTX 1060 wird etwas besser sein als die RX 480, zudem etwas effizienter. Dafür wird sich NVidia aber, auch wie gehabt, entsprechend bezahlen lassen. Ich denke vergleichbare Karten der Board-Partner werden 30-50€ teurer sein, als das jeweilige RX 480 Pendant. So wird wahrscheinlich am Ende AMD zwar die schlechtere Karte haben, dafür aber ein etwas besseres P/L Verhältnis bieten.

Amen, letztendlich ist es shietegal wie die Karte performed, die wird entsprechend ihrer Leistung zur 480 eingepreist und fertig. Und wenn sie 20% schneller ist wird sie halt 20% teurer, so einfach.

BlackWidowmaker schrieb:
Hallo @ all,
In Verbindung mit der schlechteren Treibersituation also wieder kein Grund AMD zu kaufen, außer es kommt bei einem auf jeden € an.

Das ist widerum Quatsch, ich habe schon miese Treiber von NV und auch AMD gehabt. IMHO ist da auch mit Crimson einiges besser geworden, ist die Frage ob NV treibertechnisch wirklich noch vorne liegt...
 
BlackWidowmaker schrieb:
Hallo @ all,

letztendlich bleibt alles wie gehabt. Die GTX 1060 wird etwas besser sein als die RX 480, zudem etwas effizienter. Dafür wird sich NVidia aber, auch wie gehabt, entsprechend bezahlen lassen. Ich denke vergleichbare Karten der Board-Partner werden 30-50€ teurer sein, als das jeweilige RX 480 Pendant. So wird wahrscheinlich am Ende AMD zwar die schlechtere Karte haben, dafür aber ein etwas besseres P/L Verhältnis bieten. In Verbindung mit der schlechteren Treibersituation also wieder kein Grund AMD zu kaufen, außer es kommt bei einem auf jeden € an.

Was ist an AMD Treibern schlechter ?
 
Zurück
Oben