Test GeForce GTX 1660 Ti im Test: Wie die GTX 1070 FE mit neuen Shadern und weniger Speicher

*** schrieb:
die angebote habe ich gestern schon gesehen und mir juckt es bei der MSI RTX 2080 in den fingern. aber auch hier bin ich mir nicht sicher, ob die 8 GB RAM bei der Leistung nicht zu wenig sind. ehrlich gesagt wäre mir eine Radeon VII lieber, aber man bekommt nur überteuerte karten wie die Asus bei Mindfactory für 799 euro. das zahle ich nicht.

Ja klare, warum denn nicht. Die MSI RTX 2080 ist doch eine gute Karte mit der Du an Sicherheit grenzender Wahrscheinlichkeit ne Menge Spaß haben wirst. Denke auch, dass die "nur" 8 GB in der Leistungsklasse irgendwann mal eng werden. Aber Du musst ja NICHT die nächsten 6 Jahre damit zocken, sondern in 2 Jahren oder so wieder verkaufen ...

MfG, Föhn.
 
Sennox schrieb:
Ja, die Vega hat bei dem Beispiel mit 8GB mehr Probleme als die 2080 mit 8GB.
Aber darum ging es doch gar nicht!
Es ging darum das HBCC etwas bringen KANN!

Wann immer HBCC getestet wurde, zumindest hier bei CB, hat es entweder annäherend nichts gebracht oder die Performance verschlechtert. Ist ja schön wenn es innerhalb des AMD Kosmos etwas in bestimmten Situationen bringt, aber die Konkurrenz hat da nun mal so oder so schon kein Problem.
Gleicher Effekt wie bei Chill und Wattman. Beides braucht man um Probleme anzugehen die man bei der Konkurrenz erst gar nicht hat.

Wenn man die Technik als solches sehen möchte, meinetwegen. Wenn es aber ums Kaufen geht, dann ist HBCC im Moment eher ein Argument dagegen als dafür.
Ergänzung ()


Wadenbeisser schrieb:
Und ich frage dich erneut ob es bei der 2 GB Variante der GTX660(Ti) gegenüber der Variante mit 1,5 GB und 3 GB Variante abseits anderer Faktoren ein Performance Problem gegeben hat.

Ich hatte keine 660 und hab auch keine Erinnerung an Probleme in dieser Zeit. Es gab wohl minimale Einschränkungen die man kaum gemerkt hat. Aber das ist auch völlig egal was damals war, denn es gab die GTX 970, und auch wenn du das immer noch nicht wahrhaben willst: Dass die Ursache für die Performanceeinbrüche bei der GTX 970 technisch eine völlig andere war, spielt einfach keine Rolle. Der Ruf ist beschädigt und deshalb ist jede Bestückung mit irgendwelchen Einschränkungen bezüglich Speicheranbindung nicht mehr möglich für nVidia. Auch wenn es keine Performance kostet.

Hätte es die 970 nie gegeben, hätte man über Mischbestückung nachdenken können. Jetzt aber nicht mehr.

Wadenbeisser schrieb:
Was hindert nvidia in der Hinsicht also daran für 8 GB Grafikspeicher 4 Speichercontroller mit 1 GB und 2 Speichercontroller mit 2 GB zu bestücken oder noch besser, für 9 GB Grafikspeicher 3 Controller mit 1 GB und 3 mit 2 GB zu bestücken und somit für den letzten Speicherbereich 33 oder gar 50% der max. Bandbreite zu haben?

Die GTX 970 Vorgeschichte hindert nVidia daran. Wenn wieder Reviews kommen die von langsam angebundenem Speicher erzählen (genau wie bei der 660), ist der Shitstorm vorprogrammiert. Die technischen Hintergründe und eventuelle nicht vorhandenen Performanceeinbrüche spielen dann absolut keine Rolle mehr. Die Möglichkeit der Mischbestückung ist keine Option mehr solange dann jemand hergehen kann und sagt: "Der letzte Speicherbereich ist aber langsamer angebunden als der Rest".
Die einschlägig bekannten CB-Foristen wären die ersten die diese Karte aufgrund dessen in der Luft zerreißen würden. Fernab jeder Vernunft, Technik oder Logik. Wenn man eins aus Grafikkartendiskussionen gelernt haben sollte, dann das. Die Mischbestückung ist für nVidia TOT. Igor hat das schon richtig angedeutet.

Wadenbeisser schrieb:
Wo steht in Stein gemeißelt das es heute keine besseren Möglichkeiten der Speicherverwaltung gibt?

Wo ist das Datenblatt zu dem Speichercontroller der diese besseren Möglichkeiten bietet?

Wadenbeisser schrieb:
Siehe das Bild in #459 wo bei dem kleineren Grafikspeicher offenbar mehr in den erheblich langsameren RAM ausgelagert wird und damit wohl eher AMDs HBCC Ambitionen entspricht.

Das Bild alleine sagt erstmal gar nichts, außer dass die 1060 naturgemäß weniger FPS schafft als eine 1070 und deshalb auch schlechtere Framtimes hat. Ob die VRAM Belegung real gebraucht wird oder einfach nur belegt wird weil sie da ist weiß man nicht. Beide Grafikkarten laufen auf 99% Auslastung.
Es wäre interessant zu sehen wie die Controllerauslastung des VRAM ist, aber leider sind das kein GPU-Z Daten.
 
Zuletzt bearbeitet:
Matas1803 schrieb:
Muss man dann 480€ ausgeben wenn man 8GB Vram - von nVidia - will......
So ist’s Richtig. ;)
Ergänzung ()

Killer1980 schrieb:
Und über den Stromverbrauch braucht man nicht diskutieren. Dafür sind die Karten von nv halt teurer.
Ja und mittlerweile so viel mehr, dass man das in der vorgesehenen Lebenszeit der Karte niemals wieder reinbekommt. :freak:
... obwohl ... mit dieser könnte das fast klappen.
Muss ich mal ausrechnen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Matas1803
thuNDa schrieb:
Dieses Bild zeigt außer dem höheren RAM verbrauch nix bemerkenswertes. Die 1070 ist einfach stärker als die 1060, und da sollte man nicht so tun als wenn in diesem Beispiel schon der VRAM limitiert, wenn sogar noch 800 MB frei sind. Frametimes und FPS sind nicht unabhängig, also hat man bei niedrigeren FPS auch immer höhere frametimes.

Natürlich limitiert hier schon der VRAM. Hätte die 1060 8GB VRAM, dann wären da jetzt 6,5GB drin und es müsste nichts in den RAM des PCs ausgelagert werden. Dadurch wird das Spiel langsamer und es stockt. Nach deiner Meinung müsste man ja gar keinen VRAM einbauen und könnte direkt alles über den Arbeitsspeicher machen?
 
Sebastian Aaltonen zur Technik der 1660:

GTX 1660 Ti finally brings mesh shaders to mainstream. Also has all other Turing goodies such as int+float co-issue, double rate fp16, scalar instructions, high thoughput + low latency raw loads/stores, faster/larger L1$.

And variable rate shading, texel footprint query (for vtex / texel shading) and pixel shader barycentrics. All of them important features. Turing has the best rasterization feature set. Big jump over older GPUs for future rasterization pipelines.

Mesh shaders and double rate fp16 are biggest unused perf potential between Pascal->Turing. Both need software support. Potential perf difference is huge, but I would’t expect more than ~10% extra gain in common game 2+ years from now (but there will be exceptions of course).
 
  • Gefällt mir
Reaktionen: Laphonso
DocWindows schrieb:
Wann immer HBCC getestet wurde, zumindest hier bei CB, hat es entweder annäherend nichts gebracht oder die Performance verschlechtert. Ist ja schön wenn es innerhalb des AMD Kosmos etwas in bestimmten Situationen bringt, aber die Konkurrenz hat da nun mal so oder so schon kein Problem.
Gleicher Effekt wie bei Chill und Wattman. Beides braucht man um Probleme anzugehen die man bei der Konkurrenz erst gar nicht hat.
Und wie oft wurde es in einem Setting getestet wo es was bringen sollte, also dann wenn der Speicher knapp wird? Es bringt herzlich wenig in einem Setting zu testen wo der Grafikspeicher dicke reicht und wird auch keine großartigen Leistungssteigerungen hervorrufen sondern lediglich die Einbrüche im Grenzbereich versuchen auszubügeln. Wer etwas anderes erwartet macht sich selbst etwas vor oder will enttäuscht werden. Das gleiche Spiel bei Chill (Entlastung der GPU durch Drosselung der Framerate in den normal flüssigen Bereich) und Wattman. Bei nvidia ist Chill wohl am ehesten mit dem Frame Limiter vergleichbar und ein Gegenstück zum Wattman fehlt denen ganz und ist dabei auf externe Tools angewiesen. Der letzte Satz ist einfach nur Unfug denn würde es da keinen Bedarff geben dann gäbe es dafür auch keine Tuning Tools oder Geschichten wie den Frame Limiter.

Zum Rest, du willst nicht das sich bei nvidia irgendetwas ändert und sie weiterhin mit auf Kante genähten Spar Designs zum Premium Preis den dicken Reibach machen und blockst deshalb jegliche Kritik ab die dem widersprechen oder gar etwas daran ändern könnte denn sonst hättest du auch nicht ignoriert dass die ca. 1,3 GB weniger belegten Grafikspeicher beim RAM oben drauf geschlagen wurden. Na dann viel Spass damit.
 
  • Gefällt mir
Reaktionen: RuhmWolf und Sennox
@Wolfgang
Schöner Test. Folgendes ist mir aufgefallen.
Sein Vorteil sind die 8 GB Speicher, der Vorteil der GeForce GTX 1160 Ti die neue Architektur und der geringere Verbrauch.
 
ZeroZerp schrieb:
Sebastian Aaltonen zur Technik der 1660:
Wunderbar, sollte man sofort ziehen in then Threads in denen einige ernsthaft eine 1070 empfehlen statt der 1660Ti.
 
Ayo34 schrieb:
Natürlich limitiert hier schon der VRAM. Hätte die 1060 8GB VRAM, dann wären da jetzt 6,5GB drin und es müsste nichts in den RAM des PCs ausgelagert werden. Dadurch wird das Spiel langsamer und es stockt. Nach deiner Meinung müsste man ja gar keinen VRAM einbauen und könnte direkt alles über den Arbeitsspeicher machen?

Solange der VRAM nicht am Anschlag bei der 1060 ist, kann von limitert garkeine rede sein. Oder gilt unlimitiert nur wenn erst garkeine Texturen mehr im RAM geladen sind, sondern alles direkt im VRAM, egal ob die texturen für die Szene im Spiel gebraucht werden oder nicht? Guck dir den benchmark doch an - läuft auf beiden Karten ihrer GPU-Leistung entsprechend und flüssig.
 
Der Treiber tut sein bestes um die zu geringe RAM Bestückung so lange wie möglich nicht zum Flaschenhals werden zu lassen. Das hat man sehr schön bei den 3,5 GB der 970 gesehen.
Ab einem gewissen Punkt geht's dann aber nicht mehr über den System RAM ohne merkliche Einbrüche und davor leiden die Frametimes in verschiedenen Ausmaßen wie man an den Screens sehen kann.
 
Web-Schecki schrieb:
Es ist halt nicht verständlich, warum es diesen Rückschritt zur GTX 1070 gibt, die gleich schnell ist.
Naja schon. nVidia hat reichlich Prügel eingesteckt für die Features DLSS & RT. Obendrein sind die Chips riesig. Ich kann mir schon vorstellen, dass die hier Resteverwertung betreiben, wenn die Ausbeute eher mau ist. Ich kann mich auch irren, allerdings wollen sie ja auch ihr Monopol halten und somit bedienen Sie halt die Tensor-Kritiker.
Und das sie die „alten“ Produkte nach +- 2 Jahren auslaufen lassen ist ja nun auch nichts Neues. War mit dem Vorgänger der 1080 das gleiche Spiel.
nVidia ist halt „fast paced“.
Wenn die neuen Konsolen da sind, sind 6GB dann endgültig obsolet. ... und NVIDIA ist das wurscht, (denn dann haben sie sowieso die neue Gen draußen) ... nur vielleicht den jetzigen Käufern nicht.
Aber das ist eine andere Geschichte.
Ergänzung ()

HighPerf. Gamer schrieb:
Die Leistung deiner 7600GT übertifft heute eine 15 Watt APU ...
Sorry OT, jedoch konnte ich nicht anders: Ich weiß was Du sagen willst, nur so funktioniert das nicht.
Dein Satz impliziert, dass die 7600GT tatsächlich eine heutige APU übertrifft.
;)
Ergänzung ()

devastor schrieb:
Ja und verdient an den Karten keinen Cent.
Hast Du da eine belastbare Quelle?
Ich habe das Gerücht schon öfter gehört, nur nix dazu gefunden. Außer Gerüchte halt.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Es bringt herzlich wenig in einem Setting zu testen wo der Grafikspeicher dicke reicht und wird auch keine großartigen Leistungssteigerungen hervorrufen sondern lediglich die Einbrüche im Grenzbereich versuchen auszubügeln.

Dann scheinen diese Grenzbereiche bei AMD ja VIEL schneller erreicht zu sein als bei nVidia. Also brauch ich sowas bei nVidia nicht, denn wenn ich auf die Idee käme in 5120 x 2880 zu spielen, dann sicherlich nicht mit einer RTX 2080. Aber selbst dort ist noch alles im "Grünen" Bereich.

Wadenbeisser schrieb:
Das gleiche Spiel bei Chill (Entlastung der GPU durch Drosselung der Framerate in den normal flüssigen Bereich) und Wattman. Bei nvidia ist Chill wohl am ehesten mit dem Frame Limiter vergleichbar und ein Gegenstück zum Wattman fehlt denen ganz und ist dabei auf externe Tools angewiesen.

Ich brauche bei nVidia weder einen Frame Limiter um effizient zu spielen, noch muss ich meine Stromversorgung konfigurieren. It just works! Da bin ich gerne auf externe Tools angewiesen die ich eh nicht brauche.

Wadenbeisser schrieb:
Der letzte Satz ist einfach nur Unfug denn würde es da keinen Bedarff geben dann gäbe es dafür auch keine Tuning Tools oder Geschichten wie den Frame Limiter.

Die Tools sind nicht von nVidia. Chill und Wattman sind von AMD. Was externe Entwickler sich zusammencoden sagt eigentlich wenig über irgendeinen Bedarf aus. Wenn der Hersteller sowas bringt, dann schon eher. Wenn man den Strombedarf nicht schon per passender Voltage ab Werk in den Griff kriegen kann, dann halt mit Softwarekrücken.

Wadenbeisser schrieb:
Zum Rest, du willst nicht das sich bei nvidia irgendetwas ändert und sie weiterhin mit auf Kante genähten Spar Designs zum Premium Preis den dicken Reibach machen

Im Gegenteil. Ich will dass sie noch viel ändert. Mehr Effizienz, mehr Performance, mehr neue Features. Was ich als Änderung nicht will ist der Wechsel auf unausgewogene Chip- und Kartenkonstruktionen wo man entweder zu wenig VRAM hat (Fury) oder zu viel (Vega VII), und wo über alle Produkte hinweg die Effizienz leidet.
Und einen Wechsel auf FineWine Technologie dürfen sie sich auch bitte sparen. Die Karten kosten am Anfang sehr viel und dann möchte ich auch am Anfang schon die Performance haben. Wenn ich Performance in 3-4 Jahren haben will, kauf ich mir die Karte in 3-4 Jahren.

AMD darf hingegen gerne Umschwenken. Ein 180° Schwenk wäre gut. Vielleicht kauf ich dann sogar mal so eine Karte.

Wadenbeisser schrieb:
denn sonst hättest du auch nicht ignoriert dass die ca. 1,3 GB weniger belegten Grafikspeicher beim RAM oben drauf geschlagen wurden.

Schonmal überlegt dass ein Treiber bei verschiedenen Karten in verschiedenen Einstellungen verschiedene Speichermanagementstrategien anwendet? Erst Recht bei DX11. Ich habe nicht umsonst gesagt dass ich das ohne die Rahmenbedingungen zu kennen nur schwer einschätzen kann. Natürlich können das andere Leute sehr gut, besonders wenn die Ableitung dann der eigenen Wunschvorstellung entspricht.

Hier kannst du dir mal das Youtubevideo anschauen aus dem der Screenshot vermutlich ist. Du wirst feststellen dass du aus den umrahmten Angaben keine Gesetzmäßigkeiten ableiten kannst. Beispielsweise belegt ein Spiel mit der 1070 2 GB mehr RAM (nicht VRAM) als die 1060 obwohl der VRAM-Bedarf bei 2GB liegt.
 
Zuletzt bearbeitet:
@DocWindows
Würdest du meinen geschriebenen Text nicht weitestgehend igorieren um loswettern zu können dann wäre dir vielleicht mal aufgefallen das ich bereits vermutet habe das nvidia bereits etwas ähnliches wie HBCC nutzt um Daten in den RAM auszulagern und so den unvermeitlichen Einbruch beim Speicherüberlauf hinauszuzögern.

Und warum verbreitest du wieder das Märchen dass man den Grafikspeicher nur für höhere Auflösungen benötigen würde? Ich behaupte mal ganz frech dass den meisten Grafikspeicher die Texturen fressen werden, also etwas was selbst wenig Rechenleistung benötigt aber die Framerate beim Speicher Überlauf in den Keller reißt weil es dann auch leistungskritischere Daten betreffen kann. Das merkt man aber natürlich nur wenn man den Grafikspeicher hat oder nicht, bzw. wenn die Modelle nicht mehr im Fokus der Treiberentwicklung (Speichermanagement) stehen.

Mit einer Geforce hat man es nicht nötig sinnlos hohe Frameraten einzudämmen die in erster Linie nur zu einem höheren Stromverbrauch und das klassische Spulenfiepen führen? Soso....auf einmal ist ein (noch) geringerer Verbrauch und die Lautstärke wohl doch nicht mehr so wichtig. Schon ist das pseudo Argument entlarvt.
 
  • Gefällt mir
Reaktionen: Casillas und Sennox
@Wadenbeisser
Ich habe mich auch gerade gefragt warum man Framelimiter oder etwas wie "Chill" bei Nvidia nicht brauchen sollte :rolleyes:
"It just works" das tat meine Vega 56 aber auch ¯\(ツ)/¯.
Mein Framelimiter läuft in erster Linie wegen Freesync, das müsste er aber auch bei Nvidia denn die Option "Vsync" ist in manchen Games leider mit Nachteilen behaftet (MHW z.B.).
Entweder ist weniger Verbrauch für einen selbst ein Argument oder eben nicht, einen Spagat gibt es nicht!
 
  • Gefällt mir
Reaktionen: Wadenbeisser
Gerade bei älteren Spielen empfinde ich solche Framelimiter als echten Segen denn ich benötige die hohen Frameraten nicht und die meisten Grafikkarten neigen im Bereich von 100+ FPS zum fiepen, manche sogar schon im Bereich ab 70/80 FPS. Da ist die Strom Ersparnis dann eher eine nette Begleiterscheinung.
 
  • Gefällt mir
Reaktionen: Sennox
Den im Treiber integrierten FPS-Limiter von AMD kann man eh vergessen - RTSS ist sowas von überlegen, da würde jeder der darauf wert legt, eh Afterburner samt RTSS installieren müssen.
 
Mit FRTC habe ich tatsächlich schon in Ausnahmefällen Probleme gehabt, mit Chill dagegen noch gar nicht.
 
Unnu schrieb:
Sorry OT, jedoch konnte ich nicht anders: Ich weiß was Du sagen willst, nur so funktioniert das nicht.
Dein Satz impliziert, dass die 7600GT tatsächlich eine heutige APU übertrifft.
;)

Ja, haha hab ich jetzt auch gemerkt da hab ich wohl komplett was vertauscht. Ich meinte natürlich das eine APU von heute eine 7600GT in die Tasche steckt.

Naja es war schon spät als ich das geschrieben habe :p
 
  • Gefällt mir
Reaktionen: Unnu und Sennox
Echt schlecht wie ihr immer mit dritt Software vergleiche anstellt, pimpen kann man jede Karte jede kamera jedes Handy, das zählt bei einen Vergleich nicht.
 
Sennox schrieb:
Ich habe mich auch gerade gefragt warum man Framelimiter oder etwas wie "Chill" bei Nvidia nicht brauchen sollte

Cill braucht man nicht weil sich die Kartenparameter je nach Belastung eh konktinuierlich anpassen. In Hardware. Nennt sich GPU Boost bei nVidia. Framelimiter kann man nutzen wenn man unbedingt will, einen Anwendungsfall wo der wirklich nötig war hatte ich aber noch nie. In welcher Situation sollte das denn sein wo VSYNC nicht als pseudo Framelimiter reicht? Bei dem berühmten Spiel von anno schnuff wo man ohne Limiter 500 FPS hat und mit VSync Input Lag?

Sennox schrieb:
"It just works" das tat meine Vega 56 aber auch ¯\(ツ)/¯.

Die Vega-Karten werden so gut wie immer unter der Prämisse verteidigt, dass man ja mit Wattman undervolten oder übertakten kann. Die ganze Argumentation warum Vegakarten eine echte Alternative sind fußt auf dem Vorhandensein und der Nutzung dieser Tweakingmöglichkeiten. Und genau deshalb "worken" sie eben nicht einfach so. Würde man sie out of the box nutzen wären sie nämlich keine so guten Alternativen mehr wie man gerne behauptet.

Wadenbeisser schrieb:
Würdest du meinen geschriebenen Text nicht weitestgehend igorieren um loswettern zu können dann wäre dir vielleicht mal aufgefallen das ich bereits vermutet habe das nvidia bereits etwas ähnliches wie HBCC nutzt um Daten in den RAM auszulagern und so den unvermeitlichen Einbruch beim Speicherüberlauf hinauszuzögern.

Wozu einen Controller? Kann der Treiber doch entscheiden. Und wenn du dir das Video was ich verlinkt habe anschaust, wird er das wohl auch tun. Zumindest bei DirectX 11. Denn Speichermanagement war schon immer Sache des Treibers. Auch bei AMD. Darum hab ich auch nie verstanden wozu HBCC nun wirklich gut sein soll.
Und die ersten Spieletests (Ich glaube die Mordor-Dinger) haben dann auch gezeigt wozu das beim Gaming gut sein soll.

Wadenbeisser schrieb:
Und warum verbreitest du wieder das Märchen dass man den Grafikspeicher nur für höhere Auflösungen benötigen würde?

Ich verbreite die Ansicht dass man am Meisten von höher aufgelösten Texturen profitiert wenn man höhere Auflösungen nutzt. Zu dieser Ansicht kann man durchaus kommen wenn man sich Spieletest aufmerksam durchliest. Nochmal der Tipp: Schau dir das Video an und guck was die 10 Spiele so an VRAM belegen.

Wadenbeisser schrieb:
Mit einer Geforce hat man es nicht nötig sinnlos hohe Frameraten einzudämmen die in erster Linie nur zu einem höheren Stromverbrauch und das klassische Spulenfiepen führen? Soso....auf einmal ist ein (noch) geringerer Verbrauch und die Lautstärke wohl doch nicht mehr so wichtig. Schon ist das pseudo Argument entlarvt.

Wieso Pseudo-Argument? Die Wattzahl die beurteilt wird ist die bei voller Auslastung. Diese ändert sich nicht, egal ob ich viel oder wenig FPS habe.
 
Zuletzt bearbeitet:
Zurück
Oben