News Nvidia Turing: GTX 1660 angeblich mit 1.408 Shadern, aber nur 192 GB/s

Faust2011 schrieb:
Zur Preisgestaltung: Für den Einstieg ins ernsthafte Gaming wie mit der GTX 1660 würde ich eher Preis um ~130-150€ erwarten. Das hier ist immer noch deutlich zu teuer.
Jo und die 1650 als Einsteiger auf 1060 3GB Niveau bei 99€. Aber bla bla, wird nie passieren.
Irgendwie freu ich mich neben Intel auch auf die immer stärker werdenden APUs. Vllt kauft man nächstes Jahr einen Ryzen mit Navi CUs, die alles bisherige im GPU Markt bis 150€ wegfegt. Schön wär's.
 
  • Gefällt mir
Reaktionen: schuetze27 und Mcr-King
S.Kara schrieb:
Die 1660 wird sich irgendwo zwischen der RX 590 und der 1660 Ti platzieren. Und das bei einer UVP von 219 USD ist kein schlechtes Angebot.

Sorry, aber die dummen Schafe sind wohl eher die, die sich AMD dank der 8 GB vs 6 GB VRAM schönreden. Scheint als wärst du AMD auf den Leim gegangen.

Klar 3GB von NV sind natürlich besser als 8GB sorry nee und mehr RAM ist immer besser. Wie bei Hubraum den kannst du auch nur durch mehr verbessern.

Ach sorry 6GB Arbeitsspeicher müssten dann laut deiner Logik auch reichen. 😉
 
  • Gefällt mir
Reaktionen: Benji21 und onkel-foehn
@Mcr-King
Keine Ahnung was du hier für komische Vergleiche ziehst. Mehr RAM ist nicht immer besser, da er bei zu vielem einfach nicht genutzt wird. Und verbessern kann man ihn nicht nur durch noch mehr RAM, sondern auch durch den Takt. Gleiches kann man auch für die Transistoren sagen. Mehr sind immer besser.

Nvidia hat ein Ziel-Budget und kann sich aussuchen ob sie den lieber in VRAM investieren, der vielleicht in ein paar Fällen etwas bringt, oder aber mehr Transistoren verbauen, die fast immer etwas bringen. 6 GB VRAM reichen bei dieser Karte absolut aus.
 
  • Gefällt mir
Reaktionen: Alex1966 und lynx007
Nee Texturen kosten VRAM, KI kostet Hauptram so einfach ist dass nur die meisten Games selbst AAA irgendwie haben für 2019 scheiß Texturen und eine doofe KI.

Naja deswegen RTX off und Checkerboard (DSSL) bitte endlich mal vernünftige Texturen und KI in den Games.
 
simosh schrieb:
Vllt kauft man nächstes Jahr einen Ryzen mit Navi CUs, die alles bisherige im GPU Markt bis 150€ wegfegt.

Ja, wenn CPU & GPU kombiniert wären und zusammen ordentlich (und ausreichend) Leistung böten, hätte das natürlich auch seinen Reiz. Den Gedanken noch weiter fortgeführt, und man landet bei AMDs vor vielen Jahren propagierter Heterogeneous System Architecture.
 
  • Gefällt mir
Reaktionen: Mcr-King
Auch zum Foto und Video bearbeiten ist mehr RAM auch besser als schnellerer.

Davon abgesehen deim billigeren GDDR5 hätte man mehr nehmen können.
 
Die Karte ist für 219$ vom P/L her vermutlich leicht besser als eine 1060/590 und auf ähnlichem Niveau wie eine 580.
Man hat die Karte halt genau so platziert, dass sie gerade noch für viele ein besseres Angebot als die 590 darstellt.

In dem Sinne ein Konkurrent zu Polaris/Vega und nicht zu Navi (was aus Firmensicht schlau ist). Was die Karte wirklich kosten könnte, werden wir erst sehen, wenn Navi rauskommt.
Für 130-160€ würde man von Maxwell/Pascal und Tonga/Polaris aus mal wieder ein echtes Upgrade erhalten (wenn man auch damals in dem Segment gekauft hat). So wird nur deutlich, dass man ohne Konkurrenz nicht gezwungen ist, die Preise anzupassen.

Auch die 1650 wäre im Bereich bis 100€ ein echter Verkaufsschlager, bei 150 oder mehr €s liegt man im Endeffekt genau da wo auch eine RX570 4GB liegt.

Irgendwie schon komisch, dass der Sub-150€ Bereich wirklich nichts attraktives anbieten kann (herstellerübergreifend) und bis 200€ gibts aktuell auch nur fast 3 Jahre alte Karten (bzw. deren Refreshes), die zu Release ähnlich viel gekostet haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Neronomicon schrieb:
Was ~100W Unterschied zur 1660ti sind. Bei einem UHD Youtube Video 26W (1070 12W, 1080ti 19W). Was auch mehr ist.
Es kann ja sein das deine 165W verbraucht. Aber ich gehe nach dem Test von PCGH die mit Messgeräten direkt messen.
Für mich wäre das zu viel. Und bei einer Nutzung von 3- 4 Jahren kommt da was zusammen. Wenn man das nicht sehen will, bitteschön. Jeder wie er mag.
wow, 7-14W mehr...

Es kann nicht nur sein sondern es handelt sich hierbei um das standardmäßige Powertarget der Partnerkarten!

Und wie ich bereits schon so oft gesagt habe läuft eine Grafikkarte nicht durchgehend unter Vollast (die ~40 W mehr sind Extremfälle!)!
Wem diese paar Watt Ersparnis die Gefahr einer etwaigen früheren Neuanschaffung wert sind, oder heute schon weiß dass er nichts spielen wird wo die 6 GB ein Problem werden könnten (woher auch immer), der kann ja gerne die 6GB Nvidias nehmen (auch das habe ich bereits mehrfach geschrieben).
Gibt vielleicht auch welche die damit ihr "grünes Gewissen" beruhigen möchten, wer's braucht: nur zu.

Mir unterstellen ich würde den etwaigen Mehrverbauch nicht sehen wollen obwohl ich diesen Punkt mehrfach aufgreife ist auch starker Tobak :rolleyes:
Du warst ja auch in dem anderen Thread aktiv wo ich die aufgestellte Milchmädchenrechnung bzgl. des Verbrauchs mehrfach relativiert habe. Meine Beiträge ignoriert?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: schuetze27, Thraker, Benji21 und 2 andere
Foxi2010 schrieb:
Benji21
Nächstes Jahr oder übernächstes werden wir eh denke ich alle neue Karten kaufen können ob 6GB oder 8GB.
Ich denke da kommt nochmal ein ordentlicher schub, die ganzen Games orientieren sich und Stagnieren doch wegen den Konsolen, sobald die PS5 und neue XBox kommen die 4K Gaming ermöglichen sollen bei gescheiten FPS wird sich in Sachen Grafik und Speicher sicher nochmal einiges tun bei den Spielen.
Ja, wäre vllt. so, doch welcher Chip von AMD haut das entspannt alles auf 4K mit performance- und qualitätstechnischen Plus aus den Konsolen auf die Glotze?
Das muss man sich ja auch fragen - wenn das Ganz Navi-basiert sein soll - falls ich mich nicht irre, dann müsste Navi sehr gut sein oder aber, der Fall den Du schilderst, wird nicht eintreten.

Allerdings gebe ich Dir schon bei einem Bischen Deiner Gedanken Recht, wenn nicht nächstes oder Übernächstes Jahr, wann denn dann überhaupt, denn schließlich muss man sich doch mal vorstellen, dass eine Konsole doch ein paar Jahre auf dem Markt bleibt - von Shrinks und Verbesserungen mal abgesehen - und wenn die nächste Konsolengeneration "das nicht bringt", wirds auch in 5-6 Jahren nicht besser auf der Flimmerkiste und damit auch nicht mit solchen Folgen wie denen, die Du prophezeist.
 
Faust2011 schrieb:
Den Gedanken noch weiter fortgeführt, und man landet bei AMDs vor vielen Jahren propagierter Heterogeneous System Architecture.
da Intel den selben Weg einschlägt, könnte DX als Gaming Schnittstelle auch irgendwann mal in die Richtung gehen. Im mobilen Bereich ist es schon Standard auf verscheidene Cores zu setzen (CPU, VPU, NPU usw) und selbst NV hat die RTX Cores, Int Cores und Tensor Cores. Somit würde ich das nicht so belächeln.
 
Sennox schrieb:
Es kann nicht nur sein sondern es handelt sich hierbei um das standardmäßige Powertarget der Partnerkarten!

Das stimmt zwar, die Karte verbraucht aber trotzdem nicht 165W. Das ist das Power budget nur für die GPU. Bei den Vegas zieht das ganze drum herum (Displaycontroller, Speichercontroller, HBM, VRMs) unter Last nochmal so um die 50W.

Wenn ich nur die GPU belaste komme ich bei ziemlich genau 270W für das ganze System raus. Bei etwa 52W im Idle und einer GPU Power draw von etwa 165W liegt die Differenz da bei etwa 218W, was wieder etwa zu165W GPU + 50W für die restlichen kompenentem passt.
 
  • Gefällt mir
Reaktionen: Transistor 22
Sennox schrieb:
Und wie ich bereits schon so oft gesagt habe läuft eine Grafikkarte nicht durchgehend unter Vollast

Du weißt schon das es Spieler gibt die 2 Std. am Tag spielen oder mehr? Da läuft die Karte unter Volllast.
Das mit dem Youtube Video ist nur das i Tüpfelchen...schön das du damit was relativieren willst.
Selbstverständlich rechnet man dann nur die Zeit in der man Spielt unter Vollast. Du relativierst ziemlich viel und malst dir die Sachen auch gerne schön.
Wie schon gesagt, kann das jeder so sehen, wie er will.
Mehr gibt es nicht zu sagen dazu. Weil ich ungerne in "ich habe recht Kindergarten" Disskus gehe.
 
Ich gehe mal davon aus, dass Nvidia hier die 1660 in der P/L wieder linear platziert und damit auch ziemlich genau die ~20 % langsamer ist wie die 1660 Ti, die sie weniger kostet. Bedauerlich, dass es eben keine Kurve mehr zu sein scheint, die mit steigendem Preis flacher wird.
Damit würde auch die P/L-Krone weiterhin AMD gehören ohne, dass die etwas am Preis schrauben müssten und die Effizienz wäre wieder das einzige Pro-Argument für Nvidia - für mich nicht zufriedenstellend.
 
  • Gefällt mir
Reaktionen: Mcr-King
Das Kindergartenniveau kommt eigentlich nur von dir da du bereits gebrachte Argumente die deine Aussagen abhandeln ignorierst.
Ich habe mehrfach erklärt, dass nur weil GPU-Z und co. "100%" anzeigen das nicht gleichzusetzen ist mit einer kompletten Auslastung der Grafikkarte!
Wenn ich MHW spiele und wenn ich FurMark laufen lassen habe ich in beiden Fällen 100% in der Anzeige stehen aber der Verbrauch und der Takt verhalten sich verschieden.
Ich spiele übrigens meist mehr als 2 Std. am Tag wenn ich spiele und nu?:freak:

Ich male überhaupt nichts schön, ich widerlege nur die Horrorszenarien die manche Leute an den Tag legen.
Sonst würde ich ebenfalls ständig predigen dass 6 GB heute nicht zu gebrauchen wären, tue ich das?

Ich sehe mich in der MItte und ich habe nicht verlernt differenziert zu betrachten.
Dass ich Intel und Nvidia auf grund ihrer Geschäftspraktiken weniger leiden kann als AMD ist mein Bier und beeinflusst nicht meine Wahrnehmung der Tatsachen.
Ich lasse das in meine Kaufentscheidung einfließen aber nicht in die Beratung anderer oder die Wahrnehmung technischer Gegebenheiten.

@dr. lele
Bis jetzt war das Interesse bei mir daran nicht groß genug mir extra ein Messgerät zu besorgen ^^
Ich bin mir tatsächlich nicht zu 100% sicher welche Werte alle beim PT der Boardpartner einfließen aber mir ist das auch nicht so wichtig.
 
  • Gefällt mir
Reaktionen: schuetze27, Thraker und Mcr-King
Trotzdem I'm gegen Satz zur GTX1060 wird dank gleichen VRAM nicht viel rumkommen nur der Preis wird mal wieder erhöht. 😉
Ergänzung ()

Davon abgesehen bietet sie keinen Mehrwert zur GTX1070 mit 8GB und mehr Anbindung des VRAMs.

Also meine Meinung wie schon bei der GTX1660ti lieber eine GTX1070ti damit ist man besser beraten.
 
Quatsch!
Die 1070(ti) verbraucht viel zu viel!

*Achtung! Kann Spuren von Sarkasmus und Nüssen enthalten.

Aber for real:
Ja, ich wollte natürlich nicht die Konkurrenz aus eigenem Hause schlecht reden!
So lange man 1070er noch für die momentanen Preise bekommen kann sollte, man lieber da oder bei den Vegas zuschlagen.
Für die 1660er spricht meiner Meinug nach gerade nichts außer die paar Watt Einsparung beim Stromverbrauch.
 
  • Gefällt mir
Reaktionen: Mcr-King
Komisch die lustigen NV boys sagen nix die wollen nicht hören dass die GTX1070 besser ist. 😉 😅
 
  • Gefällt mir
Reaktionen: Thraker
Floppy5885 schrieb:
Fragt wie sie sich in FullHD schlägt gegen 1660TI und dann Preislich einordnet. Auf 1060 Niveau für 180-200€ wäre sie eine Kampfansage gegen AMDs 570/580 chip.

Hab die 1660ti heute zum testen bekommen .. wird in FHD, Hoch-Sehr hoch (automatische Settings), in Dirt2.0 schon arg knapp 50-65fps 14-30ms Frametimes - wo es dann schon ins ruckeln geht vor allem beim Start...
daher ist das für mich schon die absolute Schmerzgrenze momentan in aktuellen Games für FHD.
 
  • Gefällt mir
Reaktionen: yummycandy
dr. lele schrieb:
Das stimmt zwar, die Karte verbraucht aber trotzdem nicht 165W. Das ist das Power budget nur für die GPU. Bei den Vegas zieht das ganze drum herum (Displaycontroller, Speichercontroller, HBM, VRMs) unter Last nochmal so um die 50W.

Wenn ich nur die GPU belaste komme ich bei ziemlich genau 270W für das ganze System raus. Bei etwa 52W im Idle und einer GPU Power draw von etwa 165W liegt die Differenz da bei etwa 218W, was wieder etwa zu165W GPU + 50W für die restlichen kompenentem passt.

Autsch, wie kommst du denn auf den dünnen Ast?

Wie willst du deine GPU belasten, ohne gleichzeitig die CPU zu bemühen die GPU zu befüttern?
Zudem lässt du den Wirkungsgrad des Netzteils völlig ausser Acht.
Zu guter Letzt nimmst du irgendwelche per Software geschätzten (bzw ausgelesenen) Werte als Berechnungsgrundlage.
 
Zurück
Oben