News GPU-Gerüchte: Die Nvidia GeForce GTX 1650 folgt der 1660 Ti im Frühjahr

Nur das der Strombedarf nicht das Potential hat in absehbarer Zeit zu einem Flaschenhals zu werden.
Mehr Verbrauch ist unschön aber stört das Spielen an sich nicht, zu wenig VRAM ist aber ab dem Moment ein direktes und merkliches Problem.

Man läuft mit einer 1660ti Gefahr wieder früher neu kaufen zu müssen als mit V56/1070.
Ob das so kommt sehen wir erst wenn es so weit ist aber die Gefahr besteht und dann sind die paar € mehr beim Strom schnell wieder aus dem sprichwörtlichen Fenster geworfen.

Hätte die 1660ti bei ~20W weniger Verbrauch als die 1070 einfach 8GB RAM würde ich mich über den vergleichbaren Preis zur 1070 wenig auslassen.
 
  • Gefällt mir
Reaktionen: Otsy
Sennox schrieb:
Nur das der Strombedarf nicht das Potential hat in absehbarer Zeit zu einem Flaschenhals zu werden.

Aus zwei Gründen ist diese Behauptung falsch!

Erstens kann man heutzutage die meisten Spiele auch mit 4GB Spielen. Fehlender Speicher ist bedeutet meist nur, dass man eine Texturstufe oder ein anderes Grafiksetting heruntersetzen muss. Zweitens sind die tatsächlichen Kosten einer Grafikkarte, die den doppelten Strombedarf hat, mit jedem Jahr höher.

Ich würde also beide Faktoren auch gleichwertig in die Kaufentscheidung einfließen lassen. Vor allem aber sehe ich deine Argumentation komplett falsch. Den Stromverbrauch hast du immer, wenn du die Grafikkarte auch nutzen willst, ob du einen sichtbaren Nachteil durch weniger VRAM hast, ist nicht einmal sicher.
 
Wieso redest du von doppeltem Strombedarf?
Und du hast nicht erklärt warum meine Behauptung falsch sein sollte :confused_alt: - Wie soll denn der Verbrauch zum Flaschenhals werden?
 
  • Gefällt mir
Reaktionen: Otsy
Sennox schrieb:
Wieso redest du von doppeltem Strombedarf?
1551367159101.png


xexex schrieb:
Und du hast nicht erklärt warum meine Behauptung falsch sein sollte :confused_alt: - Wie soll denn der Verbrauch zum Flaschenhals werden?

Den Stromverbrauch hast du immer, wenn du die Grafikkarte auch nutzen willst, ob du einen sichtbaren Nachteil durch weniger VRAM hast, ist nicht einmal sicher.

Der Verbrauch wird nicht zum Flaschenhals aber deine Idee eine Vega 56 anzuschaffen schnell zum Kostenfaktor.
 
xexex schrieb:

a) Wie bereits erwähnt sind die CB Werte etwas höher als die Wirklichkeit (ich glaube in dem Test war's sogar eine Referenzkarte)
b) kann man die Vega 56 ganz wunderbar bei 165W belassen und ist auf einem ähnlichen Niveau wie die 1660ti womit wir bei knapp 40W Mehrverbauch wären - immernoch bezogen auf Extremfälle wohlgemerkt!
c) wären es selbst in deinem Beispiel 80% und nicht 100%

xexex schrieb:
Den Stromverbrauch hast du immer, wenn du die Grafikkarte auch nutzen willst, ob du einen sichtbaren Nachteil durch weniger VRAM hast, ist nicht einmal sicher.
Das ist ein Nachteil aber kein Flaschenhals, Dafuq?

Edit:
und schön wie du nicht darauf eingehst dass eine 1660ti höheres Potential hat früher ausgetauscht werden zu müssen ;)
 
  • Gefällt mir
Reaktionen: Otsy
Sennox schrieb:
a) Wie bereits erwähnt sind die CB Werte etwas höher als die Wirklichkeit (ich glaube in dem Test war's sogar eine Referenzkarte)

Die "Wirklichkeit" ist das was die Karte im Kaufzustand benötigt und nicht was durch irgendwelche "Optimierungen" und Lotterie möglich sein könnte. Die "beste" Vega 56 unterscheidet sich hier kaum von der Referenz.
1551368463989.png


Sennox schrieb:
und schön wie du nicht darauf eingehst dass eine 1660ti höheres Potential hat früher ausgetauscht werden zu müssen

Doch! Bin ich! Deshalb sagte ich auch, je länger du gedenkst eine Vega 56 zu nutzen, desto höher sind die tatsächlichen Kosten im Vergleich zu einer 1660Ti.
 
Sennox schrieb:
Das hat nichts mit glauben zu tun, die 1660ti, V56 und 1070 sind alle auf einem Niveau.
Mal ist die eine im guten Fall 10% schneller mal die andere 12%, alles im Rahmen einer Klasse.
Warum also das selbe Geld für die gleiche Leistung aber weniger VRAM ausgeben?

So ist es. Ein Bekannter will auch sich eine neue Karte holen und für den sind 8 GB wichtig. Aber die RX 56 ist ein kleiner Sonderfall, da du den Mehrverbrauch von ~100 € in 3 Jahren dazurechnen muss. Da verschiebt sich das ein wenig.

xexex schrieb:
bei der GTX1660Ti würde ich aber die 100W Unterschied zu einer Vega 56 nicht einfach so unter den Tisch kehren.

Stimmt, sollte man immer mit einrechnen. Es gibt, aber auch genug Nutzer, denen es egal ist. Wie man oft lesen kann.

xexex schrieb:
Hier gibt es übrigens eine schöne Tabelle.

Geil! Muss ich mir gleich mal sichern den Link . :) Da lag ich mit meinen 120 € mehr in 3 Jahren bei einer Diskussion ja nicht so verkehrt.:cool_alt:
 
Neronomicon schrieb:
Geil! Muss ich mir gleich mal sichern den Link.

Die fertigen Tabellen sind allerdings für einen Grundpreis von 0,28€ pro kWh berechnet. Es gibt in Deutschland allerdings je nach Gebiet und Anbieter auch etwas günstigere Tarife. In Köln liegt der günstigste Anbieter derzeit bei 0,24€ pro kWh.
 
xexex schrieb:
Die "Wirklichkeit" ist das was die Karte im Kaufzustand benötigt und nicht was durch irgendwelche "Optimierungen" und Lotterie möglich sein könnte. Die "beste" Vega 56 unterscheidet sich hier kaum von der Referenz.
Meine Red Dragon läuft "out-of-the-box" von Haus aus mit 165W, für alles weitere muss man selber das PowerTarget anheben oder den BIOS Schalter umlegen!
Der "Kaufzustand" ist also 165W.

xexex schrieb:
Doch! Bin ich! Deshalb sagte ich auch, je länger du gedenkst eine Vega 56 zu nutzen, desto höher sind die tatsächlichen Kosten im Vergleich zu einer 1660Ti.
Wenn du früher neukaufen musst relativiert sich dieser geringe Mehrpreis aber wieder.
 
Sennox schrieb:
Meine Red Dragon läuft "out-of-the-box" von Haus aus mit 165W, für alles weitere muss man selber das PowerTarget anheben oder den BIOS Schalter umlegen!

Du vertust dich da mit der Berechnung! Computerbase rechnet den Verbrauch des Gesamtsystems.
Für die Leistungsaufnahme wird auf klassische Art und Weise mit dem Verbrauchsmesser (Voltcraft Energy Logger 4000) der Energiekonsum des gesamten Rechners gemessen. Um ein breiteres Anwendungsszenario zu veranschaulichen, wird zusätzlich zur Leistungsaufnahme im Desktop- und im Lastmodus auch jene im Multi-Monitor-Betrieb und bei der Wiedergabe von YouTube-Videos gemessen.
https://www.computerbase.de/2015-05...ahren-testsystem/#abschnitt_leistungsaufnahme

Dieser kann natürlich je nach System variieren, die 100W Mehrverbrauch bleiben allerdings.

Sennox schrieb:
Wenn du früher neukaufen musst relativiert sich dieser geringe Mehrpreis aber wieder.

Durchaus kann das passieren, der Stromverbrauch steht aber wie gesagt fest, die Wahrscheinlichkeit eine Karte eher ersetzen zu müssen ist nur geschätzt. Beide Karte bieten keine RT Funktionen an, und sollte Navi und/oder die Konsolen RT mitbringen, wovon ich ausgehe, werden sie genauso schnell "alt" werden.

Am Ende ist der VRAM eben nur einer der Eckdaten und nicht der einzig entscheidende Faktor. Wenn der Grafikkarte die Puste ausgeht und du sowieso auf mittel zurückstellen muss, um noch eine halbwegs anständige Framezahl zu erreichen, nützt dir auch der VRAM wenig.
 
Zuletzt bearbeitet:
xexex schrieb:
Du vertust dich da mit der Berechnung! Computerbase rechnet den Verbrauch des Gesamtsystems.
Welche Berechnung? Meine V56 hat von Haus aus ein PT von 165 W.
Die Werte für die 1660ti ziehe ich aus dem CB Test, glaubst du in den ~120W von denen wir hier die ganze Zeit sprechen wäre das Gesamtsystem mit drin!?!
Falls du dich nur auf deine Grafik bzgl. des V56 Verbrauchs weiter oben bezogen haben solltest frage ich mich was das bringen soll?
Noch mal: Meine hat out-of-the-box 165W, warum ist es jetzt interessant ob CB Vega Karten mit angehobenen PT oder andere Modelle mit höherem PT getestet hat?

Im aktuellen Test von CB zur 1660ti finde ich keine Beschreibung dazu WIE sie gemessen haben (dein Link ist übrigens fast vier Jahre alt) aber dass es das Gesamtsystem sein soll halte ich bei diesen Werten für unwahrscheinlich, dann bräuchte die 1660ti ja keinen PCI-E Stecker :D:
1551378354844.png


@Neronomicon
Meine Vega 56 verbraucht bei vergleichbarer Leistung ca. 40W mehr (laut GPU-Z).
Den Mehrverbrauch kannst du damit nachrechnen aber um auf 100€ in 3 Jahren zu kommen muss man schon ungesund lange am Limit der Graka zocken ;)
Edit: und mit "ungesund" meinte ich für den Spieler :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy
xexex schrieb:
Die fertigen Tabellen sind allerdings für einen Grundpreis von 0,28€ pro kWh berechnet. Es gibt in Deutschland allerdings je nach Gebiet und Anbieter auch etwas günstigere Tarife. In Köln liegt der günstigste Anbieter derzeit bei 0,24€ pro kWh.
0,24 bzw. 0,28 sind Bonuspreise und damit zu gering angesetzt. Die erhält man bestenfalls im ersten Jahr des Liefervertrages. Auf Dauer sind in D 0,30 und mehr fällig. Tendenz steigend.
 
Artikel-Update: Auch für das Notebook soll die GTX 1650 aufgelegt werden, wobei die Basis-Spezifikationen bis auf die Speicherausstattung von 4 GByte noch unbekannt sind. Erste Modelle tauchen in Kombination mit Intels CPU-Refresh im Notebook auf, die dort erstmals bis zu acht Kerne als Core-i-9000-Serie bieten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
Die Nische in der Nische in der Nische².

Crazy.

Der Normalo-Nicht-CB'ler weiß doch gar nicht was er kaufen soll.
 
  • Gefällt mir
Reaktionen: Yesman9277
bin gespannt ob die gtx 1650 ohne zuästzlichen stromanschluss kommt^^

wenn ja steck ich mir so eine irgendwann vielleicht mal in meinen Wohnzimmer-PC.
 
TheUngrateful schrieb:
Gleich kommen bestimmt wieder ein paar die meinen, 4GB seien vollkomen ausreichend für diese Leistungsklasse...

Na ist doch so! NVidia hat das doch so festgestellt.

Wo vorher 8GB verbaut waren, reichen heute 6GB. Und wo bisher 6GB passend waren, sind es jetzt eben 4GB.

Denn die NVidia Karten arbeiten einfach unheimlich effizient und mega super duper. Die brauchen deshalb nicht soviel Speicher und kommen auch mit weniger klar.

Du verstehen?
 
  • Gefällt mir
Reaktionen: Sennox, onkel-foehn und Yesman9277
Das wird ein Refresh 1050Ti@4GB RAM, so meine Vermutung. GTX960@4GB->1050Ti@4GB->1650@4GB
Wir haben jetzt 2019 und 4GB RAM werden unter Full HD schnell randvoll unter den aktuellen AAA Titeln. Da muss min. 6GB hin, ansonsten sehe ich per. KEIN Kaufgrund für ein Wechsel.
 
aklaa schrieb:
Das wird ein Refresh 1050Ti@4GB RAM, so meine Vermutung.

Ich denke eher, das wird ein Refresh der GTX 1060 3GB, nur eben nun mit 4GB und somit zumindest halbwegs passender Speicherausstattung.
Die 1050Ti Leistung kann NVidia nicht nochmal bringen. Zumindest nicht für 200€. Da müssen sie schon bisschen mehr hinblättern.
 
Wenn sie wenigstens die 6GB der 1060 hätte (deren Leistung für mich z.Zt. absolut ausreichend ist), wäre sie für einen weiteren (bezahlbaren - je nach Preisaufruf) Zockerrechner für mich wieder interessant. Aber die sollte sich wirklich deutlich an die 200€ Grenze bewegen, immerhin gab es das "Original" 1060 für 265€. Aber nur 4GB möchte ich nicht bei ner Karte haben. Von daher fällt sie direkt wieder raus.
 
  • Gefällt mir
Reaktionen: onkel-foehn
hurga_gonzales schrieb:
Keine ernst zu nehmenden RTX Karten am Markt erhältlich, noch dazu ein Preis, den so gut wie keiner bereit ist zu bezahlen. Dann schieben wir halt völlig überteuerte Crap-Karten nach. Super Idee, Nvidia. Mit einer GTX 2080Ti zum etwaigen Preis der vorigen GTX-Spitzenmodelle hätte NVidia vermutlich den Markt aufgemischt. Das was 2018 bis heute mit NVidia abgeht ist so eine Lachnummer....sagenhaft.

Freut euch doch, dass man Intel für eine dedizierte GPU hier so den Markt vorbereitet :lol::daumen:
Ergänzung ()

Simanova schrieb:
Damit schlägt die 1660Ti die Vega 56 bei gleichem Preis.

Rohleistung ja, aber wehe du spielst nen Speicherfresser auf 2560x1440. Da sind die 6GB leider im Schnitt 0,8GB zu wenig.

Für 3/5 Spielern ist die Karte aber vermutlich etwas.
 
Zuletzt bearbeitet:
Zurück
Oben