News Nvidia Turing: GeForce GTX 1650 kündigt sich für den 22. April an

Ich werde sie als Nachfolger für meine GTX 1050 Ti kaufen, da sie keine separate Stromversorgung braucht / max 75 Watt verbrät und damit voll passiv kühlbar ist. Außerdem war es bei allen PCs, die ich gebaut habe die einzige Karte, die man wirklich gar nicht gehört hat. Alle anderen hatten zumindest leises Spulenfiepen.

Ich bin in der Hinsicht so krank, dass ich meine NVME wieder ausbauen werde. Die hat nämlich auch Spulenfiepen / Zirpen. Ich muss dazu aber auch sagen, dass mein Case keinerlei Geräuschdämmung besitzt (weil eben passiv).
 
Für eine 4GB Graka ist der Preis zu hoch...mal abwarten wie sich das entwickelt
 
[wege]mini schrieb:
verschiedene user haben halt verschiedene ansprüche....

wenn du 2019 damit zu frieden bist, dass die untere mittelklasse gerade mal so schnell ist wie die obere mittelklasse 2016 und dann dafür auch immer noch 200€ bezahlen willst, ist das dein gutes recht.

ich fühle mich vorsichtig gesagt, einfach nur gemolken.

aber glücklicher weise, darf ja jeder kaufen was er will und wenn du die gtx1650 für 200 (175) euro in 12nm gut findest, darfst du das natürlich und niemand wird dich steinigen, wenn du eine kaufst :evillol:

mfg

Das Problem mit deiner „Meinung“ ist, dass es noch nie anderst war. Mit „verschiedene user haben halt verschiedene ansprüche“ hat das wenig zu tun. Mehr als 65% (499€ vs. 175€) ist der Preis über weniger als 3 Jahre selten gefallen.
Deshalb musst du dich wohl schon immer „gemolken“ gefühlt haben :rolleyes:
Steinigen wird dich deshalb auch keiner, mit der Realität hat deine „Meinung“ allerdings nichts zu tun.

Der nm-Prozess ist relativ irrelevant, es geht um die gebotene Leistung. Ansonsten müsste man die 7nm Radeon 7 mit im Schnitt 7% weniger Leistung der 12nm RTX 2080 zum selben Preis vorziehen - dem ist aber offensichtlich nicht so. Der nm-Prozess hat somit überhaupt nichts zu sagen, nicht einmal der Stromverbrauch ist in dem Fall niedriger.

Und die gebotene Leistung bei der GTX 1650 stimmt nun einmal für den Preis. Das erkennt man auch ohne eine kaufen zu wollen, bei meinem aktuellen System macht ein „Upgrade“ auf eine GTX 1650 nun einmal wenig Sinn.
Aber auch für meine GTX 1080 (789€ bei Release bezahlt) gibt es nun mit laut Test bei 1440p nur 5% weniger Leistung eine RTX 2060 ab 330€ oder eine Vega 64 mit identischer Leistung für 388€.
Ebenfalls knapp 60% günstiger in weniger als 3 Jahren.

Geschenkt bekommt in dieser Welt niemand etwas ;)
 
Super billiger Betrug an den NV Fans. Die müssen jetzt leiden weil die RTX sich nicht verkauft hat.
 
FCK-THIS schrieb:
Und die gebotene Leistung bei der GTX 1650 stimmt nun einmal für den Preis.

wie gesagt, darüber kann man gerne diskutieren.

erst eine gtx1660ti ist auf augenhöhe zu einer gtx1070. da reden wir über 100euro differenz (sagen wir 175) innerhalb von fast 3 jahren.

die gtx1650 ist zwar schneller, als eine gtx1050ti, aber auch nicht wirklich billiger. hier müsste man dann diese karten vergleichen.

eine gtx1650 ist, wie ich schon sagte, keine schlechte karte. für die zu erwartenden preise ist sie mMn aber zu teuer. mal abwarten, wo sie nvidia dann am markt platziert. für eine Ti und eine ´30er muss ja noch platz sein. :evillol:

mfg

p.s.

auch wenn ich die springer presse verachte, manchmal nutze ich auch ihre ressourcen ....
https://www.computerbild.de/artikel...Geforce-GTX-1660-Ti-Test-Review-23035221.html

"Nvidias neuer GTX 1660 Ti hängt irgendwo zwischen der alten und neuen Gaming-Welt fest " ← besser kann man es nicht ausdrücken und das gleiche gilt auch für die gtx1650 (ti). :heilig:
 
Zuletzt bearbeitet:
FatalFury schrieb:
Super billiger Betrug an den NV Fans. Die müssen jetzt leiden weil die RTX sich nicht verkauft hat.

Die RTX 2080 verkauft sich garantiert nicht schlechter als die Radeon 7 ...
Aktuell gibt es einfach wenig Gründe von Pascal/Vega ein Upgrade durchzuführen, da die bereits deutlich gesunkenen Preise der alten Grafikkartengenerationen mit denen der neuen konkurrieren. Das ist der einzige Grund, weshalb aktuell keiner der beiden Hersteller viel verkaufen kann.

PS. Hast du eine Quelle zu den Verkaufszahlen?

[wege]mini schrieb:
wie gesagt, darüber kann man gerne diskutieren.

erst eine gtx1660ti ist auf augenhöhe zu einer gtx1070. da reden wir über 100euro differenz (sagen wir 175) innerhalb von fast 3 jahren.

die gtx1650 ist zwar schneller, als eine gtx1050ti, aber auch nicht wirklich billiger. hier müsste man dann diese karten vergleichen.

eine gtx1650 ist, wie ich schon sagte, keine schlechte karte. für die zu erwartenden preise ist sie mMn aber zu teuer. mal abwarten, wo sie nvidia dann am markt platziert. für eine Ti und eine ´30er muss ja noch platz sein. :evillol:

mfg

p.s.

auch wenn ich die springer presse verachte, manchmal nutze ich auch ihre ressourcen ....
https://www.computerbild.de/artikel...Geforce-GTX-1660-Ti-Test-Review-23035221.html

"Nvidias neuer GTX 1660 Ti hängt irgendwo zwischen der alten und neuen Gaming-Welt fest " ← besser kann man es nicht ausdrücken und das gleiche gilt auch für die gtx1650 (ti). :heilig:

Da muss ich dir recht geben, hatte ich verwechselt.
Eine GTX 1660 Ti liegt nahezu gleichauf mit einer GTX 1070.

Dennoch ist es eine Preisreduzierung von 499€ GTX 1070 Mitte 2016 auf nun ab ca. 260€ für eine GTX 1660 Ti Anfang 2019.
Knapp 50% weniger für die selbe Leistung.

Eben aufgrund solcher Zitate sollte man die Springer Presse wohl wie du schon sagst meiden. Die Aussage ist ziemlich sinnfrei und lässt sich wohl auf jede Grafikkarte der letzten 20 Jahre anwenden.

Ich würde doch gerne einige Beispiele aus der Vergangenheit von dir hören, wo der Preis deutlich mehr über den selben Zeitraum gesunken ist, wenn es sich dieses mal um „melken“ handelt, evtl. lässt sich deine Meinung ja auch auf Fakten stützen. Wie gesagt, keine Einzelfälle. Wenn es dieses Mal „melken“ sein soll, dann sollte es die Regel sein, dass es nach 3 Jahren üblicherweise deutlich mehr als die selbe Leistung für 50-60% weniger gibt.
 
@FCK-THIS

ich bin jetzt unfair.

die ati 3870 war schon toll, die 4870 war dann hammer und die 5870 hat dann alles "zerstört"....

war halt die hauptzeit von ati, als sie sich schön gemacht haben für die übernahme. :heilig:

wenn ich jetzt den sprung von der 7950 zur 8800er generation thematisieren würde, wäre es noch unfairer.

warte einfach mal 2-3 jahre, dann weist du, wo von ich heute rede.

mfg

p.s.

5nm steht vor der tür...2020-2022 werden so schön werden...ick freu ma.
 
[wege]mini schrieb:
@FCK-THIS

ich bin jetzt unfair.

die ati 3870 war schon toll, die 4870 war dann hammer und die 5870 hat dann alles "zerstört"....

war halt die hauptzeit von ati, als sie sich schön gemacht haben für die übernahme. :heilig:

wenn ich jetzt den sprung von der 7950 zur 8800er generation thematisieren würde, wäre es noch unfairer.

warte einfach mal 2-3 jahre, dann weist du, wo von ich heute rede.

mfg

Unfair? Ich hatte selbst eine HD 4890, eine tolle Grafikkarte zu der Zeit - was hat das nun allerding mit dem angesprochenen Thema zu tun?
Von AMD vs. Nvidia hatte keiner gesprochen, das bringt uns hier also nicht weiter.

Du kannst also keine relevanten Beispiele nennen?
Wo sind denn bitte die Fakten? Selber Zeitraum deutlich mehr als 50-60% Preisreduzierung für die selbe Leistung?

Die Pascal Generation war bekannt für ihren großen Leistungssprung.
Dennoch:

GTX 980 540€ 2014
GTX 1060 6GB 320€ 2016

Selbe Leistung, ähnlicher Zeitraum - 40% Preisreduzierung.

Bei AMD das selbe:

Fury X 649$ 2015
RX Vega 56 399$ 2017

10% mehr Leistung, ähnlicher Zeitraum - 40% geringerer Preis. Habe es nicht nachgerechnet, aber netto dürfte es dort ebenfalls nicht über 60% kommen.

Wie ich schon sagte, in der Regel gab es deutlich geringere Preisreduzierungen, weshalb deine „melken“-Theorie sich nicht auf Fakten stützen lässt.
Ergänzung ()

[wege]mini schrieb:
p.s.

5nm steht vor der tür...2020-2022 werden so schön werden...ick freu ma.

Die Zukunft wird bestimmt nicht schöner als es in der Vergangenheit bereits war. Die 7nm Entäuschung namens Radeon 7 ist dir bekannt?
Nochmal, der nm-Prozess sagt wenig über die gebotene Leistung aus.

Und ich warte immer noch auf die Fakten, die deine „melken“ Theorie stützen.
 
Zuletzt bearbeitet:
FCK-THIS schrieb:
Und ich warte immer noch auf die Fakten, die deine „melken“ Theorie stützen.

m8...wenn du schon die radeon 7 ansprichst.....

melken.....

du bist enttäuscht. ich liebe diese karte, weil sie als erste ihrer generation zeigt, was mit ulv und 7nm wirklich möglich ist. natürlich ist es nicht "toll" wenn man nvidia optimierte spiele spielen will...da sind die fps zu gering für den preis.

die leistung, die diese karte vor allem für professionelle anwender bietet, ist jedoch wieder über jeden zweifel erhaben.

wenn dann also die ersten modelle in 7nm (oder 5nm) mal im hardware markt für mid range aufschlagen, weil die smartphone käufer sich nicht mehr verhalten wie dumme schafe, dann wird man sehen, wo die reise hin geht. :evillol:

ich mach mir echt immer viele freunde bei den dau´s :heilig:

mfg
 
Ich finde es immer etwas bedenklich wenn User die Meinungen anderer User als weniger Wert abtun.
Wenn ein User sagt, das ihm 4GB Speicher nicht reichen, da er selber schon festgestellt hat, das je nach Spiel und Einstellung diese 4GB Speicher eben schon überschritten wurden.
Dann sollte man dies respektieren. Genauso wie man es ja auch respektiert wenn ein Nutzer einer High-End Grafikkarte der letzten 4 Jahre Karte sagt, das 4GB (oder 6GB) Speicher ja absolut ausreichend sind, für den Mainstream.

Auch wenn selbst CB schon vor 2 Jahren die Feststellung gemacht hat, das 4GB zu dem Zeitpunkt das Minimum darstellen für vernünftige FHD Darstellung, so kann man sicher auch heute noch mit 4GB Speicher zurecht kommen, wenn man halt weniger Anspruchsvoll ist (was ja offensichtlich genügend Käufer von nVidia Karten sind) und bereit ist schon bei neuen Karten die Einstellungsregler weiter nach links zu schieben.

Und auch bei dieser neuen nVidia Grafikkarte wird das erste sein, was ein Käufer machen muss, die Texturen reduzieren, weil halt sonst je nach Spiel der Speicher überlaufen könnte. Eigentlich ein eher kontraproduktives Handeln. Aber da es ja schon bei der RTX2060, der GTX1660Ti und der GTX1660 so propagiert wird, ist es absolut in Ordnung als nV Käufer eben die Texturen zu verringern. Komischerweise wird das immer nur von Usern die nV Produkte in ihrem Rechner haben gesagt, ab der GTX1080 und aufwärts.
Hingegen werden Usermeinungen, die wirklich Karten in dem Bereich auch besitzen, stehts als unwichtig, abgetan. So auch hier wieder vom User @FCK-THIS .

Ich bin jedenfalls auf die Tests gespannt. Es werden sicher auch nur Spiele im Testparcour sein, die eben nicht die 4GB Speicher übersteigen werden. ;)
 
Selanius schrieb:
Ich bin jedenfalls auf die Tests gespannt. Es werden sicher auch nur Spiele im Testparcour sein, die eben nicht die 4GB Speicher übersteigen werden. ;)

Natürlich, wir sind hier doch auch bei Nvidia-base. Und jetzt weg mit dem Aluhut :rolleyes:

[wege]mini schrieb:
m8...wenn du schon die radeon 7 ansprichst.....

melken.....

du bist enttäuscht. ich liebe diese karte, weil sie als erste ihrer generation zeigt, was mit ulv und 7nm wirklich möglich ist. natürlich ist es nicht "toll" wenn man nvidia optimierte spiele spielen will...da sind die fps zu gering für den preis.

die leistung, die diese karte vor allem für professionelle anwender bietet, ist jedoch wieder über jeden zweifel erhaben.

wenn dann also die ersten modelle in 7nm (oder 5nm) mal im hardware markt für mid range aufschlagen, weil die smartphone käufer sich nicht mehr verhalten wie dumme schafe, dann wird man sehen, wo die reise hin geht. :evillol:

ich mach mir echt immer viele freunde bei den dau´s :heilig:

mfg

Die Radeon 7 ist in nahezu keinem Spiel schneller als die RTX 2080, ob nun „Nvidia optimiert“ oder nicht. Wie man sich immer alles schönreden will ...
Desweiteren wurde die Radeon 7 von Lisa Su auf der CES 2019 klar und deutlich als Gaming Grafikkarte vermarktet falls du das verpasst haben solltest. Für den professionellen Markt gibt es die Mi60.

Nochmal, wie schon vorher erwähnt hatte ich bereits GPUs, wie auch CPUs beider Hersteller. Aber dieses einseitige „Fanboy“ Gehabe ist doch einfach nur kindisch. Die RX580 bspw. ist eine super Grafikkarte und ich habe diese hier schon mehrfach über die GTX 1060 empfohlen. Auch würde ich heute Ryzen nahezu immer dem Intel Gegenstück vorziehen - so viel dazu. Genauso kann ich zugeben, dass die RTX 2060 für 1440p zu wenig VRAM besitzt, die Leistung dafür jedoch da ist. Das ist somit keine empfehlenswerte Grafikkarte. 8GB hätten es dort sein müssen. Die GTX 1650 nun mit 4GB als 1080p Einsteigerkarte oder die 6GB der GTX 1660/Ti sind allerdings alles andere als nicht ausreichend bei 1080p. Mehr ist mit der Leistung ähnlich zur RX570/580/590 sowieso nicht drin. Wobei eine RX570 evtl. der GTX 1650 vorzuziehen wäre, aber das müssen die Tests nach Release zeigen.

Die Radeon 7 ist, zumindest bei dem identischen Preis zur RTX 2080, keine empfehlenswerte Grafikkarte. Durchweg langsamer für den hauptsächlichen Einsatzzweck, trotz 7nm mehr Stromverbrauch, 16GB teurer HBM2 VRAM, der einem bei 1440p keine Vorteile bietet (die laut Steam deutlich unter 1% aller Spieler, die 4k nutzen mal außen vor) und AMD bei dieser Grafikkarte dadurch nahezu keinen Gewinn laut eigener Aussage macht usw.
Bis auf 4k gibt es keinen Einsatzzweck in dem man eine Radeon 7 einer RTX 2080 bei identischem Preis vorziehen sollte und dort fehlt dann eben wieder die Leistung für aktuelle Spiele.

Nochmal, es gibt sehr wohl Grafikkarten von AMD/ATI die man Nvidia vorziehen sollte/konnte, die Radeon 7 gehört aber garantiert nicht dazu und ist auch kein gutes Beispiel zu zeigen, was mit 7nm möglich wäre.
 
FCK-THIS schrieb:
Wie man sich immer alles schönreden will ...

m8...in deiner welt geht es dir um geschwindigkeit. in meiner welt rede fast immer von effizienz.

https://www.computerbase.de/2019-02/amd-radeon-vii-test/4/

"Richtig effizient wird die Radeon VII mit Undervolting. Denn dann arbeitet die Grafikkarte gar effizienter als die GeForce RTX 2080 FE. "

das ist schon lange nicht mehr so gewesen und vor allem der gut funktionierenden 7nm produktion geschuldet.
wo nvidia dann mit 7nm landet werden wir sehen.

trotzdem muss man ehrlich sagen, dass die radeon VII ein gutes stück hardware ist.

mfg
 
[wege]mini schrieb:
m8...in deiner welt geht es dir um geschwindigkeit. in meiner welt rede fast immer von effizienz.

https://www.computerbase.de/2019-02/amd-radeon-vii-test/4/

"Richtig effizient wird die Radeon VII mit Undervolting. Denn dann arbeitet die Grafikkarte gar effizienter als die GeForce RTX 2080 FE. "

das ist schon lange nicht mehr so gewesen und vor allem der gut funktionierenden 7nm produktion geschuldet.
wo nvidia dann mit 7nm landet werden wir sehen.

trotzdem muss man ehrlich sagen, dass die radeon VII ein gutes stück hardware ist.

mfg

Undervolten lassen sich beide Grafikkarten. Was hat das nun damit zu tun, dass die Grafikkarte, so wie von AMD geliefert, der RTX 2080 unterlegen ist - trotz 7nm? Optimiert lässt sich nur mit optimiert vergleichen. Wenn man beide Grafikkarten undervoltet und übertaktet ist die Radeon 7 dennoch hinten. Da bringt es wenig, dass eine undervoltete Radeon 7 eine nicht nachträglich optimierte RTX 2080 schlägt.

http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/3/

Anno 2070: 303W vs. 224W
Wolfenstein 2: 89W vs. 68W

Einigen wir uns darauf, wie du schon sagtest, dass die Radeon 7 zum aktuellen Preis keine Empfehlung wert ist. Dass sie kein „gutes stück hardware“ ist habe ich nie behauptet, das wäre bei einer Highend Grafikkarte nicht angebracht, egal was, allerdings bietet sie, verglichen zur Konkurrenz, das schlechtere Angebot für die allermeisten Nutzer.
 
  • Gefällt mir
Reaktionen: [wege]mini
Das Problem mit der GTX1650 ist der Preis. AMD hat leider nichts in der Leistungsklasse unter 75W Leistungsaufnahme im Sortiment und damit seit der Maxwell GTX750.

Ich schaue mir schon länger die RX580 an, besonders wegen der Monitorausgänge. DVI, 2DP und HDMI. Das ist schon gehobene Anschlussklasse für unter 200€. Da reichen mir auch die 4GB Grafikspeicher, nur ist Polaris beim Multimonitorbetrieb selbst recht stromhungrig. Der Idle Modus sollte sitzen.

nVidia kann es sich leider leisten Vorteile zu verkaufen und für brauchbare Monitoranschlüsse den Kunden gleich noch mal richtig tief in die Brieftasche schauen zu lassen, was schon mit der günstiegeren RX570 günstigeren wäre.

Wenn AMD noch Teile des Speichercontrollers und GDDR Bausteine im laufenden Betrieb abschalten würde , denn im einfachen Desktopbetrieb reicht auch ein aktives 64Bit Speicherinterface, dann würden die Karten mit den kleinsten Modellen konkurrieren.
 
Blade0479 schrieb:
Die Leistung passt zum Speicher, anders als bei der RTX 2060.

Sehe ich nicht so. Dann wäre eine GTX 980, RX 570/580 ja auch mit 4GB gut bedient, was aber nicht der Fall ist. Für viele Spiele reicht der Speicher auch bei der Leistung nicht aus. Bei der 2060 hätten es 8GB, 2070/2080 mit 12GB und die 2080Ti mit 16GB sein sollen.
 
SethDiabolos schrieb:
Sehe ich nicht so. Dann wäre eine GTX 980, RX 570/580 ja auch mit 4GB gut bedient, was aber nicht der Fall ist. Für viele Spiele reicht der Speicher auch bei der Leistung nicht aus. Bei der 2060 hätten es 8GB, 2070/2080 mit 12GB und die 2080Ti mit 16GB sein sollen.

Blödsinn, eine 980GTX wird ja nicht an den Anforderungen von HEUTE gemessen, sondern von damals wo sie erschienen ist - was schon eine sehr lange Zeit (im Computerbereich) her ist.
RX 570 ist Mittelklasse - eine GTX 980 war nie Mittelklasse.
 
Zurück
Oben