News GeForce GTX 1660 Super: Mit 75 % schnellerem Speicher auf den Fersen der GTX 1660 Ti

Qualla schrieb:
Wer wirklich mittelfristig Ruhe haben will, nimmt für die 2060S oder die 5700 mehr Geld in die Hand oder geht stattdessen gleich auf die günstigeren RX 580/590, die reichen auch für FHD.

Alternativ könnte man auch auf eine RX 5600(XT) oder eine GTX 1660 Ti Super warten für wohl weniger Geld als die von Dir genannten Karten ;) ...

... evt. dann im Preisbereich einer RTX 2060 Vanilla angesiedelt, aber mit mehr Speicher oder ohne unnötigen RTX Ballast mit nur 6GB Speicher und zu wenig Leistung für durchgängig Einsteiger-RT-Raytracing.
Ergänzung ()

Roche schrieb:
Also zumindest die GTX 1660Ti und die RTX 2060 sind im Vergleich mit einer GTX 1070 ziemlich dreister Mist zu hohen Preisen.

Die GTX 1660Ti ist zumindest im Mobilbereich klar einer GTX 1070 überlegen aufgrund des deutlich geringeren Verbrauchs und weniger Wärme bei ähnlicher Leistung (an sich eine der besten Mobil-dGPUs überhaupt derzeit, da sich dort RTX noch weniger lohnt) 😉.

Einer RTX 2060 würde ich eine GTX 1070 aufgrund des größeren Speichers aber auch vorziehen im Desktopbereich.
 
Zuletzt bearbeitet:
Oh kacke, AMD hat eine Graka die 2% schneller ist, wir müssen noch eine GTX 1650 Super machen..
 
Roche schrieb:
Was einfach mal kompletter Quatsch ist. Vielleicht solltest du nicht nur etwas auf irgendwelche Videos geben.

Es kommt immer auf die Ansprüche des jeweiligen Anwenders an. Und mein Anspruch sind nicht möglichst hohe FPS Werte, sondern eine möglichst gute Optik bei ausreichenden FPS.
In WQHD können die 6GB der 1660Ti somit bei entsprechend hohen Texturdetails (vielleicht noch ne kleine Mod an dieser Stelle) problemlos zu knapp werden. Texturen kosten keine GPU Leistung und somit ist es einfach mal vollkommen egal, wie hoch diese Aufgelöst sind. Die FPS bleiben gleich. Aber der Speicher limitiert irgendwann.

Wenn ich die RPGs, die ich vornehmlich zocke, mit 40-50 FPS in WQHD spielen kann, dann reicht mir das vollkommen aus. Ich brauche keine 60+ FPS, weil ich keine schnellen Shooter spiele und mein Monitor eh nur 60 Hz hat. Aber ich brauche Speicher um die entsprechend hochaufgelösten Texturen nutzen zu können, ohne dass Ruckler entstehen.
Zeig mir doch dazu mal genau diese Beweise. Ich finde keine dazu, die 1660Ti und 1070 laufen bis auf eine Handvoll fps 1:1 gleich, bei Tonnen an Games. Die 8 GB VRAM sind irrelevant in der Leistungsklasse. Sonst hätten wir längst zig Threads dazu.
Ergänzung ()


https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/


It's clear that right now, even for 4K gaming, 6GB of VRAM really is enough.

Die Mem Allokation reißen kaum Titel, und selbst dann geht den GPUs geht die Puste aus bevor die 6 GB VRAM die Performance beeinflussen.
Also nix Neues.
 
Zuletzt bearbeitet:
"Irrelevant" in der Leistungsklasse ist ja mal Quatsch.
Die 2060 zb. hat ja eine Leistung vergleichbar mit der 1080. Ich kann mit diesen Karten sehr passabel in 4K spielen, bei runtergedrehten Details. Dann muss ich aber zwingend die Texturen runterstellen bei nur 6GB.
Macht ja nix, mach ich doch gerne für Nvidia.


2014 wurden die 970/980 mit 4GB geliefert, 2016 waren wir bei der Radeon 480 bei 8GB, genauso bei der 1070 das war auch 2016. AMD liebhaber haben 8GB also im Prinzip schon seit der 400er Reihe optional bei allenn 70/80 Karten.
Also wenn Nvidia 2016 eine 1070 mit 8GB bringt und drei Jahre später dann wieder auf 6GB setzt bei höherer Leistung im Vergleich zu einer 1070, dann hat das genau welchen Sinn?
Dient nur zur Abgrenzung und um mehr Käufer zum Kauf der teureren Karten zu bewegen.
6GB...das war vor Jahren mal genug und es mag sein dass wenige Spiele das ausreizen, aber das Argument, "lange bevor man 8GB bräuchte würde die Rohleistung ausgehen".....ist nichts als Augenwischerei hinsichtlich der Verkaufspolitik von Nvidia.
Die 2060 mit nur 6GB war doch das beste Beispiel. Lasst euch doch nicht verarschen. Sowas sollte man einfach nicht kaufen wenn man nicht in 12 Monaten wieder upgraden will (muss)
 
estros schrieb:
Interessant, dass sich nun GDDR6 vollständig durchsetzt. Wurde, wenn man ehrlich ist, auch Zeit.:)

Also die Art des Speichers hat nichts zu sagen.
Nichts gegen deine Meinung.
Aber hier wird der Speicher in einem völlig sinnfreien Produkt eingesetzt, welches es eigentlich schon gibt.
So kann man Gelder der Kunden auf behämmerte Art und Weise im Niemansland verpuffen lassen, ohne einen Nutzen daraus zu ziehen.
AMD wurde jahrelang dafür gescholten, jedes Jahr nur eine 10-15% schnellere Version des Vorgängers mit einer etwas besseren Effizienz herauszubringen.
NVidia ist nun voll auf den Zug aufgesprungen.
Der Unterschied jedoch ist, dass AMD aus purer Armut absolut keine Gelder für die Grafiksparte hatte, weil alles in die Entwicklung des Ryzen geflossen ist.
NVidia ist jedoch stinkereich durch viel zu hohe Preise und kaufwillige blinde Kunden geworden.
Und so wird es denen nun gedankt.
Das Geld wird in viele Dinge sinnlos verbraten, als weiteres Beispiel nenne ich mal die total sinnlosen Serverfarmen für eine unnütze Upskaling-Technik, die man marketingträchtig DLSS nennt, also "Supersampling", obwohl es das ja nicht ist. Für mich steht das D für Downgraded und das L für Low-Resolution. Das beschreibt es, so wie es ist. Herunterskalierte Pixelgrafik in beispielsweise 720p, die durch Server gejagt wird, um durch frei erfundene Hochskalierung annähernd wieder die Grafik erzielen zu wollen, die es urspünglich hätte sein sollen.
Man spart also Grafik ein, um dadurch Leistung einzusparen.
Tolle Technik, braucht aber kein Schwein, und wird teuer bezahlt.
Wenn eine technik es verdient hätte massentauglich eingesetzt zu werden, dann wäre das HBM.
HBM3 wird auch bald kommen, aber sicherlich wieder viel zu teuer sein.
Dabei ist der Speicher schön stromsparend und vor allem sehr platzsparend zu verbauen.
Da kann man wirklich nette kleine Karten basteln, die auch in Mini-PCs locker rein passen.
Das wäre doch mal eine schön technologische Weiterentwicklung.
Wenn GDDR7 kommt, ist das wieder der gleiche Kram wie immer.
Ergänzung ()

Laphonso schrieb:
Zeig mir doch dazu mal genau diese Beweise. Ich finde keine dazu, die 1660Ti und 1070 laufen bis auf eine Handvoll fps 1:1 gleich, bei Tonnen an Games. Die 8 GB VRAM sind irrelevant in der Leistungsklasse. Sonst hätten wir längst zig Threads dazu.
Ergänzung ()


https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/


It's clear that right now, even for 4K gaming, 6GB of VRAM really is enough.

Die Mem Allokation reißen kaum Titel, und selbst dann geht den GPUs geht die Puste aus bevor die 6 GB VRAM die Performance beeinflussen.
Also nix Neues.

PC Games Hardware hat schon mehrfach bewiesen, dass die 6 GB Karten von NVidia völlig unterdimensioniert gebaut worden sind.
Mir fällt dazu Wolfenstein 2 ein, welches spätestens in 4K jede 2060 mit 6GB sowas von zerlegt.
2060: 22 Bilder, 2070: 70 Bilder.
Das habe ich noch im Kopf und ist ein Extrembeispiel.
Es gibt aber noch weitere Titel, die bereits klar von 8GB Ram profitieren.
Damals wollten schon Mordor und Watch Dogs gerne eher 8 als 4GB Ram haben.
Ich glaube aktuell hatten die auch Tomb Raider 3 mit auf der 8GB RAM Liste.
Müsste ich alles in der Print nachschauen, es gibt aber auch paar Dinge online (Videos).
Man kann beweisen, dass die Karten mit wenig RAm einfach tricksen und viel viel später Texturen nachladen oder gar niedriger aufgelöste Varianten einsetzen, obwohl man im Menü Ultradetails ausgewählt hat.
Die Spielengines sind mitlerweile so ausgebufft, dass die gekonnt vertuschen können, dass die Karte eigentlich nicht mehr ausreicht.
Klar sind die Spiele alle noch sehr gut spielbar, wenn man einfach die Texturen und so runterdrhet, aber wer kauft sich denn bitte schön für 300 oder 400 Euro eine Karte, um dann gleich wieder auf Hoch runterzudrehen?
Das wird ja nicht besser, sondern nur noch schlechter.
Mit so einem Ding würde ich dann nicht 3-5 Jahre leben wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper2000
Laphonso schrieb:
Zeig mir doch dazu mal genau diese Beweise.
Sind denn andere Leute dafür zuständig deine Wissenslücken zu schließen?

Denn...:
Laphonso schrieb:
Die 8 GB VRAM sind irrelevant in der Leistungsklasse.
Ramfressende Texturen hochstellen zu können ist relativ unabhängig von den max FPS. Die Min FPS leiden teilweise stark wenn der VRAM ausgeht - was eben teilweise auch in FHD passiert... frag mal @HisN .
Und zwar verhältnismäßig unabhängig von der Leistungsklasse, bezogen auf reines Texturen hochstellen.


Aber ich denke, das ignorierst du absichtlich, oder du verstehst es wirklich nicht.
Jedenfalls war völlig klar, wie du reagierst - nämlich exakt so, wie du es auch in anderen Threads tust.


Hatte schon nen Grund, warum ich vorhin den Popcorn Kommentar gebracht habe.
 
Cronos83 schrieb:
Sind denn andere Leute dafür zuständig deine Wissenslücken zu schließen?

Denn...:

Ramfressende Texturen hochstellen zu können ist relativ unabhängig von den max FPS. Die Min FPS leiden teilweise stark wenn der VRAM ausgeht - was eben teilweise auch in FHD passiert... frag mal @HisN .
Und zwar verhältnismäßig unabhängig von der Leistungsklasse, bezogen auf reines Texturen hochstellen.


Aber ich denke, das ignorierst du absichtlich, oder du verstehst es wirklich nicht.
Jedenfalls war völlig klar, wie du reagierst - nämlich exakt so, wie du es auch in anderen Threads tust.


Hatte schon nen Grund, warum ich vorhin den Popcorn Kommentar gebracht habe.

Doof, wenn die Realität die kühnen Behauptungen schlägt.
https://www.guru3d.com/articles-pages/metro-exodus-pc-graphics-performance-benchmarks,9.html

Man beachte die Graphen.

https://cdn01.hardwareluxx.de/razun...VeryLong_962B5E70136F4C538D0FB011C468742D.jpg

Man beachte die Spikes bei der Radeon 7 mit 16 GB VRAM.

Mit der 2080Ti habe ich auch Spikes in Games, Miniruckler in ganz bestimmten Engines, bei bestimmten Spielen.
Da sind die 11 GB VRAM dann sicher das Problem?
lol

Nun bin ich gespannt, lass mir gerne das Popcorn übrig, bin auf die mentale Gymnastik sehr gespannt.
Ergänzung ()

BxBender schrieb:
Das habe ich noch im Kopf und ist ein Extrembeispiel.
Also irrelevant bei Karten, die de natura keine 4K GPUs sind.

Danke, genau das war der Punkt. "Extrembeispiel" und throretische Debatten in abstrusen Modellen, abseits der 1660Ti und 1070 usecases.

Mit anderen Worten, die 6 GB VRAM der 1660Ti sind für den avisierten Gebrauch völlig ausreichend.
Ergänzung ()

The 6GB of RAM is a non-issue and stems from users who do not understand the difference between ALLOCATED memory and UTILIZED memory. Steve from both Tech Spot and Hardware Unboxed has repeatedly done tests on this. He's shown that the 3GB/6GB models of the 1060 only show meaningful differences in unrealistic scenarios or when using 8GB of system RAM, as shown HERE. He again did this, more recently, with the RTX 2060 explaining how and why 6GB of VRAM was enough, as shown HERE. But just as we have flat-earthers and anti-vaxxers, there will always be a contingent of people who deny science, testing, and evidence in favor of whatever their belief is.
 
Zuletzt bearbeitet:
BxBender schrieb:
Also die Art des Speichers hat nichts zu sagen.
Nichts gegen deine Meinung.
Aber hier wird der Speicher in einem völlig sinnfreien Produkt eingesetzt, welches es eigentlich schon gibt.
So kann man Gelder der Kunden auf behämmerte Art und Weise im Niemansland verpuffen lassen, ohne einen Nutzen daraus zu ziehen.
AMD wurde jahrelang dafür gescholten, jedes Jahr nur eine 10-15% schnellere Version des Vorgängers mit einer etwas besseren Effizienz herauszubringen.
NVidia ist nun voll auf den Zug aufgesprungen.
Der Unterschied jedoch ist, dass AMD aus purer Armut absolut keine Gelder für die Grafiksparte hatte, weil alles in die Entwicklung des Ryzen geflossen ist.
NVidia ist jedoch stinkereich durch viel zu hohe Preise und kaufwillige blinde Kunden geworden.
Und so wird es denen nun gedankt.
Das Geld wird in viele Dinge sinnlos verbraten, als weiteres Beispiel nenne ich mal die total sinnlosen Serverfarmen für eine unnütze Upskaling-Technik, die man marketingträchtig DLSS nennt, also "Supersampling", obwohl es das ja nicht ist. Für mich steht das D für Downgraded und das L für Low-Resolution. Das beschreibt es, so wie es ist. Herunterskalierte Pixelgrafik in beispielsweise 720p, die durch Server gejagt wird, um durch frei erfundene Hochskalierung annähernd wieder die Grafik erzielen zu wollen, die es urspünglich hätte sein sollen.
Man spart also Grafik ein, um dadurch Leistung einzusparen.
Tolle Technik, braucht aber kein Schwein, und wird teuer bezahlt.
Wenn eine technik es verdient hätte massentauglich eingesetzt zu werden, dann wäre das HBM.
HBM3 wird auch bald kommen, aber sicherlich wieder viel zu teuer sein.
Dabei ist der Speicher schön stromsparend und vor allem sehr platzsparend zu verbauen.
Da kann man wirklich nette kleine Karten basteln, die auch in Mini-PCs locker rein passen.
Das wäre doch mal eine schön technologische Weiterentwicklung.
Wenn GDDR7 kommt, ist das wieder der gleiche Kram wie immer.
Soviel Wörter, weil du es als zu teuer empfindest? Also da entstehen doch keine hohen Kosten, die Nand Module werden mWn. über die gleichen Kontaktpunkte angebunden. Du musst nicht einmal das PCB neu entwerfen. Das ist das günstigste Upgrade, das du machen kannst, und erhälst mehr Datenraten. Mit anderen Worten, alles richtig gemacht.
Und ob du DLSS nicht magst, interessiert niemanden. Man wird nicht gezwungen es zu verwenden. Aber zwei Sachen lege ich dir ans Herz: Bei NV arbeiten verdammt schlaue Leute, die Vorteile in dieser Technik sehen (Tests gibt es genug). Und zum anderen wird es stetig weiter entwickelt. In den nächsten 10 Jahre wird DLSS eine entscheidende Rolle spielen, wenn wir Richtung 8K und 16K Auflösung gehen. Ich sehe die Grundidee der Technologie als klare Zukunft an.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Doof, wenn die Realität die kühnen Behauptungen schlägt.

Die Realität zeigt, dass man in FHD mehr als 6gb VRAM auslasten kann.

So einfach ist das.

Das kannst du herunterspielen, so oft du willst, es ist nunmal einfach so.

Aber hey, wenn's für dein Ego besser ist Recht zu behalten: Ich gebe dir recht. Popcorn kannst du auch haben.
 
Zuletzt bearbeitet:
@estros, verstehe (generell) nicht, wie man, wenn sich jemand sachlich mit der Materie auseinandersetzt und zb. DLSS als solches mit vertretbaren Argumenten negativ dastehen lässt, man eine Firma verteidigt mit dem Argument wie zb bei dir "da arbeiten schlaue Leute". Nvidia ist in Konkurrenz mit AMD, Intel mit AMD usw usw.
Nur weil auf beiden Seiten mit Sicherheit "schlaue" Leute arbeiten heisst das noch lange nicht dass da nur schlaues bei rauskommt. Man muss eben auch immer den Konkurrenten schlagen.

Und wenn es irrelevant ist wie Bxbender DLLS findet, ist es genauso irrelevant ob DU es für die Zukunft hälst ;)

Also abseits aller Tests (die man mit Sicherheit so oder so auslegen kann) zeigen die "Extrembeispiele" und wenn es auch wenige Spiele sind, den Trend. Da die benötigte Speichermenge logischerweise steigt, vorallem hinsichtlich des Releases der neuen Konsolen nächstes Jahr (ab Ende nächsten Jahres kannste alle neuen Games unter 8GB nur noch mit einbußen geniessen, einfach mal Behauptung von mir).
Ich hatte es oben schon beschrieben.....wer eine GTX 1070 mit 8GB 2016 bringt und 2019 höhere Leistung mit weniger Vram der verarscht seine Kunden.....sry aber ist so. Wer das nicht sieht, sieht echt nur Grün.Es gibt dafür keine verteidigende Argumente. Die Karten halten nunmal nicht so lange. Das ist Fakt.
Aber klar, wer das gut heisst soll bitte Kaufen ;)
 
Viper2000 schrieb:
@estros, verstehe (generell) nicht, wie man, wenn sich jemand sachlich mit der Materie auseinandersetzt und zb. DLSS als solches mit vertretbaren Argumenten negativ dastehen lässt, man eine Firma verteidigt mit dem Argument wie zb bei dir "da arbeiten schlaue Leute". Nvidia ist in Konkurrenz mit AMD, Intel mit AMD usw usw.
Nur weil auf beiden Seiten mit Sicherheit "schlaue" Leute arbeiten heisst das noch lange nicht dass da nur schlaues bei rauskommt. Man muss eben auch immer den Konkurrenten schlagen.

Und wenn es irrelevant ist wie Bxbender DLLS findet, ist es genauso irrelevant ob DU es für die Zukunft hälst ;)

Also abseits aller Tests (die man mit Sicherheit so oder so auslegen kann) zeigen die "Extrembeispiele" und wenn es auch wenige Spiele sind, den Trend. Da die benötigte Speichermenge logischerweise steigt, vorallem hinsichtlich des Releases der neuen Konsolen nächstes Jahr (ab Ende nächsten Jahres kannste alle neuen Games unter 8GB nur noch mit einbußen geniessen, einfach mal Behauptung von mir).
Ich hatte es oben schon beschrieben.....wer eine GTX 1070 mit 8GB 2016 bringt und 2019 höhere Leistung mit weniger Vram der verarscht seine Kunden.....sry aber ist so. Wer das nicht sieht, sieht echt nur Grün.Es gibt dafür keine verteidigende Argumente. Die Karten halten nunmal nicht so lange. Das ist Fakt.
Aber klar, wer das gut heisst soll bitte Kaufen ;)
Da arbeiten nunmal schlaue Leute, die weit mehr Ahnung von der Materie haben, als ein paar dahergelaufene Forumwichtigtuer. Wie gesagt, man muss es nicht mögen, dann lässt man es deaktiviert, senkt die Details dafür. Es macht aber Sinn und wird in Zukunft noch mehr Sinn machen. Rein technisch notwendig. NV ist hier ein echtes Vorbild, das auch von MS und Sony in irgendeiner Form in Zukunft auch auf der Konsole umgesetzt wird.

Ob du oder ich die 1660 mögen, ist mir ziemlich egal.😂 Ich halte es für lobenswert bis runter zur unteren Mittelklasse, nun die neuste Speichergeneration zu sehen. Damit machen sie alles richtig, ohne Kosten zu haben.
 
  • Gefällt mir
Reaktionen: Laphonso
Roche schrieb:
Ich habe mit der GTX 1070 für 220€ mehr Leistung und Speicher bekommen, als mit einer GTX1660Ti, welche mich mindestens 250€ kosten würde.
Du hast ne MSI Gaming 1070 für 220 Euro neu bekommen?
Wenn ja, dann war das ein super Schnapper, wenn nicht, dann vergleichst Du Äpfel mit Birnen.
Laut Geizhalt war die nie auch nur ansatzweise bei 220 Euro.

Für meine 1660 Ti habe ich übrigens neu 215 + Porto bezahlt, für den Extreme IV 15 Euro (gebraucht), für die Lüfter da drauf irgendwas um die 20 Euro.
Und die Kombi schlägt vermutlich in Punkto Lautstärke (ca. 300-400rpm reichen selbst bei Vollast) jede auf dem Markt erwerbbare Werkskühlung.

Die 1070 für 220 Euro hätte ich aber auch vorgezogen, ich halte den Preis für die Diskussion hier allerdings ungeeigent weil nicht reproduzierbar und vermutlich keine Neuware.
 
Cronos83 schrieb:
Die Realität zeigt, dass man in FHD mehr als 6gb VRAM auslasten kann.

So einfach ist das.

Das kannst du herunterspielen, so oft du willst, es ist nunmal einfach so.

Aber hey, wenn's für dein Ego besser ist Recht zu behalten: Ich gebe dir recht. Popcorn kannst du auch haben.
Wo ist die Relevanz?
Wo findet man Videos, Tests und Fakten und Problemthreads, dass die 6 GB VRAM der 1660Ti im Kontrast zur 1070 das Spielerlebnis beeinflussen?
ich habe in 30+ Videos null gefunden. Weil es in der Realität kein Problem darstellt. Weil 6 GB VRAM ausreichen für die 1660Ti. That’s it.
 
estros schrieb:
Da arbeiten nunmal schlaue Leute

lies nochmal meinen Post bitte.....warum wiederholst du dich denn?
Schau doch mal in die Vergangenheit.....natürlich hat Nvidia schon viele gute Features entwickelt. Amd genauso.
Aber gerade weil sie in Konkurrenz stehen und immer etwas bringen müssen was der andere nicht hat, gibt es auch genügend Beispiele wo Features wieder verschwunden sind. Das mit DLSS wird man dann in den nächsten Jahren sehen.

@Laphonso
ich glaube bei dem Thema kann man für beide Seiten Argumente finden.
Ich habe schon Tests gesehen, wo die Frametimes sich aufgrund des geringeren Rams deutlich verändern, oder bei Open Worlds wo beim Streaming unsaubere "Übergänge" vom nachladen in den Speicher entstehen. (Muss ich aber raussuchen ist schon lange her).
Eine andere Geschichte sind natürlich Mods wie zb. in Skyrim, GTA oder anderen Spielen. Da kann dann ganz schnell mal der VRAM als Flaschenhals gelten.
Es hat also im Moment für den 08/15 Gamer sehr wenig Relevanz, für andere jedoch schon.
Und in einem Jahr werden wir uns das nochmal ansehen und dann werden die Tests mit sehr hoher Wahrscheinlichkeit ganz anders ausfallen. Muss jeder selbst entscheiden ob er ne Karte kauft, über die er sich dann in 12 Monaten (möglicherweise) schon ärgert. Der Preis den die Karten kosten würden auf jeden Fall 2GB mehr problemlos möglich machen.
 
Laphonso schrieb:
Wo ist die Relevanz?

Viper2000 schrieb:
Ich habe schon Tests gesehen, wo die Frametimes sich aufgrund des geringeren Rams deutlich verändern, oder bei Open Worlds wo beim Streaming unsaubere "Übergänge" vom nachladen in den Speicher entstehen. (Muss ich aber raussuchen ist schon lange her).
Eine andere Geschichte sind natürlich Mods wie zb. in Skyrim, GTA oder anderen Spielen. Da kann dann ganz schnell mal der VRAM als Flaschenhals gelten.

@Laphonso
Unter anderem da ist die Relevanz.
Zählt aber ja für dich alles nicht.
Völlig verblendete Einstellung, aber Hey... ich geb dir wenigstens Recht. Das ist dir ja so wichtig. Und... ich hab dann meine Ruhe, wenn du hast ja recht ;)
 
Viper2000 schrieb:
lies nochmal meinen Post bitte.....warum wiederholst du dich denn?
Schau doch mal in die Vergangenheit.....natürlich hat Nvidia schon viele gute Features entwickelt. Amd genauso.
Aber gerade weil sie in Konkurrenz stehen und immer etwas bringen müssen was der andere nicht hat, gibt es auch genügend Beispiele wo Features wieder verschwunden sind. Das mit DLSS wird man dann in den nächsten Jahren sehen.

@Laphonso
ich glaube bei dem Thema kann man für beide Seiten Argumente finden.
Ich habe schon Tests gesehen, wo die Frametimes sich aufgrund des geringeren Rams deutlich verändern, oder bei Open Worlds wo beim Streaming unsaubere "Übergänge" vom nachladen in den Speicher entstehen. (Muss ich aber raussuchen ist schon lange her).
Eine andere Geschichte sind natürlich Mods wie zb. in Skyrim, GTA oder anderen Spielen. Da kann dann ganz schnell mal der VRAM als Flaschenhals gelten.
Es hat also im Moment für den 08/15 Gamer sehr wenig Relevanz, für andere jedoch schon.
Und in einem Jahr werden wir uns das nochmal ansehen und dann werden die Tests mit sehr hoher Wahrscheinlichkeit ganz anders ausfallen. Muss jeder selbst entscheiden ob er ne Karte kauft, über die er sich dann in 12 Monaten (möglicherweise) schon ärgert. Der Preis den die Karten kosten würden auf jeden Fall 2GB mehr problemlos möglich machen.
Und was soll ich mehr lesen, wenn ich deinen Post lese?😄
Und wieso soll ich in die Vergangenheit gucken? Sicher, dass du mit dem richtigen gerade sprichst? Ich bin so für DLSS wie du. Auch wenn’s derzeit nicht das bringt, was man verspricht.
Ob die schon andere Features präsentiert haben, steht doch gar nicht zur Debatte. Vllt atmest du nochmal tief durch. :D
 
Cronos83 schrieb:
@Laphonso
Unter anderem da ist die Relevanz.
Zählt aber ja für dich alles nicht.
Völlig verblendete Einstellung, aber Hey... ich geb dir wenigstens Recht. Das ist dir ja so wichtig. Und... ich hab dann meine Ruhe, wenn du hast ja recht ;)
Verlink doch mal das, was ich mir zum dritten Mal wünsche. Ansonsten ja, findest auch Du keine Fakten, welche die 6 GB Vram problematisiere. Dazu müsste man ja Tests finden und Videos. So zum nachschauen.
Hast Du auch nicht parat? Sag das doch ;)
 
Laphonso schrieb:
Verlink doch mal das, was ich mir zum dritten Mal wünsche.

Wie schonmal erwähnt, es ist nicht unsere Aufgabe deine Wissenslücken zu schließen.
Leb einfach weiter in deiner Wahrheitswelt.

Tipp am Rande, man findet überschritten 6gb VRam in FHD selbst hier auf CB.
Schaffst du sicher selbst, das zu finden.
 
Cronos83 schrieb:
Wie schonmal erwähnt, es ist nicht unsere Aufgabe deine Wissenslücken zu schließen.
Leb einfach weiter in deiner Wahrheitswelt.

Tipp am Rande, man findet überschritten 6gb VRam in FHD selbst hier auf CB.
Schaffst du sicher selbst, das zu finden.
It's clear that right now, even for 4K gaming, 6GB of VRAM really is enough
https://www.techspot.com/article/1785-nvidia-geforce-rtx-2060-vram-enough/

dann ist das geklärt, und ja, ich habe recht. Indem ich auf die Fakten und Testergebnisse verweise. Also nur zitiere. Ist ganz einfach :)

6 GB VRAM = non issue, siehe oben.
 
Richtig.
Du suchst dir die Ergebnisse, die für dich passen.
Ziemlich schwach.

Dass es genug User gab, die das Gegenteil erfahren habe ist dir egal.

Wie ich schon sagte... Lab ruhig weiter in deiner eigenen Welt. Wenn dich das glücklich macht sind doch alle zufrieden :daumen:

Die Erde ist flach!
Fanden auch mal viele richtig und als einzige Wahrheit akzeptabel.
 
Zurück
Oben