Test GeForce RTX 2060 im Test: Schnelle GPU trifft 6 GB statt 8 GB GDDR6 für 370 Euro

paule123 schrieb:
Laut Overlay 5,5GB VRAM belegt. Jetzt und hier, in Full HD, ohne "Ultra" Texturen oder irgendwas.

Nunja es ist jedoch ein himmelweiter Unterschied wie viel VRAM reserviert oder tatsächlich benötigt wird ;)
 
  • Gefällt mir
Reaktionen: .Sentinel. und Oneplusfan
@domian Das stimmt natürlich, bzw. ich kann es nicht beurteilen. Es kann ja gerne mal jemand mit einer 3-4 GB Karte gegentesten. Andererseits spricht es trotzdem dafür, dass es sehr kurzsichtig ist sich jetzt noch ne Karte mit weniger als 8GB zu kaufen. Zumindest in dem Preisbereich.
 
Wer meinte nochmals die RTX2060 sei Zukunftssicher und sogar für WQHD geeignet ? ok man kann bei einer ~400€ aufwärts Karte dann noch die Einstellungen auf Medium runterschrauben ...

Wer 60 Fps in WQHD (2.560 × 1.440) genießen will (Setting: High), braucht laut Ubisoft 16 GiB RAM, einen Ryzen 7 1700 oder einen Core i7-6700K sowie eine RX Vega 56 oder Geforce GTX 1070. Interessant ist der Hinweis auf 8 GiB VRAM - hier würde die Geforce RTX 2060 theoretisch durchfallen, praktische Tests werden zeigen, wie gut die jüngste Turing-Grafikkarte mit den Anforderungen klarkommt.

Eine Etage höher ist das Elite genannte Setting für UHD und 60 Fps. Auch hier steigen die CPU- und GPU-Anforderungen laut Ubisoft, genannt werden ein Ryzen 7 2700X und ein Core i9-7900X sowie die gerade erst angekündigte Radeon VII und die Geforce RTX 2080 Ti. AMD selbst sieht die Radeon VII nur in Schlagweite der Geforce RTX 2080. Allerdings bietet die Letztgenannte "nur" 8 GiB VRAM und The Division 2 braucht für das Elite-Setting laut Ubisoft 11 GiB. - http://www.pcgameshardware.de/Tom-C...Spiel-61585/News/Systemanforderungen-1272929/

Übrigens sind die ersten Custom Modelle bei Geizhals gelistet.
 
Nach all den Hardware-Anforderungstabellen der letzten Jahre, die sich zum großen Teil als unwahr herausgestellt haben (etwa weil einfach (wie hier) übertriebene Anforderungen an die CPU Leistung gestellt werden), was macht genau diese Tabelle dann besser bzw. vertrauenswürdiger?
Man kann hier doch keine Karte auf Basis eines Spiels verurteilen, welches noch nicht mal erschienen ist.
Das ist so, als würde man die Netzteilmindestangabe des GPU Herstellers befolgen.

Des weiteren geht es hier lediglich um Texturen, einer Grafikoption von vielen. Die muss man bei der 2060 womöglich eine Stufe runterstellen, wer das nicht kann, der kauft halt ne 8 GB Karte. Zu sagen, Texturen sind "kostenlos" solange Grafikspeicher vorhanden ist, stimmt zum einen oft nicht, da es dann doch auch Leistung kosten kann, zum anderen zahlt man ja auch den verbauten VRAM mit. Bei der einen Karte kriegt man halt mehr VRAM, bei der anderen mehr Leistung. Man steht so gesehen quasi auf beiden Karten in irgend einer Weise schlecht da.
Zumal sich eh erst noch herausstellen muss, ob die Texturen den Verbrauch rechtfertigen und ob ein Unterschied zwischen High und Ultra erkennbar ist.
Man kann schön an Witcher 3 in 4k sehen, was möglich wäre an VRAM Verbrauch.

Jede Wette, dass bald auch günstigere 2060er (350€) kommen. Im Februar dann vermutlich welche um 320€. Für das Geld und 1080p würde ich sie einer Vega vorziehen (Wenn da der Preis konstant bleibt). Texturfetischisten und Bastler können ja trotzdem ne Vega kaufen, ist ja noch lange keine schlechte Karte deswegen.
 
Kauf Mich! (Toten Hosen)
 
Roche schrieb:
Ha! In your Face, ihr "6GB sind genug" Schwätzer! Sind sie eben nicht.
doch sind sie, das bestätigt sogar die Seite hier ...

Massig Trolle unterwegs im Beitrag
 
Kenny35 schrieb:
doch sind sie, das bestätigt sogar die Seite hier ...

Massig Trolle unterwegs im Beitrag
Hab grad nochmal den Port Royal Benchmark laufen lassen, die Demo nimmt 5,2 GB der Benchmark 5,9. Also dafür reichts offensichtlich. Und BF5 in Ultra auf FHD nimmt sich bei mir in Nordlys Single Player 5,9 Gb. Dafür reichts also auch. Mal sehen was DLSS so bringt. Habe die RTX 2080 FE. Das sind immerhin 8 Gb drauf.
 
Kenny35 schrieb:
doch sind sie, das bestätigt sogar die Seite hier ...

Massig Trolle unterwegs im Beitrag
Öhm.. nein?

CB-Test schrieb:
Aber es gibt heute bereits einige Titel, die nach mehr verlangen und bei maximalen (Textur-)Details anfangen zu ruckeln, obwohl die GPU schneller rendern könnte. In dem Fall ist die einzige Gegenmaßnahme, die Texturdetails zu reduzieren, was zum Beispiel auf einer Radeon RX 580 nicht nötig ist. Diese Probleme werden sich in Zukunft häufen.
 
  • Gefällt mir
Reaktionen: Jake Grafton
Weils so schön ist zitiere ich mal noch cb aus dem Fazit:

"Ist die GeForce RTX 2060 damit sogar ein Preis-Leistungs-Tipp? Nein. Denn wie die GeForce GTX 1060 verfügt auch die GeForce RTX 2060 über einen nur 6 GB großen Speicher. Dieser ist im Jahr 2019 nicht mehr zeitgemäß. Erst recht, weil günstigere Mittelklasse-Modelle der Konkurrenz bereits seit zweieinhalb Jahren über 8 GB verfügen. " Zitat Ende.

Für Aussagen dieser Art wurden in den vorherigen News und Artikeln hier bei cb in denen es um die 6 GB Speicher ging diverse Leute verwarnt oder sogar gesperrt. Eigentlich müsste sich jetzt cb konsequenterweise selber sperren und auflösen. Vielleicht regt das den ein oder anderen Moderator mal zum Nachdenken an, denn Fakten kann man leider nicht widerlegen, auch wenn man es mit Zensur versucht bis zum letzten Meter irgendwie alles anders zu drehen. Hier wird das mit dem Speicher auch nur klar benannt, da es gar nicht mehr zu leugnen ist.
 
Glaube seit GCN1 behaupten die ganzen NVdianer das die NV karten genug Speicher haben und die AMD Karten zuviel.
Lagen bis jetzt immer Falsch nach 1-2 Jahren, aber bis dahin kaufen die ja eh ne neue 60er karte für wohl 400€ mit 8GB.:evillol:
Zumindest knausert NV nicht bei ihren Highendkarten, Titan... lol.
 
Zuletzt bearbeitet von einem Moderator:
@ZeroZerp
Leider hast du nichts verstanden was ich geschrieben habe.

Aber danke für den Link, wo klar ersichtlich ist, das dies die Mutmaßungen der Redaktion sind, das DLSS auch für 1080p kommen wird mit dem einführen bei BF 5.

Wie ich es mir schon gedacht habe.

Stand jetzt, nutzt 1 Game RTX und 1 Game DLSS. Beides nicht komplett umgesetzt, weil einfach beide Features auf den Markt geworfen wurden ohne den Entwicklern der Spiele genügend Zeit zu geben diese zu erlernen und zu integrieren. Somit bleibt einfach Fakt, spielt man weder BF 5 noch FF XV, hat man von den neuen Features 0. Zahlt aber trotzdem den Aufschlag. Und wenn man bedenkt, das die ersten neuen Spiele die möglicherweise die Features dann nutzen auch erst in 3-6 Monaten rauskommen. Joar, Katze im Sack gekauft.

Bei AMD Grafikkarten wird immer gesagt (von nVidia Käufern): Ich brauche die Leistung aber jetzt und nicht erst in X Monaten/Jahren.
Also was bringen mir JETZT Features die vielleicht erst nächstes Jahr (wenn überhaupt), die von dir kolportierten 3-10 mal so viel Leistung bringen? Genau: Gar nichts.

Aber schön, das du nicht müde wirst uns allen immer wieder auf zu zeigen wie toll doch alles ist, was von nVidia kommt. ;)
 
  • Gefällt mir
Reaktionen: Sennox
Selanius schrieb:
@ZeroZerp
Leider hast du nichts verstanden was ich geschrieben habe.
Dann liegt hier ein Sender-Empfänger Problem vor.

Dann versuch es mir vielleicht noch einmal auf anderem Wege zu erklären, was Du meinst.

Aber danke für den Link, wo klar ersichtlich ist, das dies die Mutmaßungen der Redaktion sind, das DLSS auch für 1080p kommen wird mit dem einführen bei BF 5.

Wie ich es mir schon gedacht habe.
DLSS 1080P für BF5 ist von NVIDIA bestätigt.
https://www.vgr.com/battlefield-5-dlss-according-nvidia/

Somit bleibt einfach Fakt, spielt man weder BF 5 noch FF XV, hat man von den neuen Features 0. Zahlt aber trotzdem den Aufschlag.
Welchen Aufschlag? Die 2080 RTX ersetzt preisgleich eine 1080TI und die 2060 RTX die 1080 zu einem Preis von 370 Euro.
Und wenn man bedenkt, das die ersten neuen Spiele die möglicherweise die Features dann nutzen auch erst in 3-6 Monaten rauskommen. Joar, Katze im Sack gekauft.
Battlefield 5, Shadow of the tomb raider, control, metro exodus, ffXv, Justice. Das sind die bekannten Titel Q1 2019.

Wer das nicht mit RT, GI oder welchem neuen Effekt auch immer vorerst nicht spielen will, braucht keine RTX Karte und damit auch nicht, wie Du es nennst, "die Katze im Sack" kaufen.

NVIDIA macht ein Angebot. Keiner ist gezwungen, dieses anzunehmen. Da muss auch niemand aus was für einem Grund auch immer auf die Firma schimpfen. Man hat die freie Entscheidung.

Wer die neuen Effekte und Beschleunigungsfunktionen überhaupt nicht haben will und darauf hofft bzw. spekuliert, dass diese Funktionen zukünftig nicht eingesetzt werden und einem die vielfältigen neuen Möglichkeiten sowieso nicht zusagen, braucht sich auch nichts kaufen.

Bei AMD Grafikkarten wird immer gesagt (von nVidia Käufern): Ich brauche die Leistung aber jetzt und nicht erst in X Monaten/Jahren.
Das ist richtig.

Also was bringen mir JETZT Features die vielleicht erst nächstes Jahr (wenn überhaupt), die von dir kolportierten 3-10 mal so viel Leistung bringen? Genau: Gar nichts.
Wenn Dich die Titel, die für dieses Jahr angekündigt sind, nicht interessieren.
Oder RT bzw. die anderen Beschleunigungsfunktionen, dann ist die Diskussion hinfällig. Natürlich nützen Dir aktuell Dinge nichts, wo Du davon ausgehst, dass sie sich nicht durchsetzen, verspäten, Dir keinen Mehrwert bringen etc.
Ist ja das gleiche Theater jetzt mit den 16GB der neuen AMD Grafikkarte. Die könnten auch vielleicht irgendwann mal interessant werden, nur wann? Und ist dann, wenn solche VRAM Belastungen erreicht werden der Core- Chip leistungsfähig genug? Auch alles reines Wetten auf die Zukunft.

Aber schön, das du nicht müde wirst uns allen immer wieder auf zu zeigen wie toll doch alles ist, was von nVidia kommt. ;)
Schön, dass Du 99% meiner Threads, in welchen ich Herstellerunabhängig bedauere, wenn sich tolle Innovationen nicht durchsetzen, einfach ignorierst.
Auf eine Marke bzw. einen Markennamen setze ich persönlich einen großen Haufen. Technik und Innovation ist das, was mich interessiert. Der der sinnvoll Neues bringt, steht in meiner Gunst.

Und wenn die "Sepp Huber Geforce Radeon 10080" mit interessanten neuen Features auf den Markt kommt, dann werde ich die bevorzugen.
Hört mal mit dem ewigen Schubladen- und Markenfetischismus auf. Das nervt auf Dauer und ist technisch kein Argument für irgendwas.

Grüße
Zero
 
Zuletzt bearbeitet:
Es war eben Alles viel einfacher als ATI noch vorne mit dabei war. Im Grunde ist auch die jetzt releaste Radeon VII noch immer ein Produkt der der ATI Entwicklungsabteilung von vor der AMD Übernahme. Die haben die ATI Kuh gemolken bis nix mehr ging. Damit haben sie die Ryzen Entwicklung gegenfinanziert. Spätestens bei Vega war die Luft raus. Ich hoffe imständig, dass entweder Navi was richtig Neues ist, oder dass die alte ATI Gang bei Intel was auf die Reihe kriegt. Konkurrenz belebt das Geschäft, fehlende Konkurrenz mach jetzt Nvidia zu Buhmann und natürlich auch die Preise kaputt. Ab erstmal liegt der Ball bei AMD und ich fürchte nur mit 7nm und 16Gb ist nicht genug.
 
Waelder schrieb:
im Test wäre gerade der Vergleich zur 1070ti interessant gewesen - da dies ja der angepriesene Konkurrent aus eigenem Hause ist...
Ich verstehe auch nicht warum die fehlt.
Warum fehlt die denn, Computerbase?
 
Gnageseil schrieb:
Ich verstehe auch nicht warum die fehlt.
Warum fehlt die denn, Computerbase?

Wurde im Thread schon erklärt!

Schlichtweg weil man von der Leistungsfähigkeit überrascht war und die Zeit um die Jahreswende nicht dazu gereicht hat noch eine zusätzliche Karte in den Vergleich zu nehmen.
 
Sorry, ZeroZerp, aber der Funke springt einfach nicht über. Liest sich einfach immer wieder aufs neue: Hätte, wäre, könnte.
Und von den ganzen Spielen die jetzt kommen sollen mit RTX und/oder DLSS, muss auch erst einmal auch nur 1 beweisen, das sie es besser umsetzen. Also auch hier gibt es keine Vorschusslorbeeren. Harte Fakten die auch belegbar sind, die zählen. Und sicher keine Marketingaussagen du du immer wieder einem vorsetzt.
 
Der Worte sind genug gewechselt, drum lasst uns endlich Taten sehen!
 
Moin! Falls sich hier jemand eine 2060 holt oder bereits hat bitte ich ihn ein Ergebnis im Benchmark Thread (siehe Signatur) einzureichen 😁. Das CB Team darf natürlich auch mitmachen 😅. Viele Grüße KCX
 
Chismon schrieb:
Bezueglich des Speichers braucht man nicht auf die Zukunft zu spekulieren, denn dass (AAA) Spieletitel in aktueller Produktion jetzt schon mehr als nicht mehr zeitgemaesse 6GB Speicher (wobei es schon wie lange 8GB im Mittelklassesegment gibt ... genau, seit AMDs/RTGs RX 470) benoetigen werden, davon ist schwer auszugehen ;).

Mehr Speicher zu haben ist immer ratsam und wenn man eben mit einem laengerfristigen Anlagehorizont/Nutzungszeitraum kauft - als die Early Adopter und Hobbyenthusiastenfraktion hier auf CB - wird man mit 6GB bei dem ein oder anderen in nicht allzuferner Zukunft erscheinenden Titel wohl speichertechnisch (bei hoeheren Texturanspruechen) verhungern.

Dazu sollte man sich auf der Zunge zergehen lassen, dass bei Samsung (und den anderen Speicherherstellern) seit Monaten die Speicherpreise sinken und sich nVidia mit 2 GB mehr bei einer RTX2060 Mittelklassekarte wohl auch finanziell sicherlich keinen Zacken aus der Krone gebrochen haette.

Die RTX 2060 Karte ist trotz zugegeben hoeher als erwarteter Leistung (auf beinahe GTX 1080 Niveau) im Preis dafuer (aktuell) auch viel zu hoch fuer die Mittelklasse-Gamer angesetzt (mit 370 Euro) und was - ausser Mesh - bietet sie denn mehr gegenueber einer GTX 1070Ti?

Mesh gibt es in Wolfenstein II - wie von Dir richtig angefuehrt und ist dort sehr passabel/vorteilhaft umgesetzt - aber DLSS und RT-Raytracing (???) mit einer RTX 2060 Karte mit 6GB (nur ausreichend fuer RT-Raytracing im Ruckelorgienmodus), die kaum 4K/UHD-faehig ist (was fuer DLSS benoetigt wird), sind doch eine klassische Witznummern und dienen mehr der Bauernfaengerei.

Ergo, ist man mit einer GTX 1070Ti - wenn man eine solche noch zu einem halbwegs vernuenftigen Preis im Abverkauf erstehen kann/will - und selbst einer RX Vega56 von AMD/RTG laengerfristig besser bedient als einer RTX 2060, die trotz Neupreis schon in Kuerze veraltet sein wird, weil selbst eine mittlerweile angestaubte GTX 1070 mehr Speicher und Langlebigkeit bietet.

Um noch einmal auf den Preis zurueck zu kommen, da heisst es man solle die RTX 2060 6GB Karte mit einer GTX 1060 6GB vergleichen, aber preislich liegt sie ab Martkstart oberhalb von einer GTX 1070 und wo liegt da bitteschoen der Fortschritt in der Rohleistung?

Ja gut, sie kommt mit Mesh als Teil der Turing Architektur, der Rest (DLSS und RT-Raytracing) ist quasi nur eingeschraenkt bis nicht sinnvoll nutzbar und wo rechtfertigt sich dann der (dreiste RTX-)Aufpreis trotz weniger Speichermenge gegenueber einer GTX 1070?

Verbrauch und Lautstaerke fallen auch nicht signifikant besser aus (wie normalerweise schon bei einer nVidia 60er gegenueber der Vorgaenger-70er Karte) und man soll also quasi genauso viel bezahlen fuer kaum Mehrleistung als vor 2 Jahren und viele neue Luftblasen-Features, die aufgrund des Speichergeizes bei nVidia auch bei dem bisher kleinsten Turingableger nicht genutzt werden koennen :lol:?

Die RTX 2060 6GB hat es m.M.n. nicht gebraucht und dient auch als Abverkaufkoeder fuer die GTX 1070 und GTX 1070Ti und es bleibt zu hoffen, dass mit Ausnahme der kurzfristig orientierten Kaeufer (die Ihre GPU maximal 2 Jahre halten und dann wieder zugreifen und die Preistreiberei in dem Bereich damit gut anheizen) da nVidia keiner auf den Leim geht und am stagnierenden Speicher verhungert.

Was Mesh angeht, so ist nVidia mit der Turing-GPU-Archtiektur im Gegensatz zu Pascal (welches nur ein getunter Maxwell Shrink war und damit wenig innovativ und dabei bleibe ich nach wie vor) loeblicherweise deutlich fortschrittlicher unterwegs und waeren DLSS und RT-Raytracing halbwegs ausgereift (und mit ausreichend Spieletiteln zum Marktstart schon unterfuettert gewesen), bevor man diese Features ohne jeglichen Gegenwert zum Marktstart nur fuer eine Gruppe von Early Adoptern und Hobby-Enthusiasten mit angepriesen hat und sich massivst dafuer entlohnen liess, und durch die Bank in allen Kartenklassen angeboten worden, dann waere die RTX-Erstgeneration auch bedeutend besser angekommen und die teuren Preispillen haette der ein oder andere auch williger geschluckt, aber so ist/bleibt es unausgegoren.

Inwieweit Mesh in der Breite, evt. auch von AMD/RTG mit getragen (unter anderem Namen), und wann relevant werden wird, ist noch nicht abzusehen, auch wenn es von nVidia bei ausgewaehlten Publishern gesponsort werden duerfte.

So gesehen ist die Entfaltung/Durchdringung von Mesh in Spielen schwer einzuschaetzen, aber der Nutzen von mehr GPU-Speicherausbau bei nVidia und AMD/RTG natuerlich absehbar, so dass Dein direkter Vergleich da ein wenig hinkt (mehr Speicher wird notwendig werden wie das Amen in der Kirche und ist keine Wette, aber man wird auch ohne RTX-Features eine ganze Weile gut auskommen, wenn letztere sich denn in der Breite etablieren sollten).

Es macht den Anschein, als ob ein 7nm Turing Refresh mit dann hoffentlich/ueberfaellig groesserem Speicherausbau nicht in allzu weiter Ferne liegt und natuerlich haengt das zum Teil auch an AMD/RTG bzw. was letztere anbieten werden.

Wenn es so kommen sollte (ein Turing RTX Refresh in 7nm Anfang 2020 schon), dann koennte man wegen des echten Shrinks auf 7nm, davon ausgehen, dass 12nm Turing-Kaeufer mit Sicherheit vergleichsweise angeschmiert waeren.

Wer jetzt bei der RTX 2060 (schon) zugreift macht m.E. einen Fehler und ich wuerde in jedem Fall raten das abzuwarten, was die Konkurrenz bieten wird dieses Jahr (AMDs/RTGs Navi GPUs), da 7nm Navi GPUs in aehnlicher Leistungsklasse (wie die RTX 2060) mindestens mit 8 GB Speicherausbau aufwarten duerften.

Es gibt also keinen Grund nVidia mit einem Kauf fuer diese speichertechnisch (bewusst) verkorkste RTX 2060 zu belohnen (es sei denn man moechte die Preis- und Produktpolitik und Quasi-Monopol von nVidia damit gutheissen), aber viele lassen sich eben von den paar fps alleine blenden und uebersehen gerne, was dort im argen liegt.

Eine Kaufempfehlung, wie von Igor/Tom's Hardware fuer die RTX 2060 ausgesprochen, verdient diese GPU aufgrund der o.g. Gruende m.E. mit Sicherheit nicht und ich denke auch nicht, dass all diese Aspekte dort beruecksichtigt worden sind.

So gesehen halte ich die Einschaetzung von Wolfgang/CB bzgl. der RTX 2060 definitiv fuer zutreffender als die von Tom's Hardware in diesem Fall und da spielt es auch keine Rolle mit wie viel Akribie/Umfang letztere an den Test herangegangen sind, denn die entscheidenden Punkte, die die RTX 2060 eingeschraenkt empfehlenswert machen, wurden m.E. unter den Teppich gekehrt.

Natuerlich haengt das auch von der Perspektive ab und ich bin nunmal kein GPU-Kaeufer im 2-Jahre-Maximal-Zyklus, aber ich denke der Mehrheit (in dem Preissegment) geht das ebenso und diese hat auch keine Lust alle 2 Jahre noch mehr frisierte/diktierte Preise fuer wenig bis kaum Leistungszuwachs bei GPUs zu berappen, nur damit bei nVidia der Rubel rollen kann.

Aber eine GPU für 350€, welche so stark ist wie eine 1070Ti und teils gleich auf ist wie eine GTX 1080, welche 800+€ kostet, aufgrund des 6GB Speichers abzutun ist doch auch nicht immer richtig. Für FHD Spieler ist das doch ein super Preis! Ich bin bisher mit 2GB VRAM ausgekommen übrigens.
Wem 1080p zu niedrig sind, würde ich das aber nicht empfehlen.
 
seb7o schrieb:
... eine GPU für 350€, welche so stark ist wie eine 1070Ti und teils gleich auf ist wie eine GTX 1080, welche 800+€ kostet, aufgrund des 6GB Speichers abzutun ist doch auch nicht immer richtig. Für FHD Spieler ist das doch ein super Preis! Ich bin bisher mit 2GB VRAM ausgekommen übrigens.
Wem 1080p zu niedrig sind, würde ich das aber nicht empfehlen.

Die GTX 1080 ist doch nur noch als Restposten erhältlich bei 800 Euro (???), das ist ein "Sammlerpreis" und mehr als zum Marktstart, das kannst Du nicht ernsthaft vergleichen wollen?

Nimm die Vega56 auch noch mit hinein mit 8GB HBM2 und HBCC, die teilweise schon für ca. 260 Euro angeboten wird (und wohl auch noch wird), das ist ein super Angebot, aber die GTX 2060 wohl kaum.

Dagegen werden doch Mondpreise bei einer 6GB GTX 2060 genommen (na gut, die GTX 1660Ti mit 6GB, etc. sind noch größere Abzocke im Vergleich zur GTX 1070 mit 8GB etwa, die noch nicht komplett abverkauft ist bzw. wo noch keine "Sammlerpreise" anfallen ).

Von vernünftigem Preis-Leistungsverhältnis ist bei nVidias neuen Grafikkarten weit und breit nichts zu sehen, da höhere Preise für weniger Hardware (als bei Pascal oder auch der Konkurrenz) mit stagnierender Leistung von vor 2,5 Jahren genommen werden.

Die aktuelle Masche von nVidia mehr zu verlangen für weniger Hardware und gleiche Leistung wie bei der letzten Generation kann doch keiner gutheißen wollen, sorry, da wird der Kunde massiv durch den Kakao gezogen mit mittlerweile bewusst kurzlebigen Produkten, um sich daran noch gesünder stossen zu können als (als Marktführer und Quasi-Monopolist mit immer noch üppigem Gewinn) ohnehin schon.

Naja gut, aber wie repräsentativ bist Du denn mit 2GB bisher (?), ich habe auch nur 2GB (GTX670OC), aber einiges kann ich da komplett vergessen, weil es nur für mittlere bis niedrige Qualität reicht.

Dann brauche ich erst gar nicht anzufangen, denn wenn ich schon meine Zeit dafür/zum spielen verwende und eine neue/Neupreis GPU kaufe, möchte ich nicht wieder direkt spürbar eingeschränkt werden (ultra Details müssen es natürlich auch nicht durchgehend sein).

Zudem sollte idealerweise das gute Stück auch wieder 4+ Jahre langen, selbst wenn man bspw. von WQHD zu Full-HD im Laufe der Zeit die Karte durchreichen muss.
 
Zurück
Oben