Notiz GeForce RTX 2060: Custom Designs ab 369 Euro im Handel verfügbar

Selanius schrieb:
Du tust ja so, als wenn man ohne RTX Karte Metro nicht vernünftig spielen könnte, auch was die Atmosphere angeht.

Wo habe ich das so behauptet? Ich behaupte nur, dass die Einschränkungen in der Bildqualität durch 6GB VRAM bei diesem Spiel kleiner werden als durch fehlendes RTX.

Wer das Geld für eine 2070 hat, soll sie kaufen, wer die höchste Qualitätsstufe nutzen will, braucht eine 2080Ti. Es ist nur Schwachsinn zu behaupten, die 2060 wäre deshalb unbrauchbar. Dann müsste man dies auch für alle Karten außer der 2080Ti sagen.

Schon Rise of the Tomb Raider vor vier Jahren war in der höchsten Qualitätsstufe nicht mit 6GB VRAM spielbar, daran hat sich bisher nichts geändert und man wird mit fast jeder Karte "Kompromisse" eingehen müssen.

Man muss da auch mal zwischen Battlefield und Metro einen Unterschied ziehen. Während bei Battlefield vor allem die Reflexionen im Vordergrund standen und viele diese sogar zum Teil als störend oder übertrieben empfangen, geht es bei Metro vor allem um die Beleuchtung und eine düstere Atmosphäre. Mit einer Taschenlampe durch düstere Gänge herumlaufen, irgendwo plötzlich aus dem Schatten auftauchende Gegner oder irgendwelche kaum beleuchteten Gebäude oder Höhlen.

Das Metro RTX Demo zeigt eindrucksvoll welchen riesigen Unterschied Raytracing in diesem Spiel ausmachen wird und das 60min Gameplay Video zeigt wie viele Stellen man in diesem Spiel mit Licht und Schatten spielt. Die Qualität dieser war von dem von einer Xbox One X aufgenommenen Video eher schlicht und hier wird sich die Frage stellen ob man auf dem PC noch zusätzliche Arbeit in Fakebeleuchtung investiert hat oder ob man sich lieber gleich auf Raytracing konzentriert hat.
 
Zuletzt bearbeitet:
Wozu brauche ich eine RTX2080Ti um in der höchsten Qualitätsstufe auf FHD spielen zu können? Verwechsel bitte nicht immer Auglösung mit Bildqualität. Ist ja schrecklich, das hier für viele es ein und dasselbe ist.

Die RTX2060 ist von der Leistungsfähigkeit der GPU eine WQHD Karte, aber durch den kleiner ausgefallenen VRAM eine FHD Karte. Und daher dreht sich das ganze Thema seit Wochen in allen Threads zur RTX2060 um FHD als Auflösung. Und selbst da, muss man jetzt schon bei einer neuen Karte bei Spielen die eben mehr VRAM benötigen, unabhängig davon ob gut oder schlampig programmiert, Regler nach links schieben. Wie gesagt wir reden hier von FHD und einer brandneuen Karte.

Also wenn jetzt Metro raus kommt und man das Spiel unter FHD mit dieser Karte spielen will und das RT Feature (für das man ja ca. 100-150€ mehr zahlen darf [je nach Hersteller der RTX2060] als ohne) nutzen will, muss man Regler nach links bewegen um nicht im VRAM Limit zu landen.
Wen interessiert es da bitte, wie toll Metro aussieht mit RTX, wenn man es nicht nutzen kann mit seiner neuen Karte unter FHD (für das die Karte ja eigentlich optimal nutzbar sein soll) und man gezwungen ist Effekte zu verringern.

Und natürlich müssen die Entwickler von Metro auch in die von dir genannte Fakebeleuchtung investiern. Zum einen aus dem Grund weil die RTX Karten keine große Verbreitung haben (wie auch wenn nVidia wieder mal zu gierig war) und zum anderen eben auch wegen den Konsolen. Man will ja den Kunden zum Kauf bewegen und möglichst auf allen Plattformen auf denen man den Titel veröffentlicht möglichst viele Spiele verkaufen.
Also muss es auch auf Non RTX Systemen schön aussehen.

Natürlich wird Metro mit RTX am besten aussehen. Aber auch ohne wird es trotzdem sehr schön aussehen. Alles andere wäre wie ein Schlag ins Gesicht. Und das kann sich kaum ein Entwickler leisten, wenn man auch in Zukunft Spiele verkaufen will.
 
  • Gefällt mir
Reaktionen: I'm unknown
Selanius schrieb:
Wozu brauche ich eine RTX2080Ti um in der höchsten Qualitätsstufe auf FHD spielen zu können?

Keine Ahnung! Die Rede war offiziellen Systemanforderungen! Man könnte sich da direkt die Frage stellen, wozu man einen I9-9900K dafür benötigt. Vermutlich wird dieser genauso wenig notwendig sein, die die 8GB VRAM für die hohe Qualität, aber warten wir einfach den Test ab.
1548606054249.png


Selanius schrieb:
Also wenn jetzt Metro raus kommt und man das Spiel unter FHD mit dieser Karte spielen will und das RT Feature (für das man ja ca. 100-150€ mehr zahlen darf [je nach Hersteller der RTX2060] als ohne) nutzen will, muss man Regler nach links bewegen um nicht im VRAM Limit zu landen.
Wen interessiert es da bitte, wie toll Metro aussieht mit RTX, wenn man es nicht nutzen kann mit seiner neuen Karte unter FHD (für das die Karte ja eigentlich optimal nutzbar sein soll) und man gezwungen ist Effekte zu verringern.

Wie ich schon bereits gesagt habe, lieber bewege ich die Regler bei Bedarf nach links und verzichte auf eine Texturstufe, als das ich gar kein RTX nutzen kann und auf die komplette Raytracing Beleuchtung verzichten muss. Ob du den Unterschied bei den Texturen sehen wirst ist unklar und häufig nicht der Fall, den Unterschied zwischen RTX an/aus wirst du sehen.

Lieber verzichte ich auf ein paar AA Stufen, High-Res Texturen oder sonst irgendein Effekt als auf RTX. Letztendlich sind Karten wie die 2060 noch immer Mittelklasse und einen Kompromiss wird man hier eingehen müssen. Ich finde es übrigens Schwachsinnig wie viele versuchen, die Leistungsstufen rein nach der Auflösung aufzuteilen, weil die Auflösung nur ein Kriterium ist und bestimmte Features unabhängig von der Auflösung viel Leistung kosten.
 
Zuletzt bearbeitet:
xexex schrieb:
Ob du den Unterschied bei den Texturen sehen wirst ist unklar und häufig nicht der Fall
Also auf meinem 60" TV (FHD) sehe ich da meistens einen Unterschied.
xexex schrieb:
den Unterschied Zwischen RTX an/aus wirst du sehen.
Darüber sprechen wir wenn das fertige(!) Spiel auf dem Markt ist. Und wie viel hier eine 2060 bringen wird :D.
 
Ist ja schön und gut, das du @xexex dann lieber den Regler nach links bewegst um RTX nutzen zu können. Aber wozu gibt es dann eine RTX2060 überhaupt? Ich meine, die Karte ist neu, hat das RTX Featureset und kostet je nach Karte zwischen 350 und 450 Euro. Welchen Sinn hat es eine neue Karte zu kaufen und deren Featureset nur nutzen zu können, wenn man in FHD schon zum Start der Karte Einstellungen verringern muss.

Der Sinn hinter den RT Cores ist doch gerade die Leistung der Karten zu erhöhen und Berechnungen auf diesen Extra Kernen laufen zu lassen. Wieso muss man dann als Nutzer einer solchen Karte in FHD Einstellungen verringern um dann RT überhaupt nutzen zu können?
Wie kann man sich hier und in anderen Threads bitte immer wieder hinstellen und das Feature in den Himmel loben, wenn es zwar "Tolle Bilder" auf den Bildschirm bringt, aber der Nutzer bei einer NEUEN Kartengeneration nur die Wahl hat zwischen, Features extra bezahlen nicht nutzen da es zu viel Leistung kostet, oder Features nutzen und die Einstellungen runter setzen, weil es eben zu viel Leistung kostet.

Wir reden hier nicht von einer 150€ Karte aus dem Einstiegssegment, sondern von einer 350€ und aufwärts Karte. Das ist viel Geld für etwas, was nur bedingt nutzbar ist und man nur die Wahl zwischen entweder und oder hat, aber nicht alles auf einmal nutzen kann. Das ist kein gutes Produkt und im Grunde ein Hinters Licht führen des Kunden.

Auf die Systemanforderungen des Entwicklers gebe ich absolut gar nichts. Die sind meist zusammengefwürfelter Unsinn. Sieht man jetzt an Metro.


Und nicht das wir uns falsch verstehen, die Technik RT an sich, die dafür Sorge tragen soll, dass mehr Leistung vorhanden ist und die Berechnungen bestimmter Grafikbereiche effizienter ablaufen, die finde ich absolut wichtig um auch in Zukunft mit jeder neuen GPU Generation eine Steigerung zu haben.
Nur die Umsetzung die nVidia hier auf den Markt geworfen hat ist absoluter Unsinn. Wie man sich letztes Jahr auf die Gamescon gestellt hat und ein riesen Trara veranstaltet hat, nur um 6 Monate später noch immer im Grunde nichts vor zu weisen hat, außer je 1 Spiel was genau 1 Feature von mehreren nutzt und auch noch die Kartenpreise nochmals um ca. 100€ pro Kartenversion mehr verlangt (auch bei Pascal wurde schon pro Version ein Betrag von ca. 50-100€ mehr verlangt bei Veröffentlichung im Gegensatz zum Vorgänger).
Und das ist und bleibt einfach viel zu wenig. Wie lange soll man denn als Käufer einer RTX Karte noch warten? Von all den angekündigten Spielen (wovon die meisten ja schon erschienen sind), hat jetzt BFV RT (und bekommt bald/irgendwann DLSS) und FFXV DLSS. Der Rest der Spiele hat noch immer weder das eine noch das andere. Ebenso all die anderen tollen beworbenen Features wie Tensorcores, MeshShader und und und. Wo sind denn all diese Sachen für den Gamer stand Jetzt nutzbar. Genau nach 6 Monaten nach der Ankündigung noch immer nirgends.

Wer kein BF spielt, hat nichts von RT. Wer kein FFXV spielt, hat nichts von DLSS. Also zahlt man seit 5 Monaten für Features, die man nicht nutzen kann und auch weiterhin nicht nutzen können wird, wenn man weder BFV, noch FFXV noch das kommende Metro spielt.
Bei AMD wurde und wird immer wieder von vielen deren Features (oder jetzt aktuell die 16GB HBM Speicher) als unnötig, brauch keiner, zu teuer, nicht halb so gut wie das was nVidia bringt etc. herunter geputzt.
Und Teilweise ist dies ja auch richtig. Keinem bringen Features etwas, wenn man sie nicht nutzen kann.

Aber der Unterschied ist z.B. bei den 16GB HBM Speicher, die kann man unabhängig von jedem Spiel nutzen, wenn man sie benötigt. Die Features die nVidia mit ihrer RTX Generation rausgebracht hat, kann man hingegen nur nutzen wenn die Spieleentwickler diese auch einbauen. Und das sind stand jetzt nach 6 Monaten nach Ankündigung eben genau 2 Spiele und ein drittes kommt jetzt erst dazu. Das ist gelinde gesagt ein bisschen wenig für solche angeblichen Überfeatures.
 
Selanius schrieb:
Ist ja schön und gut, das du @xexex dann lieber den Regler nach links bewegst um RTX nutzen zu können. Aber wozu gibt es dann eine RTX2060 überhaupt? Ich meine, die Karte ist neu, hat das RTX Featureset und kostet je nach Karte zwischen 350 und 450 Euro. Welchen Sinn hat es eine neue Karte zu kaufen und deren Featureset nur nutzen zu können, wenn man in FHD schon zum Start der Karte Einstellungen verringern muss.

Die Karte ist als ein günstiger Einstieg in die RTX Technik gedacht, so simpel sehe ich das und wenn es Spiele gibt die auf hoch oder ultra mehr Leistung oder Speicher erfordern, dann ist dem so!

In meinem PC steckt noch eine 1060 und mir hat sie bisher für alles gereicht was ich gespielt habe. Zu wenig Speicher? Dann halt Finger weg von High-Res Texturen.

Selanius schrieb:
Die Features die nVidia mit ihrer RTX Generation rausgebracht hat, kann man hingegen nur nutzen wenn die Spieleentwickler diese auch einbauen. Und das sind stand jetzt nach 6 Monaten nach Ankündigung eben genau 2 Spiele und ein drittes kommt jetzt erst dazu. Das ist gelinde gesagt ein bisschen wenig für solche angeblichen Überfeatures.

Das ist schon immer so bei den Grafikkarten gewesen. Hardware T&L, Physikberechnungen und jegliche neuen DX Features benötigten immer ein paar Jahre, bevor sie eine weite Verbreitung fanden. Das wird eben auch mit DXR so sein. Wenn man zu AMD rüber schaut, so haben sie mit GCN eine Architektur auf den Markt gebracht, die nun schon fast 10 Jahre braucht, bis sie vollständig genutzt werden kann und Leute haben sich jahrelang vertrösten lassen. Erst sollte Mantle der Allheilsbringer sein, dann Vulkan und DX12 und trotzdem kommen noch immer viele Titel "nur" mit einer DX11 Engine.

Irgendjemand musste letztendlich den Schritt nach vorne tun und im Gegensatz zu dem was in den letzten 10 Jahren in diesem Sektor passiert ist, macht diese neue Technologie einen großen Schritt nach vorne.
 
Zuletzt bearbeitet:
Fehler Nummer 1:
Du schließt von dir auf alle anderen.
Fehler Nummer 2:
Du akzeptierst einfach, das eine neue Grafikkarte schon jetzt nicht in der Lage ist alle Anforderungen für den für die Karte vorgesehenen Bereich zu bewerkstelligen.

Das lustige ist ja, keiner hat hier und in anderen Threads auch nur irgendwas von High-Res Texturen gesagt. Es geht hier nur um die Einstellungsmöglichkeiten in den Spielen selber.

Der nächste Absatz von dir, zeigt halt leider wieder wie schlecht doch das Gedächtniss mancher User ist, wenn es darum geht Negative Dinge ihrer Lieblingsfirmen nich zu vergessen.
Ja es stimmt, das es immer ein wenig dauert um neue Features zu integrieren und ja damit es sich lohnt muss eine gewisse kritische Masse an, in dem Fall GPUs die die Dinge unterstützen, vorhanden sein.

Wer hat denn bitte mit seinem Verhalten dafür Sorge getragen, dass DX11 viel zu lange als API herhalten musste? Wer hat denn mit seiner "Hilfestellung" dafür sorge getragen, das Features nur für seine eigenen GPUs gut funktioniert haben. Wer hat denn bitte die Preise in den letzten 3 Generationen kontinuierlich nach oben geschoben? Wer baut denn künstliche Limitierungen ein um den Kunden nur mit Nachteilen eine längere Nutzung der Produkte möglich zu machen?

Tut mir ja wirklich leid, aber irgendwie versuchst du hier immer wieder den schwarzen Peter AMD zu zu schieben. Dabei lag es doch jetzt 5 Jahre lang an nVidia, das man nicht vorran gekommen ist, was neue technologien und vernünftige Preisgestaltung angeht.


Und bis jetzt macht diese neue tolle Technologie wie du sie nennst nur eines: Den Geldbeutel von nVidia füllen aufgrund von überhöten Preisen. Aber sicher macht diese neue Technologie keinen großen Schritt nach vorne. Denn eine Leistungshalbierung beim benutzen der neuen Technologie, nennt man sicher keinen großen Schritt nach vorne. Und das du und andere dies trotzdem als so toll verkaufen wollen, das zeigt halt nur eines: Solange solche "Technologien" von eurer Lieblingsfirma kommen, ist es einfach nur das tollste überhaupt.
Alle anderen die wirklich immer versuchen mit Innovation den Markt nach vorne zu bringen, die werden von euch doch nur verschmäht und schlecht gemacht. Steht halt kein nVidia und/oder Intel auf der Verpackung drauf. ;)
 
  • Gefällt mir
Reaktionen: oemmes und I'm unknown
Hier mal schwarz auf weiß, was die 2gb mehr vram der 1070ti im derzeit anspruchvollsten Titel in 1440p auf ultra bringen. Hint: Einen feuchten Furz
 

Anhänge

  • Screenshot_20190219-125155_YouTube.jpg
    Screenshot_20190219-125155_YouTube.jpg
    749,4 KB · Aufrufe: 384
  • Gefällt mir
Reaktionen: dominic.e
Wow du führst jetzt echt 1 Spiel an, wo eben der VRAM Verbrauch nicht unoptimiert ist. Was willst du jetzt damit aufzeigen?
Das es Entwickler gibt, die eben den Verbrauch optimieren?

Ja ist jetzt nichts neues. Und dem entgegen setzen wir dann all die Spiele, die eben nicht maßvoll mit dem Speicher umgehen.

Du hast dir jetzt die Mühe gemacht und extra darauf gewartet, dass Metro Exodus rauskommt um dann zu zeigen, das 6GB reichen können. Ganze 24 Tage. :D

slowclap

Noch einmal, auch für dich. Es geht hier nie und nimmer darum, das 6GB nicht reichen können. Sie können reichen. Aber es gibt eben schon jetzt Spiele wo die 6GB nicht reichen. Und das in FHD. Und es werden mehr und nicht weniger.

Und somit wird die Karte durch nVidia eben künstlich ausgebremst unter bestimmten Umständen. Und das eben jetzt schon und in Zukunft noch mehr. Obwohl der Chip selber halt mehr kann, wird es eben wie in den Generationen davor sein: Die Karte kommt schneller an ihr Ende, weil der Speicher schon limitierend wirkt, wenn die GPU selbst eigentlich noch genug Luft hätte.
 
  • Gefällt mir
Reaktionen: I'm unknown
Ich hab doch nicht drauf gewartet xD Habs gesehn und fands erwähnenswert dass eines der ansehnlichsten Spiele bis Dato einen nicht vernachlässigbaren Performance Vorteil der 2060 gegenüber der 1070ti bescheinigt.
Wem 10% mehr fps wurst sind, kann sich ja nach wie vor 8gb holen...
Wir werden sehen, wer Recht behält in ein paar Jahren. Diese künstliche Aufregung um den Vram werd ich trotzdem nie verstehen.
Du kannst dir von mir aus ruhig 16gb vram kaufen und damit langsam klatschend in den Sonnenuntergang reiten, ist dein gutes Recht.
 
Da bereits heute 6 GB VRAM teils mehr als grenzwertig sind passt der (falsch überlieferte Spruch) mit den 640kB nicht zu @RB6istGut Post...

Ansonsten denke ich ist klar, dass 6 GB einfach zu wenig sind und eben nicht reichen...
 
Die VRAM Diskussion wird eh nur von den 10% Enthusiasten getriggert, die sich so eine Karte sowieso nie kaufen würden - nicht wegen des unzureichenden VRAMs, sondern wegen der mangelnden Rohleistung einer solchen Karte. Von daher....einfach ignorieren.
 
  • Gefällt mir
Reaktionen: RB6istGut
iamunknown schrieb:
Ansonsten denke ich ist klar, dass 6 GB einfach zu wenig sind und eben nicht reichen...
Aha, na wenn du diesen Fakt so hinschreibst, dann muss es der Wahrheit entsprechen.
Gibt ja von allen Seiten Evidenz, dass 6gb einfach nicht reichen. Hast du ne seriöse Quelle, die deine Aussage untermauert? Ich hab bei meinen Recherchen immer wieder das selbe gelesen: 6gb reichen für fast alles, was nicht unoptimierter mist ist bei Auflösungen bis 1440p.
Ich hab bisher genau ein Review gefunden, das mit Wolfenstein in 4k ein szenario geschaffen hat, das die Leistung einbrechen lässt.
Sicher wären 8gb nett gewesen, aber dieses dogmatische vorbeten von falschen Tatsachen, dass 6gb zuwenig seien, regt mich auf.
 
Wo wurde denn gesagt, das die 2060 langsamer ist als die 1070(ti)? Die Leistung der 2060 ist sicher nicht was hier kritisiert wurde. 🤔

Und es ist recht unwichtig ob es dich aufregt oder nicht. Es ist ein Fakt, das es jetzt schon Spiele gibt in FHD (also der Auflösungsklasse für die die 2060 beworben wird), denen 6GB VRAM nicht reichen. Und dabei spielt es auch keine Rolle ob es daran liegt, dass das Spiel optimiert ist oder nicht was den Verbrauch angeht. Weil daran kann der Nutzer so oder so nichts ändern. Außer natürlich die Details runter stellen.
Das ist aber nicht der Sinn der Sache bei einer neuen Karte, wenn man diese in der dafür vorgesehenen Auflösung nutzen will.

Da kannst du noch so sehr mit dem Fuß aufstampfen.
 
Man kann trotzdem nicht behaupten, dass 6gb generell zu wenig wären, nur weil man ein spiel gefunden hat, das mehr benötigt.
Wenn sich ein signifikanter Trend Richtung >8gb werden benötigt entwicklet, kann man sich überlegn, laut aufzuschreien.
Aber ich versteh schon. Die erde ist flach. Impfungen verursachen Autismus und 6gb sind faktisch zu wenig.
Ich weiß auch nicht warum mich manche Dinge dazu bringen mit dem Fuß aufzustampfen, muss am Fuß liegen.
 
Zuletzt bearbeitet von einem Moderator:
6 GB sind derzeit generell gesehen nicht zu wenig , jedoch kannst du nicht anzweifeln das der Trend zu 8 GB ungebrochen ist , oder ?
was passiert wenn 8 GB Standard sind ? glaubst du die Gameschmieden werden sich dann mit 6 GB Texturen zufriedengeben , nur weil es noch ne Handvoll 6 GB Karten als Nische gibt ?
 
MK one schrieb:
was passiert wenn 8 GB Standard sind ? glaubst du die Gameschmieden werden sich dann mit 6 GB Texturen zufriedengeben , nur weil es noch ne Handvoll 6 GB Karten als Nische gibt ?

Wann sind wir da angelangt? In zwei bis drei Jahren? Dann werden einige sowieso eine neue Grafikkarte anvisieren.

Der Punkt ist ganz simpel, zum Standard kann nur etwas werden, was die breite Masse einsetzt. Die breite Masse setzt aber eine 1060 oder kleiner ein und die hat 6GB.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@MK one
Ich hätte 8gb auch besser gefunden. Man muss sich jedoch vor Augen führen dass diese Empörung, die anscheinend in fast allen technikforen herrscht, auf folgender Annahme basiert:
"Die RTX 2060 ist mies, denn es könnte mir passieren, dass ich den Texturenregler in 2-3 jahren auf "Very High" stellen muss."
Aber deswegen diese Karte schlecht zu reden, obwohl es die einzig leistbare neue Nvidia karte ist, die vom Preis/Perf eine der besten, wenn nicht die beste zur Zeit am Neumarkt ist(ja ist traurig, ich weiß, aber es ist nun mal so), ist nicht gerechtfertigt.
Man muss auch mal die Kirche im dorf lassen und nicht auf jeden hate train aufspringen, nur weils grad so viel spaß macht.
 
xexex schrieb:
Wann sind wir da angelangt? In zwei bis drei Jahren? Dann werden einige sowieso eine neue Grafikkarte anvisieren.

Der Punkt ist ganz simpel, zum Standard kann nur etwas werden, was die breite Masse einsetzt. Die breite Masse setzt aber eine 1060 oder kleiner ein und die hat 6GB.
da die RX 580 , die jetzt 180 Euro kostet und die 480 die vor 3 Jahren bereits 8 GB hatte ist die auf 6 GB beschnittene NV sehr wohl Nische ... , denn auch 1070 oder 1080 hatten bereits 8 GB , oder etwa nicht ?
Die " breite Masse " setzt nicht unbedingt eine 1060 mit 6 GB ein .... , wer keine Games spielt gibt sich eh mit Intels IGPU oder ner AMD APU zufrieden , der braucht auch keine 1060 ..
 
  • Gefällt mir
Reaktionen: I'm unknown
Zurück
Oben