Test Asus GeForce RTX 2060 Strix im Test: TU106 in schneller, leiser und auf Wunsch auch bunter

Oneplusfan schrieb:
Hier nochmal was zu FF15:
https://www.tomshardware.co.uk/final-fantasy-xv-performance-analysis,review-34257-4.html

Sorry aber damit lässt sich die Schuld einfach nicht mehr auf den Speicher schieben. Das Spiel läuft selbst auf Medium in FHD mit einer 8GB Karte nicht ohne Ruckler....
Das geht ja soweit, dass sich die Leute sogar noch darüber freuen, wie deren Rechenpower zum Fenster rausgeblasen wird.

Wie viele Leute haben in den Foren gejubelt, dass endlich ihre 8 Kern/16 Thread Prozessoren ausgelastet werden (Assassins Creed Origins) und der Untergang der 4 Kerner war in den Köpfen schon besiegelt.
Dann richtete sich sehr schnell die Aufmerksamkeit auf Denuvo, VMprotect und schliesslich auch noch auf schlampige Programmierung:

Den Aussagen des Modders zufolge falle die Deckelung des Speicherplatzes für Texturen im flüchtigen Speicher viel zu niedrig aus. Dadurch muss der Speicher ständig geleert und Texturen von der Festplatte geladen werden. Allein innerhalb einer Stunde Gameplay werden die immergleichen Dateien hunderte bis tausende Male erneut von der Festplatte in den Speicher geladen und das wirkt sich letztlich negativ auf die CPU-Last aus. Demonstrieren lässt sich das Ganze, wenn man beispielsweise eine SSD und HDD im Testlauf mit Origins oder Odyssey gegenüberstellt. Ist eines der Spiele auf einer SSD installiert, steigt die Prozessorlast aufgrund der höheren Geschwindigkeit. Bei einer HDD hat die CPU hingegen weniger zu tun.

"Es sollte einfach zu beheben sein. Das Entwicklerteam ist offensichtlich auf die Entwicklung für Konsolen fokussiert, denn es wurde scheinbar nicht bedacht, dass es auf dem PC Speichergeräte mit deutlich höherem Datendurchsatz wie beispielsweise SSDs in RAID0 gibt. Je schneller die Festplatte ist und je mehr CPU-Kerne man hat, umso mehr wird das alles zum unvorhersehbarem Performance-Albtraum.", so Kaldaien. Ob sich die Entwickler von Ubisoft letztlich auch die Mühe machen, das Problem zu beheben, bleibt abzuwarten.

Da ist nicht die Hardwarezu schwach, sondern einfach der Programmierer unfähig. Solche Schnitzer MÜSSEN im QM aufgedeckt werden.

Und um auf obiges Beispiel mit den innerhalb kürzester Zeit Totgesagten 4- Kernern zurückzukommen.
Schaut Euch mal die Werte eines 7700K in den modernen Titeln an.... Der bläst nachwievor alles weg, was nicht niet- und nagelfest ist.
Da wurde genau das gleiche Spielchen getrieben und konstatiert, dass die CPU schon bei Kauf antiquiert war und man in Zukunft was weiss ich alles an Titeln sehen wird, wo es auf dem 7700K dann nur noch eine Ruckelorgie ergibt.

Die Realität könnte auch zwei Jahre später nicht weiter davon entfernt sein...

Anthem 7700K / GTX 1080

Anthem 2700X / GTX 1080


Just my 2 cents
 
Zuletzt bearbeitet:
@Jens1882
Möchtest du irgendwas zum Thema beitragen? Oder willst du nur hier andere User angehen?

@Oneplusfan
Wo habe ich geschrieben, das der Speicher schuld ist das es bescheiden in FF15 läuft? Nirgends.

Es geht einfach nicht darum, ob ein Spiel smooth läuft oder nicht, egal mit welcher Karte und mit wieviel VRAM die Karte ausgestattet ist.
Es geht darum, das es Spiele gibt, bei denen einfach 6GB VRAM nicht ausreichen. Warum wieso weshalb ist doch absolut egal. Es gibt diese Spiele und es gibt Menschen, die diese Spiele eben spielen und mit dem Kauf einer RTX2060 eben von Beginn an mit Einschränkungen zu tun haben (zu den eh schon vorhandenen). Und es werden mehr Spiele werden. Daran besteht kein Zweifel. Spätestens wenn immer mehr Spiele auch RT nutzen werden, wird der Speicher immer mehr zur Limitierung.

Das ein User wie ZeroZerp sich hier und in vielen anderen Threads sich hinstellt und uns das blaue vom Himmel verspricht mit RT und allen anderen tollen Features die uns nVidia ja netterweise zur Verfügung stellt und am Ende nur 1 Sache wirklich effektiv bewiesen ist: RT frisst einfach unglaublich viele Resourcen wenn es benutzt wird. Und an BFV sieht man halt einfach, das man RT gar nicht in vollen Umfang nutzen kann, ohne das selbst die absulte High-End Karte wie eine RTX2080Ti nicht komplett in die Knie geht.
Was nützen denn einem die tollsten Effekte, wenn das Spiel am Ende nur noch eine DiaShow ist? Natürlich ist es wichtig mit RT neue Impulse ein zu bringen und natürlich wird irgendwann das ganze dann soweit funktionieren, das man ein noch tolleres Spielerlebnis hat. Aber das ist eben etwas was es weder mit dieser RTX Generation geben wird, noch mit der nächsten. Jedenfalls nicht in dem Maße wie es ZeroZerp immer wieder mit seiner 10fachen Leistungssteigerung sugerieren will.

Und dementsprechend bleibt es dabei, eine RTX Karte mit nur 6GB Vram wird immer wieder durch eben jenen VRAM eine Limitierung erleben. Leider ist dieses eben nicht erst in 2 Jahren der Fall sondern schon jetzt. Und daran kann auch ein ZeroZerp mit seiner nVidia Missionierung nichts ändern.
 
Bitte, klicke doch auf den Link, wenn ich mir schon die Mühe mache ihn rauszusuchen. Dort wird man schnell feststellen, dass jede Grafikkarte (also auch die 8GB RX 580) miese Frametimes hat. Das geht sogar so weit, dass die 970 (!Speicherkrüppel!) bessere Frametimes hat als eine 8GB Karte.

Jetzt zeig mir bitte, dass es speziell an der 2060 liegt, dass das Spiel nicht rund läuft. Und wenn es an ihr liegt, warum es dann an den 6GB Vram liegt.

Das Spiel ist einfach Mies optimiert und läuft auf keiner Karte gut.

Ich will gar nicht in Abrede stellen, dass es in den nächsten 2 Jahren einige wenige Spiele geben könnte, die in 1440p oder gar FHD mehr als 6GB benötigen würden. Nur muss man in 2 Jahren ohnehin die Details auf einer Mittelklassekarte wie der 2060 redzuieren, weil der Chip keine 60+ fps mehr bringt.

Was die RT Fähigkeit der 2060 angeht: Diese Karte ist klar auf 1080p Gaming mit RT on ausgelegt. Das schafft sie in BF V auch relativ gut. Wer meint, er braucht RT auf Ultra, wird sich halt ne 2070 kaufen müssen.
Insofern passt der VRAM der Karte auch in diesem Szenario. Was interessiert es mich, ob der Karte in 1440p RT on der VRAM ausgeht? Da pfeift der Chip aus dem letzten Loch, niemand wird so seine Karte betreiben.

Ich war selbst am Anfang sehr skeptisch wegen der 6GB, aber je mehr man sich mit den Problemspielen befasst, desto klarer wird auch, dass es nicht an der VRAM Menge liegt und auch andere Karten mit mehr VRAM solche Probleme haben.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Selanius schrieb:
Das ein User wie ZeroZerp sich hier und in vielen anderen Threads sich hinstellt und uns das blaue vom Himmel verspricht mit RT und allen anderen tollen Features die uns nVidia ja netterweise zur Verfügung stellt
Wie Du Dich hier hinstellen kannst und hier behauptest, dass ich irgendjemandem mit RT etwas versprechen würde, lässt mich nur noch mehr daran zweifeln, dass Du Dir meine Beiträg überhaupt zu mehr als 2% durchliest.

"Huch- Da ist ein Post von Zero" (der BIAS wird dann auch schon getriggert). Schublade auf- Kann ja eh nix werden- Schublade zu. Aus dem Post dann nur das rauslesen, was man rauslesen will.

"Was- Da sind Seitenweise Erklärungen, Links und sonstwas hinter den Beiträgen? Da bin ich viel zu faul und tu es dann lieber erstmal als Wall of text ab, nur um nicht auf die Argumente eingehen und noch weniger, den eigenen Standpunkt mal entsprechend untermauern zu müssen."
Auch auf konkrete Rückfragen, die einen in die Situation bringen zuzugeben müssen, dass man vielleicht falsch liegt oder die Sachen doch nicht so klar sind, die man es bis jetzt immer als Fakt dargestellt hat, natürlich grundsätzlich nicht antworten.

und am Ende nur 1 Sache wirklich effektiv bewiesen ist: RT frisst einfach unglaublich viele Resourcen wenn es benutzt wird.
RT frisst nach Nutzungsgrad schier unendlich viele Ressourcen. Die Revolution liegt darin, dass realtime- Raytracing von dem man hinter vorgehaltener Hand in rudimentärer Form vielleicht in 10-20 Jahren ausgegangen ist schon jetzt nutzbar in den Startlöschern steht.

Dadurch setzen sich Entwickler damit auseinander und werden genauso wie bei der Rasterisierung Mittel und Wege finden, Dinge da herauszuholen, die selbst zum Erscheinen von BF5 noch für undenkbar gehalten wurden (Echtzeit Full Scene Path- Tracer in Quake 2 inkl. Beleuchtung, Schatten, Reflexionen).

Und an BFV sieht man halt einfach, das man RT gar nicht in vollen Umfang nutzen kann, ohne das selbst die absulte High-End Karte wie eine RTX2080Ti nicht komplett in die Knie geht.
Ja- Der von NVIDIA propagierte Ansatz an ein Spiel, welches die Shader schon ohne Zutun von Raytracing zu schon übermäßig auslastet, dann noch Raytracing ranklatschen zu wollen funktioniert (vielleicht) nur unter Einbußen in der Performance, oder man entwirft einen komplett neuen Renderpfad, der die Ressourcen tariert.

Wir werden sehen, was der nächste Technik- Patch in Battlefield 5 bringt. Die ersten Publikationen sprechen davon, dass Raytracing damit nur noch minimal langsamer sein wird, als die Rastervariante.

Lasst doch dieser Technik einfach mal mehr als 2 Sekunden Zeit, nach denen hier jeder schon "fail" brüllt.

Was nützen denn einem die tollsten Effekte, wenn das Spiel am Ende nur noch eine DiaShow ist?
Und wieder diese absolut ungerechtfertigten Maßlosen übertreibungen, die an dem Realitätssinn des Verfassers zweifeln lassen. 70FPS-90FPS in WQHD eine Dia Show?

Ah... Ja...

Natürlich ist es wichtig mit RT neue Impulse ein zu bringen und natürlich wird irgendwann das ganze dann soweit funktionieren, das man ein noch tolleres Spielerlebnis hat.
Achso- Und eine Entwicklung stellt man sich so vor, dass dies wie aus dem Nichts vom Himmel fällt?
Das ist so himmelweit an dem Vorbei, wie sich Techniken am PC entwickeln und bis jetzt entwickelt haben.

Aber das ist eben etwas was es weder mit dieser RTX Generation geben wird, noch mit der nächsten. Jedenfalls nicht in dem Maße wie es ZeroZerp immer wieder mit seiner 10fachen Leistungssteigerung sugerieren will.
Die bis zu 10- Fache Leistungssteigerung ist bewiesen (ich habe Dir das weiter oben verlinkt/Elevator Demo, generiert mit einer real existierenden Gameengine und mit Anzeige Frametimes).
Auch ist die bis zu 10-Fache Leistungssteigerung von mesh shadern bewiesen (Asteroids).
Auch eine kleine Leistungssteigerung durch adaptiv rate shading ist bewiesen (Wolfenstein 2).
Auch hat DLSS inzwischen schon gezeigt, dass es nicht völlig daneben funktioniert (auch wenn noch verbesserungswürdig).

Wenn man das nun im Paket sieht, dann kann man nur zu dem Schluss kommen, dass da eben erheblich mehr passiert ist als 30%-40% mehr Rasterleistung in Standardszenarien.

Du verschliesst die Augen, Du verschliesst die Ohren, weil nicht sein kann, was nicht in Deine vorabverurteilende und tendenziöse Welt (bias) passt.

Dennoch- Da bin ich vollkommen bei Dir:
-Ja. Es wird immer irgendwelche Titel geben, die schlecht laufen. Auf langsameren Karten noch schlechter.

-Ja. Man wird auf der Midrange Karte deutlich früher als im High- End Bereich irgendwann Abstriche bei den Settings hinnehmen müssen, die dann vielleicht auch sichtbar die Qualität nach unten schrauben.

-Ja. Es wird irgendwann auch die neuen super Ultra Grafikkracher geben, die super optimiert tatsächlich mehr als 6Gb VRAM mit max. Settings benötigen werden.

-Ja.Irgendwann wird die Karte zu wenig Shaderleistung bieten, als dass neue Titel dann diesbezüglich von einer höheren VRAM ausstattung profitieren könnten. (Was nützen mir gestochen scharfe Texturen dann bei 20 FPS).

Aber aus diesen völlig natürlichen und schon immer so erlebten Gesetzmäßigkeiten nun plötzlich den Untergang generieren zu wollen, der eine Kaufwarnung bezüglich diese Midrange Produktes rechtfertigen soll, ist doch wirklich fernab von Gut und Böse.

Siehe die analog von mir oben als Beispiel aufgeführte Panikmache bezüglich des Untergangs der 4- Kerner.
Da wird viel viel Zeit ins Land gehen, bis die mal wirklich "abgeschrieben" sind.

Die Diskussion mal beiseite gelassen. Du hast Deinen Standpunkt dargelegt und ich glaube, dass auch jeder weiss, worauf Du hinaus willst.
Deine Meinung ist in Ordnung und Deine Befürchtungen (VRAM- Größe führt zu sichtbaren Einschränkungen bei Spielen) können sich früher oder später bewahrheiten.

Die Zeichen dafür deuten aber in eine Andere Richtung. Wenn man die bisherigen Entwicklungen am Markt betrachtet, kommen wir vielleicht in 2-3 Jahren dahin, wo man tatsächlich Abstriche in Kauf nehmen muss.

Aber auch dort ist zu bezweifeln, dass diese so schwerwiegend sein werden, dass man mit der Karte nicht mehr auf hohem Niveau Spaß haben kann....

LG
Zero
 
Zuletzt bearbeitet:
Selanius schrieb:
@Jens1882
Möchtest du irgendwas zum Thema beitragen? Oder willst du nur hier andere User angehen?
Schau dir doch denn Link von Oneplusfan an, dort siehst du das eine 970 3.5GB 2014 ca. gleich auf mit einer 1 Jahr später erschienenen 390 8GB ist, ich mein ja nur,
auch damals schon wurde mit ganz viel Speicher ist zukunftssicherer geworben, aus neutraler Sicht würde ich sagen die Unterschiede sind sehr gering, der bessere Nvidia Chip in diesem Fall scheint das weniger an Speicher auszugleichen.

Gut jetzt sagst du deine aussage ist so nicht gemeint gewesen, RTX ist das und das...
RTX kann bei kleineren und weniger aufwendigeren Spielen als ein BFV in Zukunft ein Indie Game die Chance geben mit weniger Aufwand schönere Effekte zu erzeugen,
denkbar ist zum Bespiel ein Rätsel-Spiel das in kleinen räumen RT Korrekte Grafik bietet ohne das der Designer sich groß Kopf machen muss wie er mit Tricks an einen ähnliche Optik kommen könnte.
Mit DLSS kann auch auf schwächere Hardware eine 4K ähnliche Optik erreicht werden ohne große Verluste
und das sogar auf einer Karte die eigentlich nicht für 4K ausgelegt ist.
Ich wüsste jetzt nicht warum ich so viele Vorteile Haten sollte aber das kannst du mir vielleicht noch mal erklären ;)
 
Jens1882 schrieb:
[...]

RTX kann bei kleineren und weniger aufwendigeren Spielen als ein BFV in Zukunft ein Indie Game die Chance geben mit weniger Aufwand schönere Effekte zu erzeugen,
denkbar ist zum Bespiel ein Rätsel-Spiel das in kleinen räumen RT Korrekte Grafik bietet ohne das der Designer sich groß Kopf machen muss wie er mit Tricks an einen ähnliche Optik kommen könnte.

Mag ja sein, aber der Indie Entwickler will auch möglichst viele Käufer haben und muss daher abwägen ob er damit nicht eine weit geringer Anzahl an Spielern anspricht. Davon abgesehen, dass er eh schon nicht über das Marketing verfügt, schneidet er sich so einen sehr großen Teil seiner potentiellen Kunden weg.

Ich bin auch gespannt, was gerade Indie Entwickler mit RTX anstellen können. Aber ich denke, es dauert noch bis es über die Techdemos und die handvoll Spiele hinaus sinnvoll ist, in die Technologie zu investieren. Ausser natürlich, man findet es einfach spannend (wie bspw. bei VR am Anfang).
 
Jens1882 schrieb:
Ich wüsste jetzt nicht warum ich so viele Vorteile Haten sollte aber das kannst du mir vielleicht noch mal erklären ;)
Unter Anderem auch, weil diese derzeit noch kaum nutzbaren Vorteile, mit einer vermeintlichen Preissteigerung einhergehen.

Dies aber unter der Prämisse, dass die Diskussionsgrundlage streng auf den UVP ausgerichtet ist.

Die Inno 2060 gibts aber inzwischen ab 339,-€ und auch bei den anderen Karten führt die Tendenz nach unten. Jetzt muss man dann erstmal schauen, wo sich das ganze einpendelt.

An sich können sich die Low- End Schnäppchenjäger richtig freuen, weil mit Einführung der RTX Serie die 1060er ordentlich im Preis gefallen ist.
Die kann man inzwischen für um die 200,-€ haben, wo man noch bis vor kurzem über eine quälend lange Periode hinweg 350,-€ und mehr hinlegen musste.

Nach dem Einpendeln des Preises kann man eine praxisnahe Diskussion führen, ob die Karten ein schlechtes Preis-/Leistungsverhältnis bieten oder nicht.

LG
Zero
 
Zuletzt bearbeitet:
Wieso wird von euch andauernd die Stärke der GPU selbst mit dem VRAM gleich gesetzt? Ich habe nirgends gesagt das die GPU schwach ist. Nein ich habe sogar schon mehrfach gesagt, das die Stärke der GPU der 2060 sogar für WQHD im unteren Bereich ausreicht.
Und das steht auch nirgends zur Debatte. Dasselbe Spiel bei der 970 damals. Von der GPU eine absolut gute Karte. Aber auch bei der 970 war das Problem nicht die Stärke der GPU sondern dies des VRAMs. Zwar bei der 970 das Problem der schwachen Anbindung der letzten 512MB. Aber solange nVidia per Treiber immer dafür gesorgt hat, das die Karte nur die 3,5GB schnell angebundenen Speicher genutzt hat lief alles super. Und selbst heute noch kann die Karte Runde laufen solange man innerhalb der 3,5GB schnellen Speichers bleibt.

Aber bei der 2060 ist es eben das Problem, es gibt 6GB VRAM. Sind die voll, sind sie voll. Und dann fängt es an mit den Problemen. Und das passiert eben jetzt schon bei einigen Spielen und wird mit Sicherheit bis zum Ende des Jahres eine Vielzahl an Spielen betreffen.

@Oneplusfan
Wieso sagst du auf der einen Seite das die Karte ja für 1080p ausgelegt ist (was ich ja auch sage) aber für dich scheint Ultradetails dasselbe zu sein wie 4K. Ist es aber nicht. Man kann auch Ultradetails, also alle Regler nach rechts, auch unter FHD haben. Bitte versuch doch mal da zu unterscheiden zwischen Auflösung und Detailstufe in der jeweiligen Auflösung.
Wenn die RTX2060 ja eine FHD Karte ist, so sollte es doch bei einer neuen Karte möglich sein unter FHD alle Regler nach rechts zu schieben. Denn das erwartet man als Käufer einer neuen Karte die für FHD beworben wird machen zu können. Und das ohne große FPS Drops zu haben. Jedenfalls für 350-450€ schon.

So jetzt haben wir aber das Problem, das gerade eben aufgrund der nur 6GB VRAM bestimmte Details selbst unter FHD eben nicht bis zum Anschlag hochgedreht werden können. Jetzt kommst du und sagst, ja das liegt an den schlecht programmierten Spielen. Jetzt komme ich und sage, das ist völlig unwichtig da den Käufer der Karte und des Spiels es nicht interessiert wer Schuld hat.
Denn im Zweifel weiß der Käufer ja gar nicht, das das Spiel schuld ist. Er sieht nur, VRAM voll daher Ruckelorgie. Aber neue Karte.
Mit mehr VRAM wäre das eben nicht passiert. Vor 2 Jahren hat CB mal einen schönen Test gemacht und schon damals bestätigt, das zu geringer VRAM (in dem Fall weniger wie 4GB) nicht mehr Zeitgemäß ist, da die Spiele halt nach immer mehr VRAM verlangen. Jetzt 2 Jahre später kommt nVidia und macht wieder nur 6GB Speicher auf ihre "Mainstream"-Karte. Und genau jetzt gibt es eben schon Spiele wo diese 6GB nicht reichen. Selbst wenn man FF15 ausklammert, gibt es eben trotzdem noch andere Spiele. Sind diese auch so schlampig programmiert? Ab wann ist ein Spiel denn nicht schlammpig programmiert und brauch trotzdem mehr Speicher? Oder ist es erst dann wieder wichtig mehr Speicher zu haben, wenn nVidia selbst nicht weniger als 8GB verbaut?

Und wenn man bedenkt, das nVidia als Unternehmen in den letzten 3 GPU Generationen (also Kepler, Maxwell und Pascal) im Grunde nichts wirklich neues gebracht hat, als einen großen Schrink von Maxwell zu Pascall, dann ist es merkwürdig, das nVidia hier wieder als Innovator gefeiert wird. Aber all die Features die AMD in den letzten Generationen (die meist sogar nicht in einer Blackbox wie z.B. Gameworks abgeschottet waren) gebracht hat, dann ist es schon sehr enttäuschend. Wo war denn da bitte ein ZeroZerp der dafür extra einen eigenen Thread aufgemacht hat um über die Möglichkeiten zu diskutieren? Ja war halt nicht interessant genug, da es ja nicht von nVidia gekommen ist.
Und nein, ich bin absolut nicht gegen Innovationen und finde es richtig super das auch nVidia endlich mal was wirklich neues bringt. Aber dann gibt es gleich noch einen üblen Nachgeschmack. Es ist wieder etwas properiteres, also nichts was alle anderen auch nutzen können. Und man muss es als Käufer auch noch extra bezahlen und laufen tut es auch nicht wirklich. Aber wichtig ist es schon mal sich bezahlen zu lassen.

Am besten setzt man mich auf Ignore. Denn meine Meinung wird sich auch weiterhin nicht ändern. Für mich ist die RTX2060 keine gute Karte, weil eben nVidia mal wieder mit Absicht eine künstliche Limitierung eingebaut hat um gleich im nächsten Jahr dieselben Kunden noch mal ab zu kassieren. Es gibt jetzt schon Belege das der VRAM zum Problem wird. Das ist Fakt. Jeder kann und soll sich die Karte kaufen die er für sich meint kaufen zu müssen.
Ich werde niemals jemanden davon abhalten sich für das Produkt zu entscheiden, von dem er/sie meint es brauchen zu müssen. Wer mit 6GB VRAM auskommt, der kommt damit aus. Wer bei einer neuen Karte in FHD gerne bereit ist schon Details runter zu setzen, weil es für ihn/sie OK ist. Alles kein Thema.

Wenn man sich aber in ein Technikforum stellt, das sogar per Test schon selber bewiesen hat das es eine Limitierung gibt und diese immer größer wird, und das genaue Gegenteil behauptet. Tut mir leid, aber derjenige stellt sich mit absicht unwissend oder versucht sogar zu täuschen. Und das ist meine Meinung. Lebt damit oder lasst es.
 
Sun-Berg schrieb:
Ich bin auch gespannt, was gerade Indie Entwickler mit RTX anstellen können. Aber ich denke, es dauert noch bis es über die Techdemos und die handvoll Spiele hinaus sinnvoll ist, in die Technologie zu investieren. Ausser natürlich, man findet es einfach spannend (wie bspw. bei VR am Anfang).
Bei einem Indie Teams dauert es in der Regel vielleicht noch etwas länger aber wenn die bekannten Engine es Unterstützen kommt im best Case Szenario eben ein Ultra mit RT und ein High ohne RT in die Option, und die Implementierung selbst wird mit zur Verfügung stehenden mitteln nicht viel schwerer sein als eine Lichtquelle zu setzen, vielleicht noch nicht jetzt aber es wird ja daran gearbeitet.

Ich sehe das nicht so kritisch,
kein Spiel hätte damals in 32Bit kommen können wenn (ist es Nvidia gewesen?) nicht erst mal einer eine Karte mit 32Bit gebracht hätte, ja die Voodoo mit ihren 22bit dither ist schneller gewesen aber wir will das heute noch?
Auch die T&L Gechichten, die Teslation oder Shader Engines mussten erst eine Hardware Basis bieten damit Entwickler sich darum kümmern konnten es zu Entwickeln.

Ohne Hühnerei kein Huhn.
Ergänzung ()

ZeroZerp schrieb:
Nach dem Einpendeln des Preises kann man eine praxisnahe Diskussion führen, ob die Karten ein schlechtes Preis-/Leistungsverhältnis bieten oder nicht.

Sehe ich auch so, zu Anfang mit und über UVP Reden bringt nicht so viel.

ZeroZerp schrieb:
Unter Anderem auch, weil diese derzeit noch kaum nutzbaren Vorteile, mit einer vermeintlichen Preissteigerung einhergehen.
Gut da kommen aber auch noch viel mehr Faktoren dazu als nur RT und DLSS,
ist auch nicht ganz Fair weil die direkte Konkurrenz ja auch nicht wirklich besseren Preise bieten kann.
 
Zuletzt bearbeitet von einem Moderator:
Selanius schrieb:
Wo war denn da bitte ein ZeroZerp der dafür extra einen eigenen Thread aufgemacht hat um über die Möglichkeiten zu diskutieren? Ja war halt nicht interessant genug, da es ja nicht von nVidia gekommen ist.
Och mensch- Ich weiss nicht wie viele hundert Male ich den "Untergang" bzw. die Nichtnutzung der primitive shader der AMD Architektur bedauert habe.

Allein innerhalb der letzten 4 Monate gibt es 17 Threads, wo ich mein Bedauern darüber ausdrücke... Kannst gerne die Forensuche dafür bemühen.

Somit lasse ich mir hier nicht ungerechtfertigt einen Markenstempel aufdrücken.
Zudem- Wieso versuchst Du nun die Diskussion weg von der Technik auf einmal zur Markendiskussion zu machen?

In der Hoffnung die eigene nicht sehr stabile Argumentation durch die möglicherweise auf deinen Hinweis hin stattfindenden Grabenkämpfe zu verdecken?

Schieb mich nicht in eine Schublade. Es geht mir rein um Technik und Innovation.
Ich sch... auf eine Marke NVIDIA.

Und zudem- Dein Kommentar zur Ignore- Funktion. Ich habe schon mehrfah erklärt, dass es in meinem Leben kein Ignore geben wird.
Ich gehe davon aus, das wir alle normale Menschen sind. Ich gehe zudem davon aus, dass 99% mit denen ich hier (auch hitzig) diskutiere bei einem privaten Besuch bei einem Bierchen super umgänglich sind.

Technik ist keinen "Streit" wert. Und schon garnicht, dass man irgendjemanden deshalb beleidigt oder ignoriert.
Eine Diskussion muss immer möglich bleiben. Man lernt ja auch dazu. Niemand ist unfehlbar und ich hab mich auch schon oft genug verhauen.

Deswegen bin ich der Meinung, dass man die Kommunikationswege wegen unterschiedlicher Ansichten nicht kappen sollte.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg und Oneplusfan
Anthem GTX 970 OC (DEMO) 1080p Ultra - High - Medium | FRAME-RATE TEST

Ich bin ja froh über solche test,
auf Ultra Settings frisst die Karte grob ca. 3,7 GB und trotzdem sind die Frametime ziemlich gut für die Optik und einem nicht fertigen Spiel.
Allerdings sind mir mehr wie 20ms zu viel und bei High bleibt von der Optik schon nichts mehr übrig aber mit etwas weniger Texturen und Schatten 1 runter wird es bestimmt gut laufen.

Die Playstation 4 hat grade mal 5,5 GB für das komplette Spiel zur Verfügung,
da frage ich mich schon wie viel falsch ein Programmierer/Designer entscheiden muss damit 6-8 GB die nächsten Jahre nicht reichen sollen.

Was das Warten angeht,
warten kann man immer aber wer wie ich noch eine 970 hat will irgendwann nicht mehr warten,
da sage ich ehr warum warten ich kann die Karte auch 1 Jahr nutzen und sie wieder für ca. 75% verkaufen.

Das RT ist für mich Aktuell eine nette Spielerei genau wie es VR ist, beides noch nicht angekommen aber mit Potential.
 
Zurück
Oben