• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Ubisofts Avatar-Spiel: Frontiers of Pandora setzt auf FSR 3 mit Frame Generation

frames p. joule schrieb:
Wenn Avatar die Qualität von FC6 halten kann, dann wäre es schon gut. If it ain't broken, don't fix it.
FC6 war spielerisch aber alles andere als gut.
 
  • Gefällt mir
Reaktionen: entengruetze und Cerebral_Amoebe
@Chilisidian Doch es ist ein Problem für die Industrie, denn es gehen Käufer flöten.
Um genau zu sein, geht da die größte käufergruppe am PC flöten.
Und Fortschritt ist zwar nett, aber für nen Unternehmen wird es dann problematisch, wenn die potentielle Käufergruppe schrumpft. Es fordert auch keiner, dass alles auf Ultra laufen soll, sondern, dass einfach Mainstreamkarten wie die 3060 nicht vergessen werden. Mehr nicht.

@MrHeisenberg
Niemand sagt, dass ne 4090 300€ kosten soll. Das ist ne Extremposition, die so gar nix zur diskussion beiträgt.
Ne das einzige was hier angesprochen wird ist, dass die Preise für Mainstreamkarten wie eben eine 4060 oder 7600/7700 zu hoch sind.
Und wie @Michael vdMaas schon richtig sagt, man sollte sich mal in die Leute hineinversetzen. Und versuchen deren Blickwinkel zu sehen. Und dann versuchen weiterzudenken und potentielle Auswirkungen auch auf einen selber sehen. Denn wir profitieren davon, wenn viele Leute am Pc spielen können.

Und ich kann deine Argumente absolut nachvollziehen und will ihnen auch nicht wiedersprechen. Natürlich gibt es Fortschritt und natürlich entwickelt sich Hardware weiter und auch die Preise. Dem wird keiner widersprechen. Denn in den 90ern und 00ern war es ja noch extremer. Da war jedes Jahr was neues da.
Und die grafischen entwicklungen waren rasant. heute haben wir das mit raytracing. Auch das wird endlich möglich aufgrund der Entwicklung der Hardware und zeigt ne massive grafische Verbesserung.
Nur sollten Entwickler halt nicht vergessen, dass es auch Spieler bzw. potentielle Kunden gibt, die das nicht haben oder sich leisten können. Mehr nicht.
Das eine schließt das andere nicht aus. Gute Leistung mit Mainstreamkarten schließt nicht aus, dass die Grafikpracht bei High-end Karten hammergeil ist.
Ergänzung ()

gartenriese schrieb:
Ich habe immer weniger Lust hier in den Kommentaren zu diskutieren. Immer mehr Polemik, null aufeinander zugehen mit einer offenen Diskussion. Alles wird negativ gesehen, alles oberflächlich beiseite geschoben ohne sich Gedanken über die Hintergründe zu machen. Früher was das hier viel besser. Echt schade. Ich fühle mich hier teilweise wie auf Reddit.
Kann ich verstehen. Nur kommts bei Reddit auch auf den Subreddit an.
Der TTRPG sub in dem ich bin ist super und auch Critical role subreddit ist schön.

Du hast aber recht. Ich sollte da mal reflektieren. Daher danke für deinen Imput.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, SweetOhm, ShowOff und eine weitere Person
edenjung schrieb:
Niemand sagt, dass ne 4090 300€ kosten soll. Das ist ne Extremposition, die so gar nix zur diskussion beiträgt.
Ne das einzige was hier angesprochen wird ist, dass die Preise für Mainstreamkarten wie eben eine 4060 oder 7600/7700 zu hoch sind.
Über Nvidia müssen wir nicht reden, aber was ist, wenn AMD sie nicht viel günstiger anbieten kann, ohne Verlust zu machen?
Für Nvidia und AMD sind die Produktionskosten enorm gestiegen. Die Waferpreise werden jede neue Generation ordentlich angezogen:
https://www.tomshardware.com/news/tsmc-will-charge-20000-per-3nm-wafer

Und was können Spieleentwickler für die Preise? Gar nichts. Es geht hier aber um Avatar und nicht um GPU-Preise.
 
edenjung schrieb:
Ne das einzige was hier angesprochen wird ist, dass die Preise für Mainstreamkarten wie eben eine 4060 oder 7600/7700 zu hoch sind.
Meine GTX 1070 und RX 5700XT hatten einige Zeit nach Release je 450€ gekostet, beides zu der Zeit WQHD-Karten.
Jetzt bekommt man für den Preis nur noch Full HD-Grafikkarten, das ist ärgerlich, aber die Rohstoff-, Energie- und Personalkosten sind auch gestiegen.
Die Grafikkartenhersteller lassen schon zum großen Teil in China produzieren, wo sollen die noch hingehen, um günstiger zu produzieren?

Das ich auf die Einbindung von Softwarelösungen (DLSS, FSR, XeSS) durch den Entwickler angewiesen bin, schmeckt mir auch nicht.
Das kann aber jeder mit Kauf/Nichtkauf für sich regeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Beatmaster A.C. schrieb:
es wurde oft genug gewarnt.
DLSS/FSR war als Notlösung / Workaround für ältere GPUs gedacht um weiterhin, relativ flüssig Spiele zu spielen, oder als Bonus obendrauf für neuere GPUs, um high fps zu erreichen und halten (4k 60fps / 1440p 120/144fps / 1080p 165/240fps), oder DSR / DLDSR mit stabilen fps zu nutzen und / oder Strom zu sparen da diese Features, die GPU weniger belastet.
Wie kommst du darauf? Eingeführt wurde modernes Upsampling mit den ersten RTX Karten und ältere GPUs haben diese Technik erst mit FSR erhalten. Nvidia wollte Raytracing voran bringen und die GPUs packen das nativ einfach nicht. Höchstens bei der aktuellen Oberklasse er RTX4000er Karten kann man auch nativ schon viel RT berechnen lassen, aber mit Pathtracing hat sich das auch schon wieder und man bekommt die 4090 ebenso klein. Und wer hat gewarnt?

Sofern das Upsampling keine nervigen Bildfehler mit sich bringt, ist es mir relativ egal. Wenn es gut funktioniert, sehe ich bei DLSS-Q oder auch FSR-Q keinen Nachteil zur nativen Auflösung.
 
  • Gefällt mir
Reaktionen: gartenriese und bluna
paganini schrieb:
Wer mittlerweile nativ zocken will braucht oftmals echt eine 4090 und das reicht auch nicht bei allen Spielen mehr für eine flüssige Darstellung, traurig wie weit wir gekommen sind.
Ja und das nicht Mal mehr für 4K sondern nur WQHD.
Frage mich was die Leute mit Karten wie einer 6600 oder 6700 oder einer 3070 und 3060 machen. Selbst mit einer 4070 wird das ohne DLSS in WQHD nichts mit 60fps+.
 
  • Gefällt mir
Reaktionen: SweetOhm und paganini
ThePlayer schrieb:
Selbst mit einer 4070 wird das ohne DLSS in WQHD nichts mit 60fps+.
Und? Dann spielste es halt mit DLSS. Ihr tut hier alle so, als wäre das ne Zumutung.
Der Qualitätsverlust durch DLSS, wenn er denn überhaupt mal existiert, ist nicht ansatzweise so schlecht wie er hier immer dargestellt wird. Einige meiden Upscaler wie der Teufel das Weihwasser.
 
  • Gefällt mir
Reaktionen: gartenriese, bluna und Darken00
DrFreaK666 schrieb:
Wundert mich, dass sich niemand über fehlendes DLSS3 FG beschwert

Wahrscheinlich ist das Spiel nicht groß und wichtig genug damit sich genug Leute empören.
Mir fällts auch sehr leicht das nicht zu tun, da mich das Avatar-Franchise, und damit das Spiel, null interessiert und ich es ohnehin nicht kaufen werde.

Dennoch ist es bedauerlich dass bei der nächsten AMD Technologiepartnerschaft nach Starfield wieder die Konkurrenztechnologie eingebremst wird, statt einfach nur dafür zu sorgen dass die Partnertechnologie möglichst gut funktioniert. Man möchte meinen AMD hätte aus Starfield gelernt. Aber vielleicht will Ubisoft das auch so. Man weiß es nicht.
 
Ich habe allgemein in letzter Zeit das Gefühl, dass es nun doch endlich an der Zeit ist, meinen alten 4k/UHD Monitor zu verkaufen und fortschrittlich auf Full HD/1080p zu setzen. Oder gleich einen 720p/30Hz Monitor ? ^^
 
  • Gefällt mir
Reaktionen: Three of Nine, Blood011, SweetOhm und 2 andere
ChrisMK72 schrieb:
Ich habe allgemein in letzter Zeit das Gefühl, dass es nun doch endlich an der Zeit ist, meinen alten 4k/UHD Monitor zu verkaufen und fortschrittlich auf Full HD/1080p zu setzen. Oder gleich einen 720p/30Hz Monitor ? ^^

back to the roots !!!1111
 
  • Gefällt mir
Reaktionen: SweetOhm und ChrisMK72
frames p. joule schrieb:
Und würde sich jemand darüber beschweren, dass sich Fifa 19 und Fifa 23 gleich anfühlen?
Ehm, ja schon? Aber Fifa kommt wenigstens nur jährlich heraus; von der Ubisoft-Formel bekommen wir jährlich mehrfach effektiv das gleiche Spiel im neuen Setting.

frames p. joule schrieb:
Anno 1701 wie 1800?
Anno 1800 ist die ultimative Version von Anno die so unglaublich mehr an Features und Mechaniken hat als 1701.
Das rechtfertig ein neues Spiel mehr als ausreichend.

Im Gegensatz halt zu den Open World, wo irgendwann die Weiterentwicklung einfach aufgehört hat. Mag sein, dass es sehr unterschiedlich ist wie schnell mal von dem Zeug langweilig wird (auch wie viele man davon schon durchgespielt hat).
Aber hey, irgendetwas neues muss ein Spiel mur schon bieten, einfach nich eibe weitere, schlechtere (z.B. verglichen Horizon zero) Version von dem was ich schon durchgespielt habe reicht mir nicht.
 
  • Gefällt mir
Reaktionen: ShowOff
Bin ja selber schuld.
Warum wollte ich auch Spiele in 2024 in 4k/60 fps zocken ? Was für eine irre Idee ! :D :jumpin:
 
  • Gefällt mir
Reaktionen: SweetOhm
Syrato schrieb:
Was sich die Entwickler/innen und Publisher da erlauben, passt ja langsam auf keine Kuhaut mehr!

Bin ja mal gespannt, wie die FPS in nativ sein werden.

@Vitche wie sieht das CB, dass das Zeitalter nativer Render-Auflösung sich dem Ende zuneigt?

Beatmaster A.C. schrieb:
es wurde oft genug gewarnt.
DLSS/FSR war als Notlösung / Workaround für ältere GPUs gedacht um weiterhin, relativ flüssig Spiele zu spielen, oder als Bonus obendrauf für neuere GPUs, um high fps zu erreichen und halten (4k 60fps / 1440p 120/144fps / 1080p 165/240fps), oder DSR / DLDSR mit stabilen fps zu nutzen und / oder Strom zu sparen da diese Features, die GPU weniger belastet.

Jetzt wird DLSS/FSR + FG zwingend erforderlich um überhaupt spielbare fps zu erreichen. Das werden Studios und Publisher eiskalt ausnutzen um an Performanceoptimierungen und gescheite Portierung zu sparen, denn Zeit = Geld. Nativ wird dadurch leider aussterben außer im Indie Bereich, für eine Weile.

Sorry, aber ihr habt eine verklärte Erinnerung an die Zeit vor DLSS und FSR.

Heute heißt es immer: Wenn ein topaktuelles und grafisch opulentes Spiel mit der derzeit besten GPU nativ in 4K keine 60 fps erreicht, dann nur, weil man nicht gut optimiert hat und weil man sich schlicht und einfach auf DLSS und FSR ausruht. Doch das ist einfach nicht wahr!

Ihr wollte Beispiele und Belege für meine Aussage? Könnt ihr haben:

Beispiel 1: The Witcher 3
Als The Witcher 3 damals veröffentlicht wurde, lief es auf der derzeit besten GPU, der Titan X, in nativen 4K mit maximal 30 fps. Siehe hier:

https://www.computerbase.de/2015-05...leich/#abschnitt_21_grafikkarten_im_vergleich

Beispiel 2: Assassin's Creed: Origins
Als Origins damals veröffentlicht wurde, lief es auf der derzeit besten GPU, der GTX 1080 Ti, in nativen 4K mit maximal 55 fps. Siehe hier:

https://www.computerbase.de/2017-10...afikkartenbenchmarks_von_full_hd_bis_ultra_hd

Beispiel 3: Rise of the Tomb Raider
Als Rise of the Tomb Raider damals veröffentlicht wurde, lief es auf der derzeit besten GPU, der GTX 980 Ti, in nativen 4K mit maximal 31 fps. Siehe hier:

https://www.computerbase.de/2016-01...abschnitt_benchmarks_von_full_hd_bis_ultra_hd

Erst DLSS und FSR haben es geschafft, dass man aktuellste Spiele mit Top-Grafik auch mal mit der besten GPU in 60 bis 100 fps spielen kann. Davor war es jahrelang so, dass die aktuellsten Spiele mit der aktuellsten Top-Grafik mit der aktuell besten GPU in nativem 4K immer nur so bei 30 bis 50 fps herumgedümpelt sind. Dazu kommen technische Entwicklungen wie Raytracing und Pathtracing, die halt einfach nativ in 4K unmöglich mit 60 fps bei der Grafikqualität zu stemmen wären. Wie stellt ihr euch das denn vor?

Vergleicht doch mal die Grafikqualität von Avatar: Frontiers of Pandora mit der von z. B. Assassin's Creed: Valhalla. Da liegen Welten dazwischen. Die Weitsicht, die Qualität von weit entfernten Objekten, die Schatten, die Beleuchtung, die Texturen, die Physik, das Wasser, die Animationen und vieles mehr haben sich enorm verbessert. Und ihr erwartet nun, dass trotz der grafischen Sprünge eine aktuelle GPU in nativem 4K mindestens 60 bis 100 fps schafft? Wo lebt ihr eigentlich?

Sorry, für solche Kommentare wie die euren habe ich keinerlei Verständnis.

Zudem seid ihr ja auch selbst Schuld, wenn ihr unbedingt in 4K mit mindestens 60 fps in nativer Auflösung spielen wollt und trotzdem nicht bereit seid, auch nur einen Millimeter aus eurer persönlichen und arroganten Blase zu treten. Von Full-HD zu 4K zu springen, ist einfach ein vielfach größerer Sprung als es jeder Sprung davor war. Da kann man nicht erwarten, dass Nvidia und AMD das Problem einfach mal so lösen würden. Und dann bieten sie eine Lösung in Form von FSR und DLSS und ihr wollt sie nicht, obwohl die Nachteile mittlerweile kaum der Rede wert sind. Ich würde niemals mehr auf DLSS verzichten und finde es toll, dass ich dank DLSS in 3440 x 1440 die aktuellsten Spiele immer mit 60 bis 120 fps spielen kann, während ich früher immer nur so 30 bis 60 fps hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: idefix--211, gartenriese, AsgardCV und 4 andere
Beatmaster A.C. schrieb:
...
DLSS/FSR war als Notlösung / Workaround für ältere GPUs gedacht um weiterhin, relativ flüssig Spiele zu spielen, oder als Bonus obendrauf für neuere GPUs, um high fps zu erreichen und halten (4k 60fps / 1440p 120/144fps / 1080p 165/240fps), oder DSR / DLDSR mit stabilen fps zu nutzen und / oder Strom zu sparen da diese Features, die GPU weniger belastet.

Jetzt wird DLSS/FSR + FG zwingend erforderlich um überhaupt spielbare fps zu erreichen. ...
Ältere GPUs haben bei der Einführung von DLSS selbiges gar nicht unterstützt.

In meiner Erinnerung war DLSS dazu gedacht mit Raytracing oder in hohen Auflösungen spielbare FPS zu erreichen.
Es hat sich also nichts geändert.
 
  • Gefällt mir
Reaktionen: gartenriese, MrHeisenberg und Darken00
II n II d II schrieb:
oder in hohen Auflösungen spielbare FPS zu erreichen
mittlerweile auch in Full HD. Aber der Anfang war gut :D
 
  • Gefällt mir
Reaktionen: II n II d II und SweetOhm
Es ist ja auch nur Gewöhnungssache, nachdem ich von 24" 1080p zu UWQHD auf 34" gewechselt bin, dachte ich das geht sicher so weiter und hatte zwischenzeitlich sogar n OLED TV in 4k als Monitorersatz. Nun aktuell 28" 4k wegen sehr ordentlicher PPI :daumen: und als nächstes wird's dann wohl wieder 24" 1080p.

Der Kreis schließt sich. :)

Die Zauberformel heißt einfach kleinerer Monitor. ( =24" 1080p ) Ende aller Probleme ausreichend fps zu erreichen. :D

Wo is das Problem!? Innerhalb einer Woche hab ich mich sicher wieder dran gewöhnt.

edit: Ganz nebenbei sind die kleinen Dinger auch nich so teuer. Sympathische Idee.
 
  • Gefällt mir
Reaktionen: Three of Nine und SweetOhm
Chilisidian schrieb:
Oh ja, weil man ja bei Spielen wie Alan Wake 2 oder Lords of the Fallen überhaupt keinen Fortschritt sieht. Komisch, dass ihr bei eurer "Argumentation" immer nur die Seite nennt, die zu eurer Linie passt.
Ja das sind die Ausnahmen. Sieh dir doch mal die AAA Releases der letzten 12 Monate an.
Alle haben anfangs Technische Probleme wollen fast immer DLSS/FSR um 60 FPS auch auf 7900xt, 4080 und 4090 ab WQHD oder 4K 60 oder gar 90 FPS zu erreichen. Und dann sieht die Grafik aus wie 2020 oder 2017.

Bei Allen Wake denke ich mir dann gut hier kann ich damit leben weil das Spiel auch Zeitgemäße Grafik abliefert. Auch habe ich nichts gegen DLSS/FSR weil bis aufs Ghosting fallen mir Grafikfehler die bei Nutzung dieser Techniken entstehen können beim Spielen nicht wirklich auf.
 
  • Gefällt mir
Reaktionen: SweetOhm
Ferran schrieb:
Die "gut Betuchten", der Einfachheit halber einmal alle Schönredner kategorisiert, checken es vermutlich einfach nicht, dass die Masse zählt. Sie sägen mit ihrer argumentativen Dekadenz, an dem Ast auf dem sie sitzen.
Dem Kunden kann das Geschäftsmodell eines Anbieters doch vollkommen egal sein, insbesondere wenn er "sein" Produkt erhält.

Wenn, dann ist diese Kritik an Ubisoft und deren Management zu richten. Ein paar Gedanken - da gestehe auch ich Ubisoft zu :evillol: - zur "kritischen Masse" dürften die sich vorab schon gemacht haben.
 
ShowOff schrieb:
mittlerweile auch in Full HD. Aber der Anfang war gut :D

Wieder so ein Quatsch. In den Anforderungen steht, dass man mit einer RTX 3060 die 60 fps nur erreicht, wenn man DLSS oder FSR nutzt. In meinen Augen ist das völlig okay. Vor zehn Jahren war man froh, wenn man in nativem Full-HD mit der aktuell besten Grafikkarte in den aktuellsten Spielen mit höchsten Einstellungen 60 fps geschafft hat. Wenn nun eine veraltete RTX 3060 mit FSR 60 fps in Full-HD schafft, ist doch alles völlig in Ordnung. Mit einer RTX 3070 oder RTX 3080 schafft man dann ohne FSR / DLSS auch sicher 60 fps in nativem Full-HD. Und mit einer RTX 4070 oder 4080 oder gar 4090 würde man in nativem Full-HD sicher locker 80 bis 120 fps schaffen. Wo ist das Problem? Ist dir das nicht gut genug? Wärst du denn zufrieden, wenn du in nativem 4K mit einer 3070 60 fps erreichen könntest? Tja, träum weiter in deinem Luftschloss!
 
  • Gefällt mir
Reaktionen: II n II d II
MrHeisenberg schrieb:
AMD/Nvidia werden einen Teufel tun und euch das Zeug schenken.


Immer wieder witzig, mit was für einer Arroganz hier einige unterwegs sind.
Der Meinung bin ich allerdings auch ! :stacheln:
 
Zurück
Oben