Notiz Nvidia: Teaser für GeForce RTX Cyberpunk Limited Edition

PP_cl schrieb:
Wer spielt zb CoD & Co auf Ultra, wenn das Team den Sieg holen möchte und es um Sponsoring geht.
Wer sponsert eigentlich so einen Unsinn wie CoD? :D

Anyway, die Ray-tracing and Path-tracing Vergleiche sehen schon ... interessant aus, wenn nicht nur ein paar Effekt verwendet werden.

Minecraft ist halt ein Game das wirklich, wirklich gut aussieht. ;-)


Hier eine Shader Version die auch auf AMD Hardware rennt:

Und hier die RTX Version von nvidia für die bedrock edition.
 
Zuletzt bearbeitet:
Ok, Cyberpunk Edition 2080ti...
ich würde eher eine Non Cyberpunk Edition 3080ti bevorzugen für Cyberpunk!

So mache ich das auch ;-)
 
Sieht so aus als käme der Umzug zu Raytracing früher als erwartet.

"We are fully into ray tracing, dropping old-school codepath/techniques completely," reveals Shishkovstov - and in terms of how RT has evolved since Metro Exodus? "Internally we experimented a lot, and with spectacular results so far. You will need to wait to see what we implement into our future projects."
https://www.eurogamer.net/articles/digitalfoundry-2020-metro-redux-the-making-of-an-impossible-port

Oof, ich hab ja gewusst, dass es schnell geht. Aber so schnell? Vielleicht hat man es mittlerweile geschafft, RT ordentlich zu optimieren sodass es ähnlich performt wie Raster-Techniken wie SSAO oder SSR. Sollte sich meine Vermutung bestätigen, so sind Karten ohne RT Beschleunigung nicht am Ende, aber Karten mit RT Beschleunigung haben dann krasse Performance-Vorteile.
 
Maxminator schrieb:
Ok, Cyberpunk Edition 2080ti...
ich würde eher eine Non Cyberpunk Edition 3080ti bevorzugen für Cyberpunk!

so was hier

NVIDIA Ampere GPU 'GA100' flagship will have massive 826mm² die
NVIDIA Ampere GPUs will have 2x faster RTX through re-engineered Tensor core
  • INT32 Unit remains unchanged.
  • Double the FP32 Unit for shader proportion.
  • The performance of the new Tensor Core is doubled.
  • Enhanced L1 Data Cache for more comprehensive functions.
  • True architecture for RTX GAMING with all-new design RT CORE ADVANCED.
 
  • Gefällt mir
Reaktionen: Maxminator
Hylou schrieb:
Sollte ich eine der Karten gewinnen würde ich die sofort wieder verticken.
Für den Preis den irgendwelche Hardcore Fans dafür zahlen, kannst dir bestimmt zwei normale 2080Ti kaufen :D

Die Leute haben allein für die blöde Cyberpunk Figur, welche es bei den Pressevorführungen gab, über 500€ auf den Tisch gelegt.

Das ist auch genau mein Anliegen. Ich würde versuchen die für 3000€+ zu verscherbeln und würde mir davon dann Ende des Jahres einen Zen 3 + Big Navi Rechner bauen. Natürlich nur wenn AMD bis dahin die Navi Treiber hinbekommt. Sonst würde ich mir überlegen eine next Gen nVidia Karte zu verbauen, wenn sie denn wirklich brauchbare Implementierungen von RTX hinbekommen. Aber naja...ist ja eh erstmal nur n Traum die GPU überhaupt zu gewinnen :D
Ergänzung ()

Apocalypse schrieb:
Du lebst halt in der Vergangenheit.

Du kannst selbst mit einer 2060 Raytracing Nutzen, das Problem ist ehr das nicht viele Spiele einen anständigen Support liefert und das Nvidia halt banannen Taktik gefahren ist. Das Produkt reifte beim Kunden und DLSS heute ist auch von der Technik was anderes als DLSS bei release. Da wurde quasi eine 2.0 Version gebaut die mit der ursprünglichen primär nur den Namen gemein hat.


Naja...ist aber dennoch lachhaft, dass die 1200€ teure GPU jetzt erst Software bekommt die passabel darauf läuft...fast zwei Jahre später. Aber klar...Early Adopter müssen halt damit einverstanden sein.
 
Zuletzt bearbeitet:
thepusher90 schrieb:
Naja...ist aber dennoch lachhaft,
lachhaft ist das ständige mimmimi ob der Raytracingoption

Das einer nun mal den Weg bereiten muss ist völlig logisch, und hätte es Nvidia nicht angestoßen , hätten wir noch Jahre weiter gemacht mit schnöder Rastergrafik, und keine modifizierten Grafikengines die nun nach viel Manpower den hybriden Einsatz von Raytracing erlauben, und immer potenter werden

Offensichtlich sehen es aber nun alle Größen als gegeben an, selbst AMD wird zähneknirschend dem Nvidia Steilpass folgen , weil es eben nun mal Vorzüge gibt, die das antiquierte Rasterverfahren nicht erbringen kann.

Wenn ihr das nicht braucht dann rendert weiter auf euren dampfgetriebenen Grafikkarten Schlachtrössern aus dem Mittelalter, allen anderen viel Spaß mit der Zukunft u die heißt nunmal Raytracing

 
Zuletzt bearbeitet:
captain kirk schrieb:
lachhaft ist das ständige mimmimi ob der Raytracingoption

Das einer nun mal den Weg bereiten muss ist völlig logisch, und hätte es Nvidia nicht angestoßen , hätten wir noch Jahre weiter gemacht mit schnöder Ratergrafik, und keine modifizierten Grafikengines die nun nach viel Manpower den hybriden Einsatz von Raytracing erlauben, und immer potenter werden

Offensichtlich sehen es aber nun alle Größen als gegeben an, selbst AMD wird zähneknirschend dem Nvidia Steilpass folgen , weil es eben nun mal Vorzüge gibt, die das antiquierte Rasterverfahren nicht erbringen kann.

Wenn ihr das nicht braucht dann rendert weiter auf euren dampfgetriebenen Grafikkarten Schlachtrössern aus dem Mittelalter, allen anderen viel Spaß mit der Zukunft u die heißt nunmal Raytracing

https://www.pcgameshardware.de/Metr...l-weiterhin-an-Raytracing-festhalten-1344041/

Uiuiui...da fühlt sich aber wer auf den Schlips getreten. Wie gesagt...Raytracing ist ne feine Sache, nur nicht in der jetzigen Form. Aber du hast recht. Es muss sich erst noch entwickeln. Nur will ich davon nichts wissen, bis sich Raytracing den Oberflächen entsprechend 100% physikalisch korrekt verhält. Wie immer das Beispiel mit den Blutlachen die eigentlich Spiegelpfützen sind. Sowas reizt mich einfach nicht, wenn das bedeutet, dass ich dafür 40%+ Performance einbüße. Ich persönlich halte es genauso wie mit VR. Ich will das fertige perfektionierte Feature haben bevor ich Geld in Hardware investiere die das unterstützt und einen Premium-Preis abruft. Ich will VR erst wenn wir dabei von einer Holo-Deck-Erfahrung sprechen mit 0% Chance Übelkeit zu verursachen. Und das kann man 1:1 für mich auf Raytracing übertragen. Das muss Perfekt und photorealistisch sein...ich will keine Körnung sehen, die als Nebenprodukt der "Rayberechnung" entstehen. Da kann ich bei Rasterizing bleiben (ist ja selbst glitchy und stellenweise hässlich genug). Da büße ich dann wenigstens keine Performance ein für weniger Geld im Geldbeutel.

Der andere Punkt für mich sind alte Spiele. Wenn es nicht eine Schnittstelle für alte Games geben wird die Raytracing nachträglich implementieren kann und somit auch die Spiele am Leben erhält sehe ich da ganz schwarz. Denn früher oder später wird Raytracing der 100% Standard sein und es wird sicher die Optimierung für Rasterization komplett gekantet. Ich bin nicht so firm zu wissen ob das überhaupt möglich ist, GPUs so zu bauen dass sie dann irgendwann mit Raytracing rennen, aber dafür unter Rasterization komplette Krücken sind (30 FPS und weniger). Aber wenn dem so ist, will ich davon überhaupt nichts wissen.

Da braucht mir auch keiner kommen mit "Für den Fortschritt der Spieleentwicklung müssen Späne fallen...die alten Spiele spielt außer in deiner Niche eh niemand mehr.", denn was zwischen 1995 und 2010 veröffentlicht wurde wischt nahezu mit allem den Boden auf was nach 2010 erschienen ist meiner Meinung nach. Es gibt nur einige Ausnahmen, die sich zwischen die Klassiker einreihen würden von den 2010 und aufwärts erschienenen Spielen. Dass ich die alten Klassiker spielen kann muss für mich gegeben sein, solange ich eben zocke in meinem Leben. Keine Ahnung ob Emulation da immer die Antwort sein kann. Das ist aber meine Sicht der Dinge.
 
thepusher90 schrieb:
Der andere Punkt für mich sind alte Spiele. Wenn es nicht eine Schnittstelle für alte Games geben wird die Raytracing nachträglich implementieren kann und somit auch die Spiele am Leben erhält sehe ich da ganz schwarz.
Ich weiß nicht ,wie man bei einer RTX Karte zu solch einer Panikmache verfallen kann? Solange es 32 bit Shaderunits gibt, ist doch alles im Lot!
Der hybride Ansatz ,wird uns noch mehrere Jahre, wenn nicht Jahrzehnt begleiten müssen!
Und die old Shool Spiele ,werden auch nicht mehr fordernder werden ,wie sie jetzt schon sind

Für neuere Spiele wird aber sukzessive , mehr und mehr Int 16/8 Tensor Cores integriert werden,von GPU Generation zur nächsten. Weil es absehbar ist ,das die Entwickler immer mehr Renderarbeit in den Raytracingpfad jagen werden. Weil das geringeren Arbeitaufwand bedeutet, und langfristig mehr Profit hängen bleibt.
Lighting Designer werden wohl als erstes aussterben, und vom Raytracing Algorithmus der Gameengine komplett ersetzt werden
So ist unter Umständen , dann auch mehr finanzieller Spielraum, für qualitativ hochwertigere Spiele, weil eben nur noch halb soviel Manpower ,das Budget belastet.
Auch Indie Studios können dann Spiele bauen, die vorher nicht realisierbar gewesen wären, wegen obiger Limitierung

Aber lieber mal den Weltuntergang des Spieleabendlandes verkünden, damit man nur irgendwie die negative Welle surft
 
Zuletzt bearbeitet:
Physik wird künftig ebenfalls mit machine learning realisiert werden. Ist sehr speichersparend, mal wieder einfacher zu implementieren und sogar performanter als traditionelle Methoden. Auf der GDC wird man darüber einen Vortrag halten.


Ich persönlich denke dass da die Tensor Kerne neben DLSS zukünftig auch ein paar Aufgaben mehr bekommen könnten. War ein kluger Schachzug dedizierte FP16 Hardware zu verbauen.
 
  • Gefällt mir
Reaktionen: captain kirk
dampflokfreund schrieb:
Physik wird künftig ebenfalls mit machine learning realisiert werden.
Im Grunde habe ich ja mit Raytracing schon die "Kollisionsabfrage für Lau"mit den Objekten im Raum durch die Strahlenverfolgung

Da liegt es nahe die Physik auch darüber zu realisieren, und dann ne Ki den Rest erledigen zu lassen
 
Zuletzt bearbeitet:
captain kirk schrieb:
Ich weiß nicht ,wie man bei einer RTX Karte zu solch einer Panikmache verfallen kann? Solange es 32 bit Shaderunits gibt, ist doch alles im Lot!
Der hybride Ansatz ,wird uns noch mehrere Jahre, wenn nicht Jahrzehnt begleiten müssen!
Und die old Shool Spiele ,werden auch nicht mehr fordernder werden ,wie sie jetzt schon sind

Für neuere Spiele wird aber sukzessive , mehr und mehr Int 16/8 Tensor Cores integriert werden,von GPU Generation zur nächsten. Weil es absehbar ist ,das die Entwickler immer mehr Renderarbeit in den Raytracingpfad jagen werden. Weil das geringeren Arbeitaufwand bedeutet, und langfristig mehr Profit hängen bleibt.
Lighting Designer werden wohl als erstes aussterben, und vom Raytracing Algorithmus der Gameengine komplett ersetzt werden
So ist unter Umständen , dann auch mehr finanzieller Spielraum, für qualitativ hochwertigere Spiele, weil eben nur noch halb soviel Manpower ,das Budget belastet.
Auch Indie Studios können dann Spiele bauen, die vorher nicht realisierbar gewesen wären, wegen obiger Limitierung

Aber lieber mal den Weltuntergang des Spieleabendlandes verkünden, damit man nur irgendwie die negative Welle surft

Also ich packe dich mal auf die Ignoreliste...deine herablassende Art geht mir mächtig gegen den Strich. Nur weil du valide Bedenken nicht nachvollziehen kannst, musst du nicht gleich Leute als ewig gestrige abstempeln, wenn die sogar noch beteuern, dass sie grundsätzlich dabei sind, aber nicht auf Kosten anderer lieb gewonnener Aspekte.
 
Zurück
Oben