News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

Dann ist es wohl wirklich so, dass für einige hier die Grafikqualität wohl am Ende seiner Entwicklung angekommen scheint und einfach ausreicht.

Es gibt aber auch Leute wie mich, die lieber Grafik in derzeitiger CGI- Film Qualität hätten. Wenn dies durch RT und neue Techniken dann noch einhergeht mit weniger Aufwand für die Entwickler, dann ist das eine Win- WIn Situation.

Derjenige, der dann auf den flachen und unnatürlichen Plastiklook mit unrealistischer Beleuchtung und maximal 2 in der Intensistät sich immer gleich verhaltenden Schlagschatten steht, bleibt einfach bei den alten Karten, die ja dann jetzt schon ausreichen. Für die wäre jede neuentwicklung oder Beschleunigung dann ab jetzt schon sinnlos.

Grüße
Zero
Ergänzung ()

DerPessimist schrieb:
Jetzt darf ich Metro erst spielen, wenn die RTX 3080 Ti oder RTX 4080 Ti erhältlich ist. Es soll schließlich flüssig auf 4k laufen. :)
Da bist Du nicht der einzige hier. Diejenigen, die 4K auf 144Hz fordern werden darauf noch einige Jahre warten dürfen...

Grüße
Zero
 
Da die Performance mit Raytracing noch nicht stimmt und nur einige wenige Effekte unterstützt werden(BF5), glaube ich nicht das diese GPU Generation mich interessiert.
Wer sich zwei 2080 Ti für schlappe 2500€ kaufen kann/möchte, um in den Genuss dieser Effekte zu kommen, dem gönne ich es aber dennoch.
DLSS ist da schon eher ein sinnvolles Feature, da die Bildqualität dadurch verbessert wird, aber warten wir mal die ersten Tests ab.
 
wenn eine Karte in 7nm kommt dürfte die erstemal wie die ersten Pascal Chips eher klein ausfallen. Also sowas wie halbe Größe der Die von Turning, ähnliche Specs, weniger Verbrauch, höherer Takt.

Bis man in 7 nm da eine "Fat Die" sieht dürften noch 2 Jahre ins Land gehen. Ggf auch davor als Tesla / Titan.
 
Hat eigentlich mal jemand anhand der angeblich geleakten Benchmarks berechnet, wie viel % Leistungsgewinn man pro % Aufpreis ggü. der vorherigen Generation bekommt? Kommt da überhaupt ein positiver Wert bei raus?
 
Gamefaq schrieb:
Sie werden wenn AMD nächstes Jahr ihren Shrink bringt einfach zum Ende des Jahres die 3xxx Generation bringen. Denn vor VEGA war es so das es jedes Jahr neue Grafikkarten gab. Da AMD aber zuletzt Vega extrem verzögert hat, hat dies auch nVidia getan. Normalerweise wäre die 2xxx Generation vor 1 Jahr gekommen.

Das kann man bezweifeln, wenn man sieht wie das alles grade läuft. Der Großhandel hat fast keine Karten, fast alles läuft über Direktvertrieb. Treiber machen Probleme und sind noch nicht fertig.

Also vor 1 Jahr hätte, wenn etwas gekommen wäre, mit Sicherheit nichts mit RT oder sonstigem den Weg in den Markt gefunden.


Gamefaq schrieb:
Wenn AMD wieder den Zuschlag bekommt. Da AMD aktuell kein Raytracing oder DLSS bieten kann darf dies erstmal in Frage gestellt werden ob sie bei der nächsten Konsolen Generation wieder den Zuschlag bekommen werden.

AMD hat den Zuschlag schon längst. Navi ist mit und für die PS5 entwickelt worden. Die Konsolen werden diese Techniken ganz einfach nicht unterstützen, warum auch, selbst im Consumer-Markt ist das momentan nur eine Niesche.


Gamefaq schrieb:
Und AMD und Raytracing?! Hast du Insider Infos oder eine Glaskugel?!

Aktuell wäre meine Einschätzung das nVidia , AMD EISKALT erwischt hat.

Deine Einschätzung ist halt einfach nicht korrekt. AMD hat schon letztes Jahr im Profi-Segment mit Raytracing für die Entwicklungsumgebungen geworben. Das AMD ähnliche Chips bauen kann steht außer Frage, und vor allem müssen sie dafür mal rein gar nichts lizenzieren.


Gamefaq schrieb:
Nun aber hat nVidia nicht einfach nur eine Karte mit mehr Leistung gebracht sondern mit vollkommen neuen Techniken. Und darauf muss AMD nun erstmal Antworten! Weil einfach nur etwas mehr Leistung wird jetzt nicht reichen.

Bei den Reaktionen bisher am Markt reicht einfach ein wenig mehr Leistung und gutem Strombedarf für den großen Markt Mainstream einfach aus. RT ist weder Mainstreamfähig bisher, noch ist es bezahlbar in diesem Bereich.

Gamefaq schrieb:
Etwas gleichwertiges oder besseres muss her. Nur woher soll das kommen der der VEGA Entwickelt hat nun für Intel arbeitet und etwas gleichwertiges zu entwickeln kostet Zeit & Geld!

Vega war schon lange vor Koduri in der Entwicklung. Und ob Koduri irgendwas sinnvolles geleistet hat, wird man bei Intel dann sehen. Koduri's Steckenpferd ist zu dem Deep-Learning / AI, für Gamer-GPU's interessiert er sich eigentlich eher weniger.

Gamefaq schrieb:
nVidia hat an der Technik laut Angabe auf der Gamescom die letzten 10(!) Jahre gearbeitet. Meinst du selbst wenn AMD sie nur versucht zu kopieren, sie bekommen das mal ebenso in einem halben Jahr hin?

Glaubst du eigentlich alles was auf Werbe-Veranstaltungen vom Lederjockl erzählt wird?

Zudem ist es gar nicht nötig sich wegen RT in die Hosen zu machen. Diese Technik braucht noch Jahre bis sie in den Mainstream kommt und vorher ist es auch absolut nicht nötig das AMD oder Intel das in ihre GPU's stecken.

Gamefaq schrieb:
Denn Vega 2 soll ja nicht erst Ende nächsten Jahren kommen. Aber selbst wenn sie VEGA 2 auf Ende nächstes Jahr verschieben würden meinst du ernsthaft AMD mit seinem Geld & Personal Problemen bekommt das mal eben so hin wenn schon Vega mit enormen Verzug erschienen ist und der Haupt Designer gar nicht mehr bei AMD ist?

Nochmal: Koduri war Leiter der RTG, aber er war nicht Haupt-Designer von Vega. Vega's Entwicklung begann schon vorher. Zudem hat man deutlich Personal von Vega abgezogen um die nächste Architektur zu entwickeln -> Navi. Zudem hat sich Vega nicht verzögert wegen der Architektur, sondern wegen kaum lieferbarem HBM. Der wenig verfügbare HBM den man hatte, hat man erstmal in die Profi-Karten gesteckt, denn die waren weitaus wichtiger.

Gamefaq schrieb:
Klar wird es bei AMD noch andere geben und man kann andere fähige Einstellen aber auch sie können nicht von 0 auf 100 etwas entwickeln. Einzig das in Lizenz von nVidia in sein eigenes Produkt einbauen könnte hier helfen ohne das die Entwicklung Jahre dauern würde oder man eine Patent Klage sondergleichen riskiert wenn man die Technik 1zu1 kopiert.

Es bleibt dabei, RT wird erstmal nur eine Niesche sein. Es wird Jahre dauern bis es sinnvoll im Mainstream kommen kann. AMD hat schon vor nVidia RT für Entwicklungsumgebungen beworben und entwickelt mit Sicherheit etwas eigenes. Durch die zusätzliche Manpower vom Zen-Team brauchen die da gar nichts zu lizenzieren.

Deine ganze Argumentation beruht auf falschen Annahmen.


Gamefaq schrieb:
Siehe oben. Ohne das AMD das ganze in Lizenz von nVidia in seine Produkte einbauen darf bezweifel ich das von AMD in der nächsten Generation etwas vergleichbares kommen wird! Da sie schlicht weder die Manpower noch das Geld dafür haben das mal eben so in der kurzen Zeit selbst zu Entwickeln! AMD wird bestimmt nun selbst erstmal ein paar 2080TI vorbestellt haben damit sich Ihre Techniker ein (technisches) Bild der Technik die nVidia da entwickelt hat machen können. Und erst dann wird die AMD Chefin die Frage stellen dürfen ob sie das selbst ohne Patent Probleme zu bekommen (nach)bauen können. ;)

Keine Ahnung wie du dir solche abstrusen Konstrukte zusammenstellst. AMD braucht RT nicht in der nächsten Generation, es ist erstmal eine Niesche. Und AMD wird vor allem erstmal gar nichts lizenzieren. Sie bewerben selbst RT im Profi-Bereich und werden auch selbst in diese Richtung entwickeln. Aber bevor RT im Mainstream mit genügend Leistung Einzug erhält, brauch man RT einfach nicht. Und in Konsolen wird es sowieso erstmal gar nicht kommen, da die Preise dafür einfach zu horrend wären.
 
Zuletzt bearbeitet:
Hoffentlich ist die KI ähnlich "hübsch". Dafür bräuchte es keine High End-Hw.
 
Ich habe ein Screenshot von einer unabhängigen Quelle bekommen die gerade an einem Video zu DLSS sitzt in dem zu 400% reingezoomed wurde in einem bestimmten Spiel. Linke Seite vom Bild zeigt das Spiel in einer Basisauflösung von 1440p plus dann DLSS up to 4k. Rechte Seite vom Bild nativ 4k mit normalem antialiasing. Man kann sogut wie keinen Unterschied erkennen, heftig. Wenn das wirklich in Zukunft von Spielen integriert wird dann ists krass was für einen fps Sprung bei '4k' Optik man hinbekommt. Das ist wirklich kein Marketingtrick von NVIDIA sondern scheint the real deal zu sein. Jetzt verstehe ich langsam warum die konventionelle Leistungsteigerung ihnen scheinbar diesmal nicht sooo wichtig war... Aber das muss man der Gamergemeinschaft definitiv noch besser erklären/verkaufen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@th3o
Braucht man nur ein wenig im Internet zu suchen, was die Tensor- Cores können. Da gibts zig neue Möglichkeiten für den Gaming- Sektor und dafür stehen das vielfache an der ursprünglichen Teraflop Leistung zur verfügung.

Man will sich hier offenbar einfach nicht mehr mit Technik beschäftigen (und das in einem Technikforum).

Grüße
Zero
 
  • Gefällt mir
Reaktionen: th3o
ZeroZerp schrieb:
@th3o
Man will sich hier offenbar einfach nicht mehr mit Technik beschäftigen (und das in einem Technikforum).
Ein Spiel besteht zum Glück nicht nur aus bombastischer Grafik. Abgesehen davon empfinde ich auch "Comic-Grafik" im Stil von Borderlands oder Dishonored als schön, wenn auch nicht als realistisch. Kommt halt auch auf das Game drauf an.
Ich muss aber auch zugeben, dass ich mich im Moment mangels Leistungsreserven eher mit älteren Spielen abgebe.

Neue Techniken wie Raytracing und DLSS sind immer sehr interessant und es ist durchaus wünschenswert, wenn sich diese in Zukunft in einer Form etablieren können und die Game-Grafik weiterbringen.
Ob man nun als Früheinsteiger den entsprechenden Preis dafür bezahlen will, muss jeder mit sich selber klären. Für mich werden jedenfalls die bald erscheinenden Testresultate ein (weiterer) wichtiger Faktor in der Entscheidungsfindung sein.
 
  • Gefällt mir
Reaktionen: .Sentinel.
  • Gefällt mir
Reaktionen: Krautmaster und xexex
Aldaric87 schrieb:
Das kann man bezweifeln, wenn man sieht wie das alles grade läuft. Der Großhandel hat fast keine Karten, fast alles läuft über Direktvertrieb. Treiber machen Probleme und sind noch nicht fertig.

Bezweifeln (damit meine deine komplette Antwort nicht nur das von mir jetzt zitierte) kann man immer alles was wirklich kommen wird weis keiner von uns! Ich habe lediglich auf
Shoryuken94 mit dem was "ich" denke geantwortet da er vieles wie einen Fakt kommentiert hat. Was davon eintreten wird weis ich nicht , er nicht und auch du nicht.

Aber um auf deinen ersten Satz zu antworten was läuft denn jetzt nicht richtig? CB hat einen Treiber zum Testen. Die Endkunden bekommen ihn zum DL mit dem offiziellen Release. Woher weist du das der Großhandel kaum Karten hat wenn hier schon die ersten ihre RTX bekommen haben?! (Der nächste mit einer Glaskugel?)

Andererseits kann man Fragen wann war das direkt zum Release bzw. was lief je bei einem Release anders? Hier wird eine Verschwörungstheorie nach der anderen gesponnen warum nVidia das tut was sie tun. Hier sind wir in einem NERD Forum. Da draußen interessiert das was wir hier schreiben niemanden. Die Leute kaufen sich das was am meisten Leistung für ihr Geld bietet. Und dies kann hier keiner weg diskutieren das man bei nVidia für sein Geld ebene mehr Leistung als bei AMD bekommt. AMD hat 2 Jahre gebraucht um teilweise gleich zu ziehen da gab es keine andere Wahl. Und nun mit der nächsten Generation gibt es diese wieder nicht denn egal wieviel mehr Leistung sie morgen in den Test zeigen wird . Es ist mehr als AMD aktuell liefern kann! (Und ich bezweifele das sie mit ihrem 7nm Refresh gleich ziehen können werden obwohl sie wieder bis an die Grenze der Stromaufnahme gehen werden wie jetzt.) Ebenso für vernünftig denke Menschen (und nicht die die einfach es ignorieren bzw. sagen es sei egal) bekommt man die gleiche Leistung für deutlich weniger Strom verbrauch. Ich Encodiere über die Grafikkarte meine Film Sammlung. Der Rechner ist daher über Stunden im Betrieb weil selbst wenn ich nicht Spiele encodiert er (wie grade im Hintergrund) vor sich hin. Ich werde da nicht ignorieren das AMD sich die Leistung bei VEGA durch eine fast doppelt so hohe Stromaufnahme erkauft hat. Effizienz ist anders!

PS: Bevor du oder jemand anders (wie so oft es hier passiert) mir vorwirft...Ich bin kein AMD Hasser oder Intel/nVidia Fanboy, ich habe grade erst den 2700X in meinem neuen Spiele PC verbaut. Ich nutze nur das was ich für mich benötige und das ist eine CPU die in Anwendungen und Spielen (in dieser Reihenfolge!) extrem gut rennt und das tut sie. Aber eine AMD Karte kommt mir aus dem oben genannten Gründen (Leistung & Effizienz) aktuell NICHT in mein System.

PPS: Wenn du dich nun fragst warum ich dann nach der Aussage nicht schon eine RTX 2xxx Karte vorbestellt habe. Das liegt daran das ich eben kein verblendeter Fanboy bin der alles sofort haben muss. Ich habe es scho in einem anderen Thema geschrieben. Ich warte bis Mitte Februar nächsten Jahres. Dann ist der Ansturm der Erstkäufer vorbei und wesentlich wichtiger das Weihnachtsgeschäft das bereits für den Handel im vollen Gange ist = die Händler werden einen Teufel tun aktuell die Preise zu senken. (Bis auf ein paar Anpassungen der 1xxx Generation nachdem die 2xxx Generation Flächendeckend verfügbar ist wie es bei jeder dann alten Generation passiert) . Warum erst ab Mitte Februar? Da Mitte Februar auch die Nachwirkungen von Weihnachten vorbei sind da auch die die Geld geschenkt beklommen haben bzw. die die doppelt/unerwünschte Geschenke zurück gebracht haben alle da waren und die Lager (zu) voll sind wodurch wieder an der Preis Schraube gedreht werden wird. Außer natürlich die 2xxx Generation wir urplötzlich zum nächsten Mining Hit...;)
Ergänzung ()

Aldaric87 schrieb:
Deine Einschätzung ist halt einfach nicht korrekt. AMD hat schon letztes Jahr im Profi-Segment mit Raytracing für die Entwicklungsumgebungen geworben. Das AMD ähnliche Chips bauen kann steht außer Frage, und vor allem müssen sie dafür mal rein gar nichts lizenzieren.

Du verwechselst hier etwas. Da geht es darum das die Grafikkarten die Berechnungen der CPU abnehmen sprich die CPU ihre Leistung nur zur Verwaltung einer Herscharr von Grafikkarten die die eigentlichen Raytraycing Berechnungen in Stunden bis Tagen (!) durchführen. Sprich sie berechnen in dieser Zeit Sekunden bis Minuten CGI Film Effekt Material. Es geht nicht um ECHTZEIT Berechnung in Hardware von einzelnen Effekten wie es nVidia grade tut. Nur weil bei beidem das Wort Raytracing fällt ist es nicht das gleiche!
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Deswegen ist es ja umso besser, wenn sich die Spieleentwickler durch die neue Technik mal wieder mehr auf das Wesentliche konzentrieren können, als sich mit 1000 Tricks, Kniffen und manueller arbeit für eine ansehnliche Grafik zu beschäftigen.
http://www.pcgameshardware.de/Spiel...qualitaet-geht-zu-Lasten-der-Inhalte-1265344/
Im Kern ist das sicher korrekt und wünschenswert!
Ob die neue Technik die Entwicklung vereinfacht, muss sich wohl noch zeigen; meines Wissens war das bis jetzt nur die Aussage von nVidia.
Zweitens sollte sich diese Vereinfachung nicht auf die Grafikqualität von "RTX Off" auswirken, sodass diese schlechter als nötig wird. Vor allem im Moment nicht, wo RTX noch ein kleiner Teil des Markts ausmacht.
 
Gamefaq schrieb:
Es geht nicht um ECHTZEIT Berechnung in Hardware von einzelnen Effekten wie es nVidia grade tut. Nur weil bei beidem das Wort Raytracing fällt ist es nicht das gleiche!

Ich glaube Radeon Rays soll schon sowas wie RTX darstellen, ist allerdings derzeit noch nicht mit DXR kompatibel und hat im Vergleich zu den RTX Karten eine miserable Leistung.
1537369715031.png

https://gpuopen.com/gaming-product/radeon-rays/

Nvidia gibt ihre Karten mit bis zu 10 GigaRays/s an, die Leistung der hier genannten Karte ist hingegen selbst viel geringer, wie die Leistung einer 1080Ti in diesem Bereich.
1537370178872.png
 
Zuletzt bearbeitet:
xexex schrieb:
Ich glaube Radeon Rays soll schon sowas wie RTX darstellen, ist allerdings derzeit noch nicht mit DXR kompatibel und hat im Vergleich zu den RTX Karten eine miserable Leistung.

Nvidia gibt ihre Karten mit bis zu 10 GigaRays/s an, die Leistung der hier genannten Karte ist hingegen selbst viel geringer, wie die Leistung einer 1080Ti in diesem Bereich.

Ich glaube Du vergleichst hier Äpfel mit Birnen, Zitat von https://gpuopen.com/gaming-product/radeon-rays/ :

The current implementation is based on OpenCL, which means Radeon-Rays supports execution on all platforms conforming to the OpenCL 1.2 standard. It is not limited to AMD hardware or a specific operating system.

Das ist keine GPU-Nahe Implementation (im Sinne von sehr nahe an der Hardware bzw. durch spezielle Hardware unterstützt) sondern quasi eine reine Software-Implementation via OpenCL.
 
Zurück
Oben