Notiz Nvidia: Teaser für GeForce RTX Cyberpunk Limited Edition

  • Gefällt mir
Reaktionen: danyundsahne
  • Gefällt mir
Reaktionen: |SoulReaver| und bad_sign
dampflokfreund schrieb:
Die 2000er Serie ist nicht sau schlecht. Du bist wohl immer noch auf dem Stand von 2018. Raytracing und besonders DLSS haben sich im den letzten Monaten massiv verbessert. DLSS sieht nun besser aus als native Auflösung und verdoppelt die Framerate. Eine RTX 2060 packt damit 4K60 in Wolfenstein Youngblood und RTX on.

Ich hab eine RTX 2060 laptop Version und meine Performance in Wolfenstein kommt dank DLSS der 5700XT sehr nahe.

Bitte nicht pauschalisieren...die DLSS Leistung hat sich nicht verbessert...in BF5 und Tomb Raider, sowie Metro sieht es immer noch genauso unbeeindruckend aus wie vorher...das wird sich auch nicht ändern...nur die neuen Titel wie Control, Deliver us the moon und Young Blood haben eine bessere Implementierung...wieso lassen es alle immer so klingen, als sei DLSS wirklich KI gesteuert und hätte ich von selbst verbessert in den ersten Titeln mit DLSS Unterstützung...das ist nur Marketing...es zählt genauso wie bei RTX die Implementierung an sich.

BTT: Ich werde das Gefühl nicht los, dass AMD User wieder dick die A-Karte ziehen werden zum Start von Cyberpunk. Das ist neben fehlender Linux Unterstüztung übrigens der einzige Makel den ich an CD Projekt Red habe (die Proprietätsunterstützung von nVidia die billigend in Kauf genomme wird). Und auch das beweist nur, dass die Spielerfreundlichkeit reines Kalkül ist bei denen und nicht reine Nächstenliebe...Begründung für fehlende Linux Unterstützung -> Linux wird nicht von Gamern vorrangig verwendet...Begründung für nVidia Bias neben der Kohle die die sicherlich von nVidia bekommen -> die meisten Gamer setzen immer noch auf Inte+nVidia...also steigt denen keiner auf's Dach, wenn der Support für AMD hinkt...sind ja grob nur 20% der Spielerschaft...auf die muss man nicht eingehen. Ich mache mich sicherlich sehr unbeliebt mit diesen Anschuldigungen gegen CDPR, aber genau so sehe ich das. Wer halt wirklich ohne groß zu murren die nVidia Blackbox in sein Game einbaut, ohne diese anfänglichen Performance Fehltritte bei Witcher 3 für AMD Nutzer zu adressieren, der ist nicht wirklich daran interessiert allen Spielern die beste Erfahrung in ihrem Spiel zu bescheren. Da bin ich völlig bei Andre Peschke von "Auf ein Bier" der die "Wir sind für den Gamer/Konsumenten da"-Masche von CDPR eben auch als eine solche entlarvt hat.

Cyberpunk bereitet mir echt sorgen...würde mich nichtmal wundern wenn der Unterschied zwischen RTX und Rasterizer so massiv ist, dass einfach keiner mehr Rasterized spielen will nachdem sie Raytracing gesehen haben. Und ich meine das im Sinne von, dass man sich keine Mühe bei der non RTX Variante gegeben hat und dass erst Modder ran müssen um es in vollem Glanz erstrahlen zu lassen. Ich traue dem Braten einfach nicht.
 
  • Gefällt mir
Reaktionen: Chismon und fox40phil
GERmaximus schrieb:
Herbst 2020 wird der burner.
Ryzen 4000 ich freue mich
Rtx 3000/ amd big Navi ich freue mich mehr
Dazu das cyberpunk, perfekt

+1

Der Rest in diesem Thread schwebt irgendwo zwischen "witzig zu lesen" und "ab ins Aquarium".
 
thepusher90 schrieb:
Bitte nicht pauschalisieren...die DLSS Leistung hat sich nicht verbessert...in BF5 und Tomb Raider, sowie Metro sieht es immer noch genauso unbeeindruckend aus wie vorher...das wird sich auch nicht ändern...nur die neuen Titel wie Control, Deliver us the moon und Young Blood haben eine bessere Implementierung...wieso lassen es alle immer so klingen, als sei DLSS wirklich KI gesteuert und hätte ich von selbst verbessert in den ersten Titeln mit DLSS Unterstützung...das ist nur Marketing...es zählt genauso wie bei RTX die Implementierung an sich.

BTT: Ich werde das Gefühl nicht los, dass AMD User wieder dick die A-Karte ziehen werden zum Start von Cyberpunk. Das ist neben fehlender Linux Unterstüztung übrigens der einzige Makel den ich an CD Projekt Red habe (die Proprietätsunterstützung von nVidia die billigend in Kauf genomme wird). Und auch das beweist nur, dass die Spielerfreundlichkeit reines Kalkül ist bei denen und nicht reine Nächstenliebe...Begründung für fehlende Linux Unterstützung -> Linux wird nicht von Gamern vorrangig verwendet...Begründung für nVidia Bias neben der Kohle die die sicherlich von nVidia bekommen -> die meisten Gamer setzen immer noch auf Inte+nVidia...also steigt denen keiner auf's Dach, wenn der Support für AMD hinkt...sind ja grob nur 20% der Spielerschaft...auf die muss man nicht eingehen. Ich mache mich sicherlich sehr unbeliebt mit diesen Anschuldigungen gegen CDPR, aber genau so sehe ich das. Wer halt wirklich ohne groß zu murren die nVidia Blackbox in sein Game einbaut, ohne diese anfänglichen Performance Fehltritte bei Witcher 3 für AMD Nutzer zu adressieren, der ist nicht wirklich daran interessiert allen Spielern die beste Erfahrung in ihrem Spiel zu bescheren. Da bin ich völlig bei Andre Peschke von "Auf ein Bier" der die "Wir sind für den Gamer/Konsumenten da"-Masche von CDPR eben auch als eine solche entlarvt hat.

Cyberpunk bereitet mir echt sorgen...würde mich nichtmal wundern wenn der Unterschied zwischen RTX und Rasterizer so massiv ist, dass einfach keiner mehr Rasterized spielen will nachdem sie Raytracing gesehen haben. Und ich meine das im Sinne von, dass man sich keine Mühe bei der non RTX Variante gegeben hat und dass erst Modder ran müssen um es in vollem Glanz erstrahlen zu lassen. Ich traue dem Braten einfach nicht.
Ziemlich viel Mimimi und Hirngespinste. Gerald von Nvidia war schon ne gute Sache, man muss nicht alles immer auf ein Feinbild schieben. Im Übrigen kommt das Spiel auch auf den noch aktuellen Konsolen raus, unwahrscheinlich das CD PROJEKT RED den Red Dead Redemption 2 Sketch für AMD Nutzer plant.
 
Infi88 schrieb:
Ziemlich viel Mimimi und Hirngespinste. Gerald von Nvidia war schon ne gute Sache, man muss nicht alles immer auf ein Feinbild schieben. Im Übrigen kommt das Spiel auch auf den noch aktuellen Konsolen raus, unwahrscheinlich das CD PROJEKT RED den Red Dead Redemption 2 Sketch für AMD Nutzer plant.

Wie gesagt...mit sonem Kommentar habe ich gerechnet.
 
thepusher90 schrieb:
Bitte nicht pauschalisieren...die DLSS Leistung hat sich nicht verbessert...in BF5 und Tomb Raider, sowie Metro sieht es immer noch genauso unbeeindruckend aus wie vorher...das wird sich auch nicht ändern...nur die neuen Titel wie Control, Deliver us the moon und Young Blood haben eine bessere Implementierung...wieso lassen es alle immer so klingen, als sei DLSS wirklich KI gesteuert und hätte ich von selbst verbessert in den ersten Titeln mit DLSS Unterstützung...das ist nur Marketing...es zählt genauso wie bei RTX die Implementierung an sich.


Cyberpunk bereitet mir echt sorgen...würde mich nichtmal wundern wenn der Unterschied zwischen RTX und Rasterizer so massiv ist, dass einfach keiner mehr Rasterized spielen will nachdem sie Raytracing gesehen haben. Und ich meine das im Sinne von, dass man sich keine Mühe bei der non RTX Variante gegeben hat und dass erst Modder ran müssen um es in vollem Glanz erstrahlen zu lassen. Ich traue dem Braten einfach nicht.

Ja, diese Spiele haben auch noch das alte DLSS Modell. Das zu Updaten bedeutet ein ziemlich großer Aufwand auch seitens der Entwickler. Ist zwar schade, aber so ist das nunmal. Ich persönlich blicke lieber in die Zukunft und da werden Spiele halt mit dem neuen DLSS Modell befeuert. DLSS ist sehr wohl KI basiert. Du verwechselst Inferenz und Training. Trainiert (also dass die KI Modelle besser werden) geschiet auf den Servern von Nvidia, mithilfe von Tensor Cores geschiet dann die Inferenz auf den RTX GPUs (also das Ausführen der Deep Learning Modelle). Nvidia lässt die Kraft ihrer Server spielen, in denen das KI Modell dann lernen und besser werden kann. Ist die neue Version des Modells fertig trainiert, kommt es in den Game Ready Treiber.

Da brauchst du dir keine Sorgen zu machen und zu Grübeln, denn das wird so oder so passieren, eher früher als später aber nicht weil Nvidia ihr Marketing spielen lässt, sondern weil Raytracing einfach viel bequemer und kostengünstiger zu implementieren ist als Rasterisierung. Wenn dann die neuen Konsolen kommen, wird die Rasterisierung mehr und mehr vernachlässigt werden und Raytracing wird ebenso performanter durch Software-Optimierungen laufen. Deswegen halte ich es für nicht sinnvoll sich heute noch eine Karte ohne hardwarebeschleunigtes Raytracing zu kaufen, denn man kann davon ausgehen,dass Karten ohne RT Beschleunigung werden in zukünftigen Spielen deutlich das Nachsehen haben werden.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Vertan
Kann gelöscht werden
 
Zuletzt bearbeitet:
dampflokfreund schrieb:
Ja, diese Spiele haben auch noch das alte DLSS Modell. Das zu Updaten bedeutet ein ziemlich großer Aufwand auch seitens der Entwickler. Ist zwar schade, aber so ist das nunmal. Ich persönlich blicke lieber in die Zukunft und da werden Spiele halt mit dem neuen DLSS Modell befeuert. DLSS ist sehr wohl KI basiert. Du verwechselst Inferenz und Training. Trainiert (also dass die KI Modelle besser werden) geschiet auf den Servern von Nvidia, mithilfe von Tensor Cores geschiet dann die Inferenz auf den RTX GPUs (also das Ausführen der Deep Learning Modelle). Nvidia lässt die Kraft ihrer Server spielen, in denen das KI Modell dann lernen und besser werden kann. Ist die neue Version des Modells fertig trainiert, kommt es in den Game Ready Treiber.

Da brauchst du dir keine Sorgen zu machen und zu Grübeln, denn das wird so oder so passieren, eher früher als später aber nicht weil Nvidia ihr Marketing spielen lässt, sondern weil Raytracing einfach viel bequemer und kostengünstiger zu implementieren ist als Rasterisierung. Wenn dann die neuen Konsolen kommen, wird die Rasterisierung mehr und mehr vernachlässigt werden und Raytracing wird ebenso performanter durch Software-Optimierungen laufen. Deswegen halte ich es für nicht sinnvoll sich heute noch eine Karte ohne hardwarebeschleunigtes Raytracing zu kaufen, denn man kann davon ausgehen,dass Karten ohne RT Beschleunigung werden in zukünftigen Spielen deutlich das Nachsehen haben werden.

Ja super...noch ein Scheideweg mehr...dann muss ich in Zukunft eine GPU für Rasterizing (alte Spiele) und eine für Raytracing in meinen Rechner bauen oder was? Ich bin mir sicher, dass der Anteil der GPU der dann besser in Rasterizing ist zurückgebaut wird, zugunsten der Raytracing Performance. Was meinst du denn mit brauchst dir keine Sorgen machen, denn das wird sowieso passieren?! Im Sinne von "Akzeptier es jetzt schonmal!" Oder was? Ich will einfach nur Rasterized Games in 1440p die poliert und optimiert sind auf 100 FPS + spielen können...mehr muss meine GPU nicht leisten können. Ich habe keine Lust auf das nächste Feature (Hybrid Raytracing) setzen zu müssen, welches ich nicht mal als nützlich empfinde. Ich bin immer noch der Meinung, dass die Implementierungen von Raytracing unterirdisch sind. Es gibt immer noch zu viele No-Gos der Technologie, als dass ich sie für gut befinden kann. Immer noch häufig grobkörnige Artefakte...Spiegelungen unrealistisch. Das einzige was ich gut finde sind tatsächlich Spiegel die in Spielen tatsächlich spiegeln mit Raytracing. Das war es auch schon. Das brauche ich nicht für die 2-3 Badezimmer die man in einem Action Adventure betritt, oder was auch immer. Die anderen Reflektionen sehen immer noch zu "glatt" aus. Ne Pfütze ist nunmal kein Spiegel. Schon gar nicht wenn sie mit Schlamm versehen ist. Ich will Raytracing erst, wenn die Reflektionen tatsächlich auf verschiedene Oberflächen korrekt reagieren und die Schatten, bzw. Global Illumination komplett raytraced ist. Aber da brauchen wir die 10000- fache Leistung um das in Echtzeit zu berechnen. Ist für mich genauso wie mit VR. Interessiert mich erst wenn es n Holo-Deck ist. Ich spiele nicht den Beta Tester für die ersten Iterationen.
 
Zuletzt bearbeitet:
Esenel schrieb:
1080Ti zu 2080Ti sinds +48%.
... wann lohnt sich denn dann bitte deiner Meinung nach ein Upgrade? 200%?
Anhang anzeigen 878989

Spiegelt sich in den Community Benches bei 1440p auch exakt so wieder:

Metro Exodus: 150%
Anhang anzeigen 878997

Apex Legends: 148%
Anhang anzeigen 878998

Call of Duty: Modern Warfare: 153%
Anhang anzeigen 878999

Red Dead Redemption 2: 159%
Anhang anzeigen 879000

Bei einem Aufpreis von deutlich mehr als 48% (auch bei einer 700 Euro teuren GTX 1080Ti, anfangs gab es keine RTX 2080Ti Karten unter 1200 Euro), ja doch, ein unglaubliches Schnäppchen, so eine RTX2080Ti, wirklich immens lohnend :lol:.

Vielleicht sollte man sich dann gleich das Super-Schnäppchen RTX Titan gönnen, denn da bekommt man ja noch mehr Leistung dazu sowie mehr Speicher für einen scheinbar irrelevanten Aufpreis :rolleyes:.

Ein Upgrade ist auch immer in Bezug auf den (Auf-)Preis zu sehen und genau da patzt Turing mächtig für die große Mehrheit (sonst wären die Verkaufszahlen nicht vergleichsweise so enttäuschend).

Ergänzung ()

v_ossi schrieb:
... mir momentan aber noch etwas viel Spekulation (auch deinerseits).

Klar, wenn NVidia auf 7nm EUV umsteigt und die Platinen durch das Backdrilling verbessert, sind das schon mal zwei Punkte, die eine gewisse Leistunssteigerung nur durch die Fertigung ergeben. Nehmen ich natürlich gerne mit.

Spekulationen bezüglich
finde ich aber doch etwas... naja.

Vega und Navi waren beides gute Karten, wurden aber bisweilen zum Heilbringer der Branche hochstilisiert. Das sollte man zukünftig vlt. unterlassen um nicht wieder enttäuscht zu werden. Vergleiche von ungelegten Eiern haben daher ne Menge Potential in die Hose zu gehen.

25% bis 33% mehr Leistung bei 10% weniger Verbrauch (und 10% niedrigerem Preis) wären mMn schon ausreichend für Ampere.

Wieso "naja" (?), das war doch auch bisher die Intention von nVidia und da man im Wettbewerb steht, ist es eigentlich auch legitim zu versuchen die Konkurrenz möglichst alt aussehen zu lassen.

So gesehen fände ich es nicht unwahrscheinlich, wenn nVidia jetzt (vorsichtshalber) die großen Geschütze auffährt bzw. deren Schublade öffnet, um Navi-RDNA2 GPUs der Konkurrenz soweit wie möglich zu distanzieren (Intels Ponte Vecchio hat 2020 noch niemand auf dem Schirm, aber Ampere dürfte bis 2022 ausgelegt sein, so dass man auch da auf Nummer sicher gehen will).

Natürlich war es absehbar, dass Vega und jetzt Navi(-RDNA1) nicht die Heilbringer sein können, dementsprechend unsinnig auch die ganze (von WccfTech scheinbar angeleierte) "nVidia Titan-Killer" Kampagne, die natürlich nur überzogene Erwartungen schürt.

RDNA2-Navi kann bei der Enthusiasten-Flaggschiff-GPU vielleicht einer RTX 2080Ti um 20-30% bestenfalls enteilen (mehr als das wäre eine ausgewachsene Überraschung) und damit vielleicht ansatzweise bis gut mit einer RTX 3080 mithalten, die dann der Maßstab sein dürfte.

Dass sie an einer RTX 3080Ti kratzen wird können halte ich - aufgrund des aktuell doch großen Leistungsvorsprungs nVidias in der Spitze - für relativ ausgeschlossen und vermutlich ist das auch nicht AMDs/RTGs Zielsetzung (die Single-GPU Leistungskrone mit RDNA2 auf Biegen und Brechen zu bekommen).

Backdrilling ist nur ein Indiz, dass ein deutlicher Leistungssprung bei den kommenden nVidia GPUs bevorstehen dürfte ... ob es dann tatsächlich +50% Leistung und +25% Effizienz werden, wird man abwarten müssen (insbesondere letzteres halte ich für eher unwahrscheinlich durch die Bank aller neuen Ampere GPUs).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: |SoulReaver|
@Chismon
Billig war die Karte nicht, aber auch nicht unbezahlbar.
Hab meine 1080 mit WaKü Block verkauft und dadurch auch wieder etwas reinbekommen.

Mit WaKü Block hat die 2080Ti FE dann ca. 1400€.
Zieht man die ca. 400€ fürn Verkauf der alten Karte ab, kommt man knapp bei nem 1000er raus.

Dafür bekomme ich zwischen 80-100% mehr Leistung.
Ist für mich ok.

Wer ne 1080Ti hat muss ja nicht upgraden.
Es muss auch keiner jede Generation upgraden mitnehmem, so wie SoulReaver es macht.

Tja vielleicht werden die nächsten Karten günstiger.
Man wirds sehen.
 
  • Gefällt mir
Reaktionen: .Sentinel. und Chismon
@Wolfgang

Des Rätsels Lösung:
:)

@Aspethic @danyundsahne

Die sollen ja immer als Paar verlost werden, also an den Gewinner und einen Freund. Wird spannend, wie das bei der 77 Karte gelöst wird? ^^
 
  • Gefällt mir
Reaktionen: Cpt.Willard, DarkerThanBlack, USB-Kabeljau und eine weitere Person
Artikel-Update: Nvidia hat das Rätsel gelöst: Es handelt sich um eine auf 200 Stück limitierte GeForce RTX 2080 Ti „Cyberpunk 2077 Edition“, die nicht verkauft, sondern ausschließlich verlost werden wird. 77 Modelle verlost Nvidia selbst auf Facebook, Instagram sowie Twitter, wie die restlichen Versionen an den Mann gebracht werden, ist dagegen noch unklar.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Bei der Grafikkarte selbst handelt es sich um eine normale GeForce RTX 2080 Ti FE, die allerdings in einem Cyberpunk-2077-Design daher kommt und mit den prallen Farben optisch auffällig ist.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Das war also der Grund für die Verschiebung des Spiels, die Special Edition Karten waren noch nicht fertig! :lol:
 
  • Gefällt mir
Reaktionen: Cpt.Willard und DarkerThanBlack
Langweilig! Hatte mehr erwartet...
 
  • Gefällt mir
Reaktionen: v_ossi und Zitterrochen
Zurück
Oben