• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Battlefield V: Weniger Raytracing für mehr Leistung auf GeForce RTX

Das Raytracing ist eine Generation zu früh auf dem Markt genau wie PhysikX zu seiner Zeit und jetzt benutzten es nurnoch eine Handvoll Spieleschmieden. Eigentlich schade bei den gezeigten beeindruckenden Bildern.
 
  • Gefällt mir
Reaktionen: Berserkervmax
Heschel schrieb:
Ganz ehlrich, was sollte die Aufregung?

Man sollte abwarten und Tee trinken. Mal schauen wie groß die Verbesserungen zwischen 1080/2080 bzw. zwischen 1080ti/2080ti sind. Wenn es eine Steigerung um 30 - 40 % gibt, wäre es auch nicht schlecht - egal ob RT da fuktioniert oder nicht.
Zu was? 1080p oder 4k ? 40% mehr auf 1-2 k (Was eh keiner mehr braucht) Leistung heißt nicht gleich 40% auf 4k. Das ist die frage. Auf flüssige 4K hätte Nvidia für 350-600€ Bauen sollen.
 
Chismon schrieb:
Das wird wohl genauso unrealistisch bleiben wie Dein damaliger Traum bzgl. einer RX Vega mit 50% Mehrleistung als einer GTX 1080Ti.

denke auf Absehbare Zeit muss AMD bei DX RT mitziehen. Spätestens in 1-2 Gens. Für uns wäre es natürlich besser wenn ein Standard wie DX / Vulkan sich hier durchsetzt, aber ich denke dass RTX noch ganz anders als Gameworks reinhauen wird sodass sich AMD uU sogar vom Gaming Markt verabschiedet.
 
DischargeHammer schrieb:
Reinste Lüge, dass Spieler ohne RayTracing Reflekionen nicht benachteiligt werden. Es ist von extrem großen Vorteil die Reflektionen von Gegnern in Objekten zu sehen.

Ich finde vollkommen legitim, dass man entsprechende Vorteile genießt, wenn man 1200 € für die Graka hinblättert.
 
Chismon schrieb:
dass Navi nur eine GPU-Halb-Generation werden wird, die dann in 7nm maximal Mittelklasseniveau - also dann maximal ca. 1080Ti Niveau, aber effizienter - bieten muss

auch das war bisher ja eher Gerücht aber ich denke auch dass es darauf hinauslaufen wird. Wenn diese in Konkurrenz zur RTX 2070 treten kann wäre das schon gut, sofern sie für AMD dann auch deutlich wirtschaftlicher ist als eine RTX 2070 für Nvidia. Wobei Nvidia ja nach wie vor den GP104 neu auflegen kann wenn es dazu geht einen RTX-freien AMD Pendant zu schaffen. 7nm scheint man da noch nicht mal zu brauchen, zumindest aktuell nicht.
Ergänzung ()

Knito schrieb:
Ich finde vollkommen legitim, dass man entsprechende Vorteile genießt, wenn man 1200 € für die Graka hinblättert.
gut das ist wie wenn man sagt "ich schalte Schatten / HBO aus" damit ich den Gegner im Schatten besser sehen kann...

So gesehen hat auch ein Gamer mit 4K nen Vorteil bei Fernschüssen.
 
Chillaholic schrieb:
... einen Anreiz diese Option auch unter Nvidia Grafikkarten abzuschalten, da selbst diese das Spiel nicht stabil darstellen konnten mit aktivierten Hair-Würgs? Hairworks ist genau wie alle Gameworks Funktionen eine Katastrophe, die nicht mal auf ner 1080 mit anständiger Frames läuft.

Vielleicht schafft es die mit Vorschusslorbeeren schon bedachte RTX 2080Ti ja dann endlich, dass Hairworks optimal im Witcher 3 laeuft :D?

Natuerlich haette man sich fruehzeitiger schon bei Cyberpunk 2077 einkaufen koennen, aber das Spiel ist wohl noch nicht fertig/so weit, die Kaeuferschaft und Studio/Publisher nicht ganz so gross wie bei EA/Dice und man haette eben noch spaeter einen Launch ansetzen muessen und waere dann ungewollt wegen AMDs/RTGs in 2019 anstehenden, schon in 7nm gefertigten Grafikkarten evt. in Schwuelitaeten geraten ;).

Eigentlich hat nVidia Glueck im Unglueck, dass dort trotz dieses schwachen Turing GPU-Aufgebots, gerichtet an Moechtegern-Early-Adoper und -Enthusiasten (RTX 2070 und RTX 2080 GPU-Kaeufer) und richtige Early Adopter und Hobby-Enthusiasten (mindestens 1x RTX 2080Ti, besser gleich 2x RTX2080Ti) kein direkter Gegenwind in Form besserer Produkte von AMD/RTG aktuell befuerchtet werden muss.

Soll man den RTX-kaufenden (Pseudo-)Early-Adoptern und Hobby-Enthuisasten eine PhysX-aehnliche Investition wuenschen (?) ... das wohl nicht, aber es koennte durchaus passieren, dass spaetestens in 2 GPU-Generationen der "RTX Spuk" ein jaehes Ende finden koennte und die Investition sich insgesamt als Windei entpuppt bzw. komplett in den Sand gesetzt wurde, aber das ist eben das Risiko welches (Moechtegern-)Early Adopter und Hobby-Enthusiasten tragen :p.
 
  • Gefällt mir
Reaktionen: Chillaholic
Chismon schrieb:
Vielleicht schafft es die mit Vorschusslorbeeren schon bedachte RTX 2080Ti ja dann endlich, dass Hairworks optimal im Witcher 3 laeuft :D?
Das wäre doch mal ein Argument gewesen. 200% faster Hairworks. Geil! Endlich Geralt mit Föhnfrisur.
 
  • Gefällt mir
Reaktionen: Chismon
RAZORLIGHT schrieb:
Für mich scheint RTX nur da zu sein um der 2000er Serie ein Alleinstellungsmerkmal zu verpassen da sie durch die reine Leistung ohne RTX wohl nicht so richtig überzeugen kann.

es ist mehr als RTX dass die neue Gen drauflegt. Die Änderungen sind schon recht massiv. Auch DLSS/ DLAA sind zu nennen und auch pro Shader könnte die Leistung leicht ansteigen.

Ich würde es eher andersherum nennen. "Reine Leistung ohne RTX" hat man aktuell einen genügenden Vorsprung (und eigentlich profitieren nur 4K Maschinen von mehr Rohleistung) um es sich aktuell erlauben zu können einen Großteil der Die für Innovation zu opfern, eine Innovation an der über die nächsten Jahre / Jahrzehnte eh kein Weg vorbei geführt hätte. Zudem schafft man auch wieder für 1080p User einen Usecase um Geld hinzublättern.

Das Chipdesign und der Prozess von RT + Deep Learning Denoise + Rasterizing wurde sicher schon vor Jahren fixiert und auch darauf hingearbeitet dass in ein Design unbekannter Herstellungsgröße einfließen zu lassen. Vermutlich hat man seit der aktuellen Shader Architektur um Maxwell oder gar nach 8800 GTX sich genau darauf konzentriert wann man dieses neue 3D Verfahren bringen kann.

Nvidia macht sich sicher nicht einfach so die Marge kaputt. Wie schon gesagt. Natürlich hätte man die RTX Serie auch so ohne RT und Tensor Cores bringen können, nichts spräche dagegen wenn man auf Gewinnmaximierung aus ist. Tut man aber nicht.
 
Taxxor schrieb:
Bei CB wird in 4K ja bei vielen Spielen nur mit hoch oder sogar nur mit mittel getestet. Und selbst da kommt sie oft nicht an die avg 60fps ran.

Hmmm, ich zocke seit über einem Jahr mit der 1080Ti in 4K bei flüssigen 60FPS und max Details.
Allerdings zocke ich auch nicht jedes Spiel das CB im Testparcour hat.
Dann Korrigiere ich die als Pauschalaussage verstandene Meinung und reduziere auf:
Die Spiele die ich spiele laufen mit der 1080Ti flüssig.
Ändert aber nix an meiner Aussage, dass für mich die mutmaßliche Leistung der RTX kein wirkliches Kaufargument darstellt da bei mir ja bereits jetzt alles flutscht.
RT lasse ich mal ausgeklammert, da ich noch kein vernünftiges Vergleichs Video mit RT an/aus gesehen habe.
 
Wadenbeisser schrieb:
Na sicher doch, und die restlichen 99% zahlen über 1000€ für eine Grafikkarte um dann in 1080p mit ca. 40 FPS zu zocken. Schon klar. ;)

ganz offensichtlich hat er nicht so unrecht. Zumindest hab ich nun in 1080p wieder einen Grund eine neue GPU zu holen. Wie viele bauen sich ne 400€ CPU ein um nachher in 1080p 5 FPS mehr zu haben. Vielleicht bauen sich auch viele ne 1000€ CPU sein um auf bisher undenkbare Effekte rückgreifen zu können. Kann ja jeder für ich ausmachen.

Diese Effekte machen ggf nen größeren Unterschied optisch als in 4K zwischen den höchsten 2 Presets hin- und herzuschalten. Und einfach mal abwarten was nachher bei rauskommt, auch in 4K Performance. Es wäre ja denkbar dass man die RTX Effekte dann weiter in 1080p rechnet und upscaled.

Über reine Shader Leistung dürften die GPU ja wie heute skalieren. Wenn also in 1080p das Raytracing am Limit ist muss das noch nichts für 4k + RTX Performance aussagen, sondern kann je nach Umsetzung auch dieselbe oder ähnliche Performance als in 1080p haben.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Krautmaster schrieb:
... muss AMD bei DX RT mitziehen. Spätestens in 1-2 Gens. Für uns wäre es natürlich besser wenn ein Standard wie DX / Vulkan sich hier durchsetzt, aber ich denke dass RTX noch ganz anders als Gameworks reinhauen wird sodass sich AMD uU sogar vom Gaming Markt verabschiedet.

Da wuerde ich erst einmal an AMDs/RTGs Stelle mindestens ein halbes Jahr abwarten, denn die grossen Konsolen beliefern sie vorerst auch so und wenn der Hype und Umsatz rundum RTX erst einmal verflacht ist und nach den (Moechtegern-)Early Adoptern und Hobby-Enthusiasten sowie den nVidianern nichts mehr kaeufertechnisch nachkommen sollte (und ob diese Verkauefe/Gewinne alleine reichen werden um eine Fortfuehrung und Verbreitung/Aufwand durch Entwickler weiterhin zu rechtfertigen?) und die Kundschaft auf Navi teilweise umschwenken sollte, wird man sehen muessen (macht AMD/RTG eigentlich alles richtig nd verbrennt sich nicht ebenfalls an verfruehtem RT-Raytracing die Finger, sonst sind AMD/RTG ja meist die gelackmeierten, die fuer Innovation abgestraft werden, siehe Mantle, HBM, etc.) ;).

Ich bin da skeptischer als Du und denke AMD/RTG sitzt da aktuell abwartend in sehr guter Position und da RT-Raytracing technisch im Kinderschuhstadium steckt, kann man da auch schwerlich Anschluss verlieren.

Fuer uns waere fluessiges 4K/UHD mit 120+Hz mit (FreeSync 2/G-Sync Plus) HDR in Ultraeinstellungen besser/erstrebenswerter, bevor man - wie in diesem CB Artikel trefflich aufgegriffen - auf eine unausgegoren implementiertes und masslos ueberteuertes Randtechnik-Features (welches RT-Raytracing auf absehbare Zeit bleiben duerfte) setzt, aber da scheiden sich die Geister scheinbar merklich aktuell.

Heisst das, dass man die RT-Raytracing Technik nicht aehnlich wie VR irgendwann wieder ausgraben kann, wenn die technischen Voraussetzungen weiter entwickelt und gereift sind?

Nein, natuerlich nicht, aber aktuell ist es m.M.n. ein Schuss in den Ofen, wegen des verfruehten Einfuehrungszeitpunkt und der nVidia-typischen Herangehensweise, die dafuer zur Kasse gebotene, willige/geblendete Kundschaft ab zu ziehen ... selber Schuld die Leute/Kaeufer, ja klar, so koennte man das natuerlich auch rechtfertigen, wenn man denn wollte, aber astrein ist der Ansatz sicherlich nicht.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
ich denke AMD wird wie gesagt eher 1-2 Gens abwarten. Das wäre auch schlau, denn dann kann man sich eine optimale Architektur überlegen die den sich einwickelnden Standard möglichst gut supported.
 
Krautmaster schrieb:
es ist mehr als RTX dass die neue Gen drauflegt. Die Änderungen sind schon recht massiv. Auch DLSS/ DLAA sind zu nennen und auch pro Shader könnte die Leistung leicht ansteigen.
.
Ach stimmt 2tes Alleinstellungsmerkmal um die massive Chipgröße + Preis zu rechtfertigen.
TXAA ist auch nicht das gelbe vom Ei und auch bei DLSS hab ich so meine Zweifel.

Ich würde es eher andersherum nennen. "Reine Leistung ohne RTX" hat man aktuell einen genügenden Vorsprung (und eigentlich profitieren nur 4K Maschinen von mehr Rohleistung) um es sich aktuell erlauben zu können einen Großteil der Die für Innovation zu opfern, eine Innovation an der über die nächsten Jahre / Jahrzehnte eh kein Weg vorbei geführt hätte. Zudem schafft man auch wieder für 1080p User einen Usecase um Geld hinzublättern.
Du denkst kurzfristig wie ein Politiker
Mehr Leistung JETZT mag zwar nicht so sinnvoll sein außer für Nutzer oberhalb 1080p, ABER das gibt den Entwickler dementsprechend mehr Ressourcen für ihre zukünftigen Spiele.
Außerdem scheinst du nicht zu verstehen, dass ich Raytracing toll finde, aber der Preis der dafür gezahlt wird ist JETZT zu hoch, zumal die Technik anscheinend immernoch zu viel Leistung frisst.

Das Chipdesign und der Prozess von RT + Deep Learning Denoise + Rasterizing wurde sicher schon vor Jahren fixiert und auch darauf hingearbeitet dass in ein Design unbekannter Herstellungsgröße einfließen zu lassen. Vermutlich hat man seit der aktuellen Shader Architektur um Maxwell oder gar nach 8800 GTX sich genau darauf konzentriert wann man dieses neue 3D Verfahren bringen kann.
RT für Spiele wurde schon immer anvisiert, da es schlicht die physikalisch korrekte Darstellung von Licht und Materialien ist... so wie ne ordentliche Physikengine in Spielen.
Ich glaube jedenfalls nicht alles von der Präsentation, was ich dir auch raten würde.
Es klingt natürlich besser wenn man sagt, dass man schon 10 Jahre daran arbeitet, ich glaube aber, dass sie nichtmal die Hälfte der Zeit damit verbracht haben.
Wie gesagt nicht alles Glauben was der Jensen sagt, aber da werd ich woh bei dir gegen ne Wand reden.

Nvidia macht sich sicher nicht einfach so die Marge kaputt. Wie schon gesagt. Natürlich hätte man die RTX Serie auch so ohne RT und Tensor Cores bringen können, nichts spräche dagegen wenn man auf Gewinnmaximierung aus ist. Tut man aber nicht.

Und hier kommt die Bestätigung.
NV kann eben durch RTX die Marge erhöhen.
Du glaubst doch wohl nicht, dass Nvidia als quasi Monopolist so gutmütig ist um uns den Kunden RTX zu bringen weil es so toll ist.
Die bringen es weil sie aus dem Prozess (12nm was ja nur 16nm+ ist) ohne gravierende Architekturänderungen nicht mehr rausholen können.

Maxwell zu Pascal war ein schöner Sprung, den können sie aber wohl anscheinend nicht wirklich wiederholen.

Ich glaube jedenfalls nach wie vor, Raytracing ist noch zu früh, bin dennoch froh, dass sie schonmal damit anfangen, allerdings nicht für die Preise die abgerufen werden.

Viel Spass noch beim Preiserhöhung rechtfertigen, was man als Konsument nicht machen sollte, alles andere ist für mich Fanboyism, da dir kein Unternehmen der Welt etwas schenken wird, also solltest du es auch nicht tun.

ps. sollte der Leistungssprung doch größer sein als erwartet bei non RTX Content wäre das super und würde mich auch freuen (für meinen Gsync Monitor), allerdings wären da immernoch die verrückten Preise.
 
Chismon schrieb:
Fuer uns waere fluessiges 4K/UHD mit 120+Hz mit (FreeSync 2/G-Sync Plus) HDR in Ultraeinstellungen besser/erstrebenswerter, bevor man - wie in diesem CB Artikel trefflich aufgegriffen - auf eine unausgegoren implementiertes und masslos ueberteuertes Randtechnik-Features (welches RT-Raytracing auf absehbare Zeit bleiben duerfte) setzt, aber da scheiden sich die Geister scheinbar merklich aktuell.

bin ich bei dir. Aber der Markt dafür ist auch extrem klein, vermutlich noch kleiner als 1080p mit aufgebohrten Effekten da allein die Displays schon ewig teuer bleiben werden in 4k, HDR und 120hz.

Das Problem ist ja wie gesagt schon dass dass es immer schwerer wird die Shader / Architektur auszulasten. Oft wären heute 120hz 4k vermutlich nicht mal das Problem wenn man die Game Presets geringfügig modifizieren und optimieren würde sodass sie bei ähnlicher Qualität weit mehr FPS liefern.

Da man aber keinen wirklichen 120hz 4K Monitor kaufen kann braucht man sowas auch nicht.
 
Krautmaster schrieb:
aber ich denke dass RTX noch ganz anders als Gameworks reinhauen wird sodass sich AMD uU sogar vom Gaming Markt verabschiedet.

Klar, AMD wird sich vom Gaming Markt zurückziehen, obwohl sie einen großen, weit verbreiteten Teil davon im Griff haben mit den Konsolen. :daumen:

Da muss ich immer gut lachen.
 
  • Gefällt mir
Reaktionen: so_oder_so
RAZORLIGHT schrieb:
Und hier kommt die Bestätigung.
NV kann eben durch RTX die Marge erhöhen.
Du glaubst doch wohl nicht, dass Nvidia als quasi Monopolist so gutmütig ist um uns den Kunden RTX zu bringen weil es so toll ist.
Die bringen es weil sie aus dem Prozess (12nm was ja nur 16nm+ ist) ohne gravierende Architekturänderungen nicht mehr rausholen können.

dass ist doch Quatsch und ergibt einfach keinen Sinn. Sie bringen RTX aus dem Grund da sie eben als QuasiMonopolist eben genau jetzt diesen Alleingang wagen können. Wäre das nur Jucks und Laune um den Kunden sowas wie Hairworks hinzuwerfen würde man nicht teure Die Fläche dafür verschwenden. Der Chip ist locker doppelt so teuer als er für reine Gaming Performance sein müsste.
"Ohne gravierende Architekturänderungen" hätte man RT und Tensor Kerne einfach weggelassen - und scheinbar wäre dann jeder happy und man könnte sogar die Marge weiter erhöhen da man keine Konkurrenz hat^^

@Aldaric87

korrigiere. PC Gaming Markt.
 
Krautmaster schrieb:
"Ohne gravierende Architekturänderungen" hätte man RT und Tensor Kerne einfach weggelassen - und scheinbar wäre dann jeder happy ^^

Klar würden das die allermeisten Kunden bevorzugen. Dann wüssten sie wenigstens für was sie zahlen.

Durch die geringere Chipfläche würden die Karten auch eher nicht so radikal im Preis steigen, wobei, nVidia sollte man ja alles zutrauen. Aber ein Produkt, welches nicht Marktreif ist, in den Markt zu drücken, obwohl man es auch im Profi-Bereich reifen lassen kann, ist jetzt nicht so klug. Aber ein Teil der Kunden ist ja gut erzogen, wie man hier im Forum täglich erleben darf.
 
RAZORLIGHT schrieb:
aber der Preis der dafür gezahlt wird ist JETZT zu hoch, zumal die Technik anscheinend immernoch zu viel Leistung frisst.
der Preis ist weniger wegen RT so hoch, der Preis ist so hoch weil Nvidia keine Konkurrenz mehr in dem Segment oben raus hat.

Wäre eine 400€ Vega so schnell wie ne 1080 Ti sähe das, RT hin oder her, ganz anders aus.

@Aldaric87
bin ich bei dir, denke nicht das Nvidia eine kostengünstigere Die an uns Kunden weitergegeben hätte.

Nvidia jongliert zwischen dem was man von TSMC bekommt und eigener Marge und eben Wettbewerb und setzt den Preis fest. Bei kleinerer Die bekommt man zwar mehr von TSMC, was den Preis pro Karte ggf etwas drückt, aber ich denke man hätte eher die Marge weiter gepushed und nichts verschenkt.

Wenn die 2080 Ti also 30% fixer ist als ne 1080 TI wird diese ohne Konkurrenz auch mindestens 30% teurer.

Nvidia ist kein Wohlstandverrein und denkt hinsichtlich Gewinnmaximierung, genau wie AMD.

Edit: genau deswegen drücken sie nun RTX initial in den Markt. Mangels Konkurrenz, schnell RTX irgendwie etablieren, später den Wettbewerbsvorteil oder gar Alleinherrschaft haben.
 
Zuletzt bearbeitet:
Vollkorn schrieb:
Das Raytracing ist eine Generation zu früh auf dem Markt genau wie PhysikX zu seiner Zeit und jetzt benutzten es nurnoch eine Handvoll Spieleschmieden. Eigentlich schade bei den gezeigten beeindruckenden Bildern.

So etwas hätte man in eine Titan bauen sollen für Enthusiasten-Klasse und dann, wenn es gescheit läuft, vielleicht in der nächsten Generation bringen können. Dafür pure Leistung zu normalen Preisen und eine 2080ti hätte sich super verkauft.
 
Krautmaster schrieb:
Edit: genau deswegen drücken sie nun RTX initial in den Markt. Mangels Konkurrenz, schnell RTX irgendwie etablieren, später den Wettbewerbsvorteil oder gar Alleinherrschaft haben.

Ich sehe nicht wo sie Konkurrenzlos sind. Bis zur 1080 gibt es Konkurrenz. Die 1080 Ti ist zwar das Maß der Dinge, aber dort sind trotzdem die Stückzahlen nichts im Vergleich zur Mittelklasse.
 
  • Gefällt mir
Reaktionen: Heschel
Zurück
Oben