ZeroZerp schrieb:
Ich sehe also Raytracing als die ultimative Technik, nach der nichts mehr kommen wird.
Eine sehr gewagte Ansage, zumal Du ja nicht ahnen kannst, was die Zukunft noch so alles bringen wird (wenn wir beide dann evt. schon lange unter der Erde sind).
Von einer "ultimativen Technik" im Falle von RT-Raytracing zu sprechen - wenn es alleine schon Vorstellungen zu Holodecks gibt, wofuer dann deutlich hoehere Ansprueche noetig sein duerften (falls man das physikalisch irgendwann einmal annaehernd umsetzen koennen sollte) - wuerde ich mir nicht erlauben, aber gut, das heisst nicht, dass ich Dir Deine Begeisterung fuer RT-Raytracing madig reden will

.
Was momentan eben noch ueberhaupt nicht passt ist der Mehrwert (das wird bei ersten AMD oder Intel dGPUs genauso wie bei nVidias RTX nicht anders sein, wobei ich bezweifele das die beiden letzteren Unternehmen das aehnlich grosskotzig wie Huang herausposaunen werden ohne im Anschluss daran wirklich liefern zu koennen).
Es ist ein Anfang, ja, mehr aber auch nicht und wenn die Technik wenigstens bei besseren Effekten gleiche Leistung fressen wuerde, dann koennte man Stand jetzt bei RTX bspw. schon von einem durchaus gelungenen Feature reden (trotz weiterhin noch bescheidener Verbreitung), aber das ist eben gar nicht der Fall.
Neben der oftmals (noch) unoptimierten Implementierung frisst es eben bei den jetzigen Entwicklungen deutlich mehr Leistung als die herkoemmliche Rasterizierung (obwohl ja das Gegenteil fuer die Zukunft suggeriert wird).
Mangels Break-Even (Rasterisierung vs. RT-Raytracing) was die Leistung angeht, wird man die Kundschaft bei deutlich hoeher veranschlagten Preisen ohne echten Mehrwert (Zwang zu Full HD fuer fluessiges RT-Raytracing Erlebnis, waehrend man rasterisiert schon halbwegs fluessig in 4K/UHD spielen kann) damit in der Masse nicht locken koennen.
Das ist nun einmal das gleiche Dilemma wie bei den Low Level APIs (besonders DX12 aber auch Vulkan), welche von Entwicklern ewig auf die lange Bank geschoben wurden und von viele Gamern (ohne Weitsicht) verspottet wurden, auch weil die Umsetzungen von Entwicklern meist angepflanscht waren und nicht von Grund auf Low Level APIs herangezogen wurden, was sich mittlerweile aber zum Glueck langsam wendet/aendert.
Das ist auch passiert, weil fuer RTX und DLSS Features etwa DX12 oder Vulkan unumgaenglich geworden sind, nachdem man jahrelang bewusst die Low Level API Entwicklung durch einseitige Unterstuetzung von DX11 und sogar noch OpenGL seitens nVidia noch gebremst hat aufgrund von Architekturvorteilen eigener GPUs bei High Level APIs gegenueber denen der Konkurrenz.
So, und die Moral aus meiner " Geschicht' " ist, dass RT-Raytracing zwar schoen und gut (und m.E. ein Teil der Zukunft bei GPUs) ist, aber noch sehr lange davon entfernt ist eben den Mehrwert zu bieten, der den gemeinen Kunden (nicht eine Handvoll Early Adopter, HardCore nVidianer und Hobby-Enthusiasten) dazu veranlasst die Technik zu honorieren und vordergruendig dafuer dann eben aufgrund eines ausreichenden Mehrwerts mehr Geld dafuer auszugeben.
Momentan ist "RT-Raytracing" nicht viel mehr als ein Marketing-Buzzword, fuer welches nVidia glaubt ein Anrecht darauf zu haben, sich fuerstlich (im Vergleich zu den Pascal Vorgaengern) fuer die noch zu unausgogerenen RTX Turing GPUs entlohnen zu lassen, auch wenn da - PhysX aehnlich - bisher wenig dabei herumkommt und es zu versanden drohen wuerde, wenn nicht AMD (und spaeter Intel) sich eben nVidia nicht bei der RT-Raytracing Umsetzung/Unterstuetzung via DXR anschliessen (was den kleinen aber ausschlaggebenden Unterschied zu PhysX ausmachen koennte in Sachen Entwicklungsgang).
Was mich ebenso wie die rapide gestiegenden GPU-Preise bei nVidia durch RTX Turing beunruhigt, sind die
in einem Interview mit dem MSI CEO Chiang auf Tom's Hardware mitgeteilten Neuigkeiten zur Aufstellung von AMD als Premium-Unternehmen mit entsprechend angesetzten Preispunkten.
Chiang also says that AMD is changing its marketing strategy to focus on being a premium brand, as opposed to being the value alternative.
Der Artikel bezieht sich vorwiegend auf die zu erwartenden deutlich erhoehten Preise bei X570 PCIe4.0 Mainboards (selbst bei Einsteigermodellen) im Vergleich zu vorherigen X470 Mainboards, auch wegen AMD-eigener Technik (anstelle von ASMedia).
AMD used an ASMedia chipset for its previous-gen motherboards, but the company now produces its own silicon for the task. Chiang told us that, while pricing isn't final, it appears that AMD could increase the cost of the chipset itself significantly. "But you know, [it is] still in the discussion. It's not finalized yet, but it appears that [we] will have a price gap between X570 and X470."
So far we know of only one announced X570 board with passive chipset cooling,
Gigabyte's top-end X570 Aorus Xtreme. Like other vendors we saw at the show, MSI is also beefing up its power circuitry with more phases, which ultimately requires more cooling and adds another layer of cost to the equation.
"So, technology-wise the cost will be higher because of that. And then from the market strategy-wise, AMD also want to put that in higher segmentation.
Damit koennten auch deutlich hoehere Preise von GPUs (Navi und anderen kuenftigen RDNA-GPUs) sowie CPUs in Baelde folgen, denn das wird erst der Anfang sein und die Kundschaft wird sich wohl leider generell auf deutlich hoehere PC-Hardware Preise in vielen Bereichen einstellen muessen (evt. auch bei den Konsolen im kommenden Jahr, wobei trotzdem von einem weiteren abwandern zu Konsolen hin und weg von Gaming-PCs demnach auszugehen sein duerfte).
Inwiefern die X570 Boards bzw. PCIe4.0 fuer die meisten Kunden einen spuerbaren Vorteil/Mehrwert gegenueber den X470 Boards bieten wird, bleibt abzuwarten.