News Microsoft: DirectX 12 erhält Raytracing-API DXR für Hybrid-Rendering

PC Gaming muß einfach bezahlbar bleiben. Ich werde den Teufel tun und viel Geld für eine Mittelklasse GPU auf den Tisch legen.
Die Spielehersteller müssen einfach sparsamer mit den Ressourcen umgehen und trotzdem eine gute Grafik auf den Monitor zaubern, damit der Zwang nach mehr Leistung aufhört.
 
duskstalker schrieb:
nein, du siehst eine neue generation an nvidia gpus, die ab diesem zeitpunkt massiv auf tessellation getrimmt sind.
Nicht nein, wie ich schrieb eine andere Architektur als andere GPUs, ist ja kein Widerspruch.


duskstalker schrieb:
mein vorwurf ist, dass die pro nvidia optimierten spiele tessellation auf so eine weise ansprechen, die auf radeon karten nicht wirklich funktionell ist, bildlich gesprochen
Nein, du meinst da die hohen Tesselationsfaktoren, die AMD Karten einfach nicht so gut können. Das funktioniert auf AMD Karten genauso, nur halt ist der Tesselator der AMDs langsamer. Das ist aber auch bekannt und per se nix schlimmes. Da kann AMD sich ja entscheiden die Einheit zu verstärken oder auch nicht (wenn die Effekte sowieso nichts bringen, warum auch nicht, es spricht nichts dagegen die ohnehin unnnötigen Effekte einfach abzuschalten, das geht ja), das ist keine Benachteiligung.

duskstalker schrieb:
folgende gameworkseffekte basieren auf (=sind) tessellation:
Falsch, basieren != sind. Alle Effekte so ziemlich jeden Spiels basieren auf DX, sie sind es aber nicht. Sie können Tesselation verwenden, das ändert aber nichts daran, dass die gleich ist bei AMD und NVIDIA, nur halt die NIVIDIA-HW größere Faktoren schneller kann.

Gameworks bitte nicht mit Tesselation gleichsetzen, nur weil es (UNTER ANDEREM!) Tesselation verwendet!

duskstalker schrieb:
sobald eine amd karte im system war, ließ sich physx nicht mehr hardwarebeschleunigen - reines software lock.
Das ist nun mal die proprietäre Technik, aber wie vorher: nichts vermischen, Tesselation kann grundsätzlich jede HW und da ist nichts proprietär (außer DX selbst), PhysX ist natürlich schon proprietär.
 
Raytracing ist der nächste Notwendige Schritt zur "realistischen" Grafik. Die Lichtstreuung/Beleuchtung ist auch bei den besten Engines noch Käse und entlarvt schnell alles als virtuell.
 
Ich stelle mir gerade die spielerischen Möglichkeiten von Raytracing vor... Next-Level von Awareness Shootern, das stinkalte Counter Strike hat ausgedient und stattdessen hängen in der Spielwelt Spiegel und sonstige reflektierende Gegenstände rum die die Positionen von Gegnern verraten - wie würde ich das feiern.

Aber dann muss ich leider an die Realität denken wo stumpfe, nichts könnende Activision und EA Titel sich besser verkaufen als tolle Ideen und anständige Gründe diese Techniken zu nutzen....:skull_alt:
 
Wisst ihr noch wie man uns mit DX 12 und Windows 10, 40% mehr FPS versprochen hat ?

Ich habe Windows 7 mit Intel 8700K installiert und bin zufrieden.
 
Cool Master schrieb:
Hmm... Was lange währt wird endlich gut?

Raytracing ist ja nicht umbedingt neu. Ich bin mal gespannt ob es diesmal was wird oder ob es auch nur wieder viel Gelaber um nichts ist. Vor allem bin ich gespannt wie sich das auf die Leistung der modernen GPUs auswirken wird.
Raytracing und gelaber um nichts :D? Raytracing ist seit Jahrzehnten(!) großflächig im Einsatz. In Spielen war es bisher nicht praktikabel, da durch die enorme Rekursivität die Hardware nicht im Stande war dort spielbare FPS rauszubekommen. In (gerenderten) Filmen ist Raytracing seit eh und je im Einsatz. Als älteres und bekannteres Beispiel kann man hier sicherlich Herr der Ringe anführen. Der Algorithmus entstand übrigens in den 60ern. 1963 gab es das erste mit Raytracing gerenderte Bild.
 
Wenn nvidia sich jetzt mit seinen Hausstandards auch noch in DirectX breit macht schaffen sie auf Dauer das was schon so oft heraufbeschworen wurde, nämlich dass das PC Gaming aufgrund mangelnden Wettbewerbs endgültig seine Relevanz verliert.
Von den bevorstehenden Hardware Preisen aufgrund der fortschreitenden Monopolisierung ganz zu schweigen.

Bleibt nur zu hoffen das nun endgültig mehr Spiele Schmieden auf den Vulkan Zug aufspringen und sich Spiele verstärkt in der Linux Welt breit machen.
 
das kann ich ja leiden - einfach mal überall widersprechen um des widersprechens willen.

SOWJETBÄR schrieb:
Nicht nein, wie ich schrieb eine andere Architektur als andere GPUs, ist ja kein Widerspruch.

du bist also der meinung, dass nvidia fermi eine "ausnahmearchitektur" war? meine aussage war, dass ab fermi nvidia gpus (architekturen) auf extreme tessellationsworkloads ausgelegt wurden.

du hast das verneint mit der aussage, dass fermi eine andere architektur als andere gpus hat.

ich mein natürlich sind architekturen von generation von generation unterschiedlich, aber die grundlegende ausrichtung von nvidia architekturen ab fermi folgt dem selben schema.

The Kepler Architecture: Fermi Distilled
https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/2


Since Fermi NVIDIA has a similar principle architecture.
https://developer.nvidia.com/content/life-triangle-nvidias-logical-pipeline


Tessellation is a GPU-bound item. Modern architectures – Fermi, Kepler, and Maxwell included – include dedicated tessellation units that allow for independent processing of tessellated objects. Impact on hardware will depend based on the game, engine, and implementation of tessellation.
https://www.gamersnexus.net/guides/1936-what-is-tessellation-game-graphics


PolyMorph Engine 3.0
Tessellation was one of DirectX 11’s key features and will play a bigger role in the future as the next generation of games are designed to use more tessellation [Schöne Kristallkugel an der Stelle - die müssen sich ja ziemlich sicher sein, dass mehr Tessellation eingesetzt wird:rolleyes:]. With the addition of more SMs in GM204, GTX 980 also benefits from 2x the Polymorph Engines, compared to GTX 680. As a result, performance on geometry heavy workloads is roughly doubled, and due to architectural improvements within the PE, can achieve up to 3x performance improvement with high tessellation expansion factors.
http://international.download.nvidi...nal/pdfs/GeForce_GTX_980_Whitepaper_FINAL.PDF


und dann letztendlich pascal als "maxwell refresh":

In a by-the-numbers comparison then, Pascal does not bring any notable changes in throughput relative to Maxwell. CUDA cores, texture units, PolyMorph Engines, Raster Engines, and ROPs all have identical theoretical throughput-per-clock as compared to Maxwell. So on a clock-for-clock, unit-for-unit basis, Pascal is not any faster on paper
https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/4


können wir uns jetzt also darauf einigen, dass nvidia an der grundlegenden ausrichtung seit fermi nichts mehr geändert hat und der hardwarefokus auf tessellation nach wie vor gegeben ist, bspw. mit jeder generation noch weiter ausgebaut wurde?

fermi ist weder ein ausreißer noch eine komplett eigenständige architektur, sondern viel eher die basisarchitektur für alle folgenden architekturen.

SOWJETBÄR schrieb:
Nein, du meinst da die hohen Tesselationsfaktoren, die AMD Karten einfach nicht so gut können.

nein, meine ich nicht. "einfach nicht so gut können" ist in so einem komplexen gebiet eine gefährliche pauschalisierung, die du nicht belegen kannst.

ich will damit nicht sagen, dass die absurde menge an polys, die tessellation nach nvidias vorbild generiert (sub pixel tessellation), nicht das hauptproblem ist - das ist nämlich definitiv der fall - aber es ist nicht von der hand zu weisen, dass nvidia mit tessellationseinheiten bzw. später "polymorph engines" ein extrem spezialisiertes gegenstück zum "softwarebaustein tessellation" hat. wenn dann noch gameworks dazukommt, das großteils auf tessellation basiert, wird klar, dass hier zwei puzzlestücke ineinandergreifen.

und bei ineinandergreifen wirds interessant.

der scheduler von amd und nvidia unter DX11 funktioniert grundlegend anders.

amd nutzt einen hardwarescheduler, der direkt von der software angesprochen werden muss, was bei DX11 im regelfall nicht wirklich gut funktioniert ("auslastungsprobleme") - hier liegt der fokus ganz klar auf direkter ansprache durch low level apis wie dx12 oder vulkan. amd karten werden unter low level apis nicht "schneller", hier fällt lediglich das bottleneck durch DX11 weg.

dass DX11 auf amd trotzdem sehr performant sein kann (wenn richtig umgesetzt) sieht man an star wars battlefront 2, ist aber absolut nicht der regelfall.

nvidia arbeitet mit ihrem treiber mit einem extrem aufwendigen software scheduler (tolle ingenieursleistung an der stelle), d.h. der nvidia treiber sammelt die ganzen aufgaben, die für die gpu anfallen und füttert die gpu entsprechend. das produziert einen overhead unter dx12, weil hier der software scheduler nvidia im weg steht - daher schneiden nvidia gpus mit ryzen cpus unter dx12 schlechter ab.

weil gameworks mit dem nvidia treiber kommuniziert, kann man davon ausgehen, dass die tessellationseinheiten von geforce karten optimal gefüttert werden.

das ist bei amd mit dem hardware scheduler + nvidia optimiertem dx11 gameworks spiel schonmal ziemlich sicher nicht der fall.

amd wäre mit einem angepassten software scheduler, wie nvidia ihn hat, sicherlicher auch besser dran, aber das ist wohl eher eine budgetfrage als alles andere.

SOWJETBÄR schrieb:
Das funktioniert auf AMD Karten genauso, nur halt ist der Tesselator der AMDs langsamer. Das ist aber auch bekannt und per se nix schlimmes.

zwischen amd und nvidia gibts im gegensatz zu fermi -> pascal dramatische unterschiede in der architektur, ausrichtung und funktionsweise. zu sagen "amd ist langsamer" ist zwar letztendlich nicht falsch, aber auch zu kurz gegriffen.

wir sehen bei nvidia einen extremen fokus auf tessellation, der tief in der architektur verankert ist - man könnte fast von überzüchtet und "komplett übertrieben" sprechen - dann kommt noch die verzahnung mit gameworks dazu.

man kann mit ziemlicher sicherheit davon ausgehen, dass "funktioniert auf amd genau so" eine falsche aussage ist.

amd tessellation.jpg

wir sehen in der präsentation zu GCN (Hawaii), dass die gesamte pipeline von amd grundlegend anders aufgebaut ist - während nvidia hardware darauf ausgelegt ist komplett abstruse tessellationsfaktoren (sub pixel tessellation) zu berechnen (abermillionen polygone), "verstopft" bei amd übermäßige tessellation die pipeline. zufall, dass bei the witcher 3 hairworks mit tess level 64 läuft? :rolleyes:

SOWJETBÄR schrieb:
Da kann AMD sich ja entscheiden die Einheit zu verstärken oder auch nicht (wenn die Effekte sowieso nichts bringen, warum auch nicht, es spricht nichts dagegen die ohnehin unnnötigen Effekte einfach abzuschalten, das geht ja), das ist keine Benachteiligung.

ohne eine komplett andere architektur, die genau so auf tessellation spezialisiert ist wie die von nvidia, gibts einfach irgendwo ne grenze. GCN ist nicht für solche tessellationsexzesse ausgelegt - und das ist auch eigentlich richtig so. dieser missbrauch von tessellation kommt einzig und alleine von nvidia - das hat nichts mit effizientem game-design zu tun, das ist einfach nur ressourcenverschwendung. für einen "normalen" gebrauch von tessellation reicht die tessellationsleistung von radeon karten absolut aus.

die benachteiligung daraus entsteht, wenn man tessellation nicht abschalten kann, oder mit vollem tessellationslevel gebencht wird (wie bei CB).

nvidia ist alles egal, solange sie über tessellationsleistung / gameworks alte karten bei bedarf ausknipsen können ("keplered") und in benchmarks nach "the way its meant to be played (gimped)" ablaufen.

die techpresse könnte hergehen und amd karten mit limiterter tessellation testen, stattdessen wird nvidia mit vollem tessellationslevel voll in die karten gespielt - was ich angesichts des missbrauchs regelrecht zum kotzen finde.

niemand profitiert von einem tessellationslevel von >8x, weil das alles sinnlose sub pixel tessellation ist. d.h. die 3D mesh segmente haben ne höhere dichte als die pixel/auflösung in der gerendert wird - das ist einfach nur bescheuert.

SOWJETBÄR schrieb:
Falsch, basieren != sind.

ist toast hawaii also kein toast? natürlich sind tessellationsbasierte effekte tessellation. waveworks ist genau das selbe wie hairworks, ist genau das selbe wie turf - die unterscheidung ist reines marketing. alles basiert auf dem dynamischen anpassen von geometrie und deren komplexität.

SOWJETBÄR schrieb:
Alle Effekte so ziemlich jeden Spiels basieren auf DX, sie sind es aber nicht.

was soll das bedeuten?

SOWJETBÄR schrieb:
Sie können Tesselation verwenden, das ändert aber nichts daran, dass die gleich ist bei AMD und NVIDIA, nur halt die NIVIDIA-HW größere Faktoren schneller kann.

es ist nicht nur die hardware, es ist auch die software. wenn nvidia durch speziell darauf ausgerichtete hardware die eigenen (!) effekte schneller berechnen kann, ist das für mich eine form von (legitimer) vorteilsnahme.

das wäre also alles halb so schlimm, wenn man amd karten mit der amd tesellationstreiberoptimierung benchen würde - was aber nicht der fall ist. man gewährt nvidia auf der einen seite die kompletten vorteile aus ihrem eigenen ökosystem, zwingt aber amd, durch den gezwungenen verzicht auf ihre tessellationsoptimierung, auf der anderen seite in eine unfaire situation, die von nvidia genau so vorgesehen ist.

niemand, der die wahl hat, spielt mit nativen tessellationsfaktoren - optischer gewinn gleich null bei exorbitanten performanceeinbrüchen. im prinzip sollte man nvidia im eigenen sud kochen und amd ihre architektur vorm tessellationswahnsinn schützen lassen. man lässt stattdessen amd im nvidia sud kochen, indem man bewusst nvidias "Ddos" auf die renderpipeline von GCN gutheißt - alles für einen "fairen" benchmarkvergleich, weil die karten "das selbe" berechnen. :rolleyes::freak:

wie man das als "unabhängiger" technikredakteur rechtfertigen kann ist für mich unverständlich.
 
ja vieles is unfair, ... aber AMD kann ja gern auch selbst mal vorlegen und eine gesalzene Techdemo samt API zeigen. Da hat man ja alle Karten auf der Hand und kann die eigene Architektur voll ausfahren.

Man muss ja nur mal das mit dem vergleichen...

Klar hängt dahinter ein anderes Budget für Marketing aber Nvidia klotzt und AMD liefert irgendwas in der Theorie tolles, was aber nie praxisnah eingesetzt wird. Deswegen meinte ich dass AMD auch mal da pushen muss wo es lohnt, zb im CAD mit Vulkan um schnell und einfach OpenCL abzulösen. Oder eben bei den ganzen Realtime Renderen. Da lässt sich mit ner vernünftigen eigenen API die vielleicht tolle Vega HW mit neuen Shadern und allem viel schneller gut auslasten als wenn man auf Gaming publisher wartet.

Weiß auch nicht, AMD hat irgendwie den Absprung verpasst. Nvidia hat auf GPGPU gesetzt als der Markt bei der HD5XXX Serie 50/50 war (war er) und seither versucht AMD mit ihren FatDie + GCN Chips nachzuziehen, hechelt bei dem Markt hinterher und hat dafür ihre kleinen effizienten lightweight Die geopfert. Nun hat Nvidia die Ressourcen 2 gleisig zu fahren, Gaming Chips und sowas wie Volta für HPC während AMD versucht beides zu erschlagen.

Man kann über die Lederjacke sagen was man will, aber die Strategie ging auf. Man bindet früh Kunden an Innovationen, so wie zb nun im Automobilsegment. Da kann AMD oder die Konkurrenz danach bringen was sie will, so schnell wechselt man nicht mehr von der Nvidia Car Plattform auf eine andere, nicht wegen der HW, sondern der Software und der Enwicklungsumgebung dahinter.

Der Zug ist vermutlich schon abgefahren. Dadurch dass Nvidia zwischenzeitlich so perverse Margen fährt kann AMD kaum noch das Ruder rumreißen. Die Zyklen werden mangels Budget immer länger, die Marge wegen Wettbewerb kleiner (da Nvidia den längeren Preishebel hat). Und Kunden binden sich immer mehr an NV.

Es muss schon was kommen was ein Gamechanger wäre, sowas wie zb exklusive frühe überragende 7nm für AMD an die kein anderer Prozess rankommt, oder eben eine neue GPU Architektur die Nvidia alt aussehen lässt. Bezweifle das aber schon sehr. Viel eher lassen Nvidia und Intel nicht zu dass AMD komplett unter geht. Bei 60% Marge von Nvidia könnte man von heute locker AMD im GPU Segment ausbluten lassen. Auf lange Sicht schadet sich Nvidia aber damit selbst. Lieber hält man AMD irgendwo bei 20%. heißt nicht dass sich AMD doof anstellt, aber Nvidia nun mal oft smarter.
 
Zuletzt bearbeitet:
als ob der erfolg von vulkan oder tressFX von einem protzigen youtube video abhängen würde.

viel eher liegt bei dem zuständigen entscheider irgendwann mal n dicker check von microsoft oder nvidia auf dem tisch und die sache ist geritzt.

zumal derzeit amd weniger als 8% marktanteile hat - etwas anderes als nvidia zu bevorzugen wäre selbstverletzendes verhalten. der zug für "amd support" ist abgefahren.
 
Nur wirst du keine NV Konsole sehen außer der Switch da keine x86 Lizenz.

Deswegen Gaming ist auf Konsolen immer noch stärker und am steigen bei PC gehen langsam die lichter aus.

Des weiteren hat PCGH jetzt gesagt die Techdemos zum DRX wurden auf vier Volta Titan gemacht, echt super 3000€ x4 zum zocken läuft da kann ich viele PS4/Xbox X kaufen.
 
@Krautmaster
Die sollen schon wieder ne neue API bauen und warum sollte Vulkan OpenCL ablösen? :freak:
Mit deren begrenzten Mitteln haben sie bereits erstaunlich viel auf den Markt gebracht.
Ein wichtiger Grund für nvidas aufstieg ist wohl eher dass sie den Endkunden mit dem ganzen propertiären Mist in Geiselhaft genommen haben. Er soll es sich ganz einfach 2x überlegen ob er den teuer erkauften Kram aufgibt um zur Konkurrenz zu gehen und nachdem sie die kritische Masse erreicht haben setzen sie das Spiel nun bei den Karten Herstellern fort und nisten sich auch noch bei der API selbst ein.
 
Krautmaster schrieb:
Weiß auch nicht, AMD hat irgendwie den Absprung verpasst. Nvidia hat auf GPGPU gesetzt als der Markt bei der HD5XXX Serie 50/50 war (war er) und seither versucht AMD mit ihren FatDie + GCN Chips nachzuziehen, hechelt bei dem Markt hinterher und hat dafür ihre kleinen effizienten lightweight Die geopfert.

nvidia hat aber amd im gaming markt nicht verdrängt, weil jeder auf einmal nvidia gpgpu für alles mögliche außer gaming wollte, sondern weil die erste gaming kepler generation komplett durch die decke gehypt wurde. jeder wollte ne kepler karte.

es war fast so, als ob man sich an konkurrenzfähigen ati/amd karten sattgesehen hatte oder man hat sich nur ne ati karte gekauft um fermi zu überspringen. und von da an gings mit amd nurnoch bergab - sogar der titan killer 290x zum absoluten kampfpreis konnte nichts mehr dran ändern, dass die marktanteile einfach nur noch richtung keller gingen. die erste gpu, die da dran etwas ändern konnte, war polaris. und ausgerechnet der heilsbringer wird komplett von minern geschluckt.

Krautmaster schrieb:
Der Zug ist vermutlich schon abgefahren. Dadurch dass Nvidia zwischenzeitlich so perverse Margen fährt kann AMD kaum noch das Ruder rumreißen. Die Zyklen werden mangels Budget immer länger, die Marge wegen Wettbewerb kleiner (da Nvidia den längeren Preishebel hat). Und Kunden binden sich immer mehr an NV.

ja, der zug ist definitiv abgefahren. nvidia hat alleine schon durch die günstigere hardware und größere stückzahlen größere chargen - jetzt komm noch dazu, dass nvidia praktisch ohne bestrafung die preise erhöhen kann.
das wirklich tragische sind aber nicht die langen entwicklungszyklen, denn da kann ja theoretisch trotzdem was gutes rauskommen, das problem ist der absolut kranke mindshare und die marktmacht von nvidia. bei pcgh gibts immernoch leute, die GPP verteidigen und als "toll" und "nvidias gutes recht als marktführer" ansehen, weil man will ja nicht mit minderwertigen und billigen radeon karten die marke teilen, absolut verständlich :freak:

nvidia hat sich eine meute an militanten konsumzombies herangezüchtet, die für mich noch radikaler erscheinen als bspw. die leute, die ne woche vor apple stores campen.

die vorherrschende ansicht ist, dass die performance von amd karten in nvidia gameworks spielen die "echte" performance von amd karten ist - und spiele, in denen radeons mal "gut" laufen, wie doom oder wolfenstein, dirt, Battlefront 2 sind cherrypicked amd benchmarks, die nicht die reale leistung von amd karten zeigen, sondern hier auf magische weise irgendwie fps generiert werden oder nvidia ausgebremst wird. und das ist die unangefochtene "wahrheit" - jeder der was anderes behauptet ist n amd fanboy.

benchmarks, die genau das beweisen, die höhere theoretische rechenleistung in Tflops und die logik, dass radeon karten nicht aus luft und liebe fps herzaubern, sondern dafür offensichtlich die rechenleistung und fähigkeit vorhanden ist, wird komplett ausgeblendet. man kann nur viel leistung in wenig fps umsetzen, und nicht wenig leistung in viel fps - aber genau das ist ja der tenor, wenn mal wieder ein auch auf amd optimiertes spiel gebencht wird.

Krautmaster schrieb:
Es muss schon was kommen was ein Gamechanger wäre, sowas wie zb exklusive frühe überragende 7nm für AMD an die kein anderer Prozess rankommt, oder eben eine neue GPU Architektur die Nvidia alt aussehen lässt. Bezweifle das aber schon sehr.

der gamechanger wird definitiv nicht kommen. der prozess oder die architektur kann die beste der welt sein, solange der pc eine "nvidia konsole" ist. mit jedem gameworks spiel zieht sich die schlinge enger zu. CB hat mit dem alten parkours auch einen guten beitrag dazu geleistet - der war nämlich extrem nvidia biased mit 2/3 gameworks spielen.

Krautmaster schrieb:
Lieber hält man AMD irgendwo bei 20%. heißt nicht dass sich AMD doof anstellt, aber Nvidia nun mal oft smarter.

amd ist derzeit weit unter 20% - steam und oculus sehen amd gpus bei gaming rechnern bei ~8%.

nvidia ist n harter brocken - zu der smartness kommt aber definitiv noch n dicker haufen dreck zum werfen.
 
Zuletzt bearbeitet:
@Wadenbeisser

Wer sagt dass Vulkan abgelöst werden sollte? Ich sagte nur dass AMD vielleicht den wenigen großen CAD Playern dabei helfen kann sollte ihre alten OpenCL Engines auf das Moderne Vulkan zu heben, ggf mit nem Gameworks Pendant für Business. Zb diesen Prorenderer da.

Aktuell setzt nämlich auch da so gut wie jeder Quadro ein die vollkommen überteuert daherkommen.

Ggf auch sowas wie nen Nuc Pendant als Mini Workstation mit Raven Ridge aus einer Hand. Da kann weder Intel noch NVIDIA richtig gegen an, vor allem nicht wenn der Raven Ridge dank Vulkan dann so schnell is wie ne 700 Euro Quadro.

Die Situation Im Gaming Markt ist schon fast so verfahren dass es sich für AMD kaum lohnen dürfe da mit Gewalt gegenzusteuern. Vielleicht eher versuchen lukrative Nischen mit mehr Marge finden...
Zb die Gaming Konsole für Business um gemeinsam VR Showroom zu machen. Als appliance Lösung gekoppelt an diverse CAD Formate. Als einfache "Fertig Lösung".

Iwas was 5000 Euro kostet und sich dann zb jedes Autohändler zulegen kann hrhr, die Konsolen Chips hat man ja schon bzw braucht sie ggf mit Zen Kernen eh bald.
 
Zuletzt bearbeitet:
duskstalker schrieb:
als ob der erfolg von vulkan oder tressFX von einem protzigen youtube video abhängen würde.

viel eher liegt bei dem zuständigen entscheider irgendwann mal n dicker check von microsoft oder nvidia auf dem tisch und die sache ist geritzt.

Man braucht keine Kunden zu bestechen, wenn auf einer Seite ausgereifte APIs mit Unterstützung von Entwicklern stehen und auf der anderen Seite nur ein "Do-it-yourself" Baukasten verfügbar ist, mit so gut wie keiner Unterstützung.

Es ist Quatsch immer von einem unlauteren Wettbewerb auszugehen. AMD hatte vor ein paar Jahren vieles in der Hand und mit Mantle eine eigene API, die man mit etwas Geschick auf die Konsolen übertragen hätte können und mit GPUOpen eine Konkurrenz zu Gameworks. Beides hat man aber aus der Hand gegeben und stattdessen auf Open Source gesetzt.

Open Source ist aber kein Selbstläufer wenn niemand solche Projekte anführt und vorantreibt. So ist die Unterstützung von Vulkan nun genauso rar, wie die von GPUOpen und wenn niemand die Schnittstellen nutzt verschwinden sie auch irgendwann in der Versenkung.

Durch Mining kam noch ein zusätzliches Problem dazu. Die Marktanteile von AMD sind im Gaming Sektor auf eine einstellige Zahl gesunken, da wird sich erst recht niemand mehr finden, der auf offene aber eingestaubte Schnittstellen setzt und diese selbst weiter entwickelt. Wozu auch?
 
Zuletzt bearbeitet:
Wie gesagt der Gaming PC ist tot dass weiß auch NV oder vielleicht auch nicht und genau deswegen haben sie mit der Switch einen spalt in der Tür gelassen.

Der nächste witz ist dass NV professionelle Karten alle ungenau arbeiten, aber mal schön unter den Tisch kehren läuft NV ist was dreck angeht schlimmer als Intel.
 
@Krautmaster
Ich zitiere:
Deswegen meinte ich dass AMD auch mal da pushen muss wo es lohnt, zb im CAD mit Vulkan um schnell und einfach OpenCL abzulösen.

OpenCL = GPGPU
OpenGL/Vulkan = Rendern

Vulkan und DX12 können in erster Linie auch nur deutliche Leistungssteigerungen liefern wenn die CPU, z.B. durch eine lausige Lasutverteilung auf die Kerne, zur Bremse wird oder meinetwegen der Shader Code so mies ist das größere Lücken bei der Abarbeitung entstehen. (async compute)
An die Grafik Features kann man auch mit DX11 oder OpenGL nutzen.
 
Da gab es auch Möglichkeiten mehr zu nutzen, nur macht sich bei Spielen keiner die Mühe die Möglichkeiten auszureizen. Das ist anderen Preisklassen vorbehalten.
OpenGL ist ein gutes Beispiel für den Spruch "viele Köche verderben den Brei". Da stecken zu viele Interessen aus zu vielen Anwendungsgebieten drin und da ist die Daddelei eines der unwichtigsten und fällt bei der Weiterentwicklung hinten runter.
Genau dafür ist Vulkan eine gute Alternative.
 
Wadenbeisser schrieb:
OpenGL ist ein gutes Beispiel für den Spruch "viele Köche verderben den Brei". Da stecken zu viele Interessen aus zu vielen Anwendungsgebieten drin und da ist die Daddelei eines der unwichtigsten und fällt bei der Weiterentwicklung hinten runter.
Genau dafür ist Vulkan eine gute Alternative.

Das Problem dabei ist nur, dass Vulkan in den Händen der gleichen Leute liegt, die mit OpenGL auf der Stelle treten und das "Kochproblem" ist gleich geblieben.
 
Zuletzt bearbeitet:
Zurück
Oben