News Quartalszahlen: Nvidia dank GeForce über den Erwartungen

Wadenbeisser schrieb:
[...]Da von MS dafür auch keine entsprechenden Vorgaben für die Umsetzung in der Hardware kamen kann AMDs Umsetzung auch komplett anders aussehen.
Meinem Kenntnisstand nach gibt es zwei Schnittstellen. DXR von Microsoft. Diese Schnittstelle ist universell und steht jedem offen, der Raytracing verwenden will. Sie ist ein Teil von direct x12 und steht jedem Offen. Jeder, er will, kann diese in seinem Treiber verwenden.
Und es gibt eine proprietäre Schnittstelle von nVidia, die aber eher von Raytracing Software im Profibereich verwendet wird. Natürlich können auch Spiele Programmierer darauf zurück greifen, müssen aber nicht.

Die Hardware kann AMD umsetzen, wie sie möchten und auch eigene Standards einbauen, wie nVidia.

Die gemeinsame Basis für Raytracing in Spielen ist und bleibt DXR. Das AMD da nichts zu bieten hat, liegt an der schlechten Raytracing Performance ihrer bisherigen GPUs.

mockli schrieb:
1) Keine Ahnung. Von AMD habe ich auch gar nicht geredet. Schätze/Recherchiere doch die Zahlen selbst.
[...]
Ich zitiere dich selbst:
Ich fand nur die Aussage lächerlich, dass Nvidia die hohe Marge in Entwicklung neuer Gaming Karten steckt. Es ist nur ein recht kleiner Teil, der dort investiert wird.
Mit anderen Worten, du kennst die Zahlen nicht und reagierst patzig, wenn man nach fragt. "Ein kleiner Teil" ist eine relative Aussage, die nur Sinn ergibt, wenn man sie mit den Ausgaben anderer Konzerne in der Branche vergleicht. Im Vergleich zu anderen könnte es auch ein großer Teil sein.
 
Zuletzt bearbeitet von einem Moderator:
Draguspy schrieb:
Mit anderen Worten, Raytracing ist nur die Zukunft, wenn nicht von nVidia? Was hindert AMD denn daran, DXR in seinen Treibern frei zu schalten?
Das es nicht nur um eine simple Freischaltung sondern auch um die Entwicklung des dafür erforderlichen Software Unterbaus geht, der Fokus bei der Entwicklung aber derzeit bei den CPUs liegt?
 
Wadenbeisser schrieb:
Das es nicht nur um eine simple Freischaltung sondern auch um die Entwicklung des dafür erforderlichen Software Unterbaus geht, der Fokus bei der Entwicklung aber derzeit bei den CPUs liegt?
Ich hatte mich auf diese Aussage bezogen:
Nvidias Raytracing Ansatz haben sie selbst entwickelt zund zusammen mit MS die entsprechende API auf den Weg gebracht. Somit ist es herzlich wenig verwunderlich wenn andere Hersteller so schnell keine entsprechende Hardware Unterstützung liefern denn die dafür erforderliche Architektur entwuckelt man nicht von jetzt auf gleich.
Sie legt nahe, AMD hätte keine Hardwareunterstützung entwickeln können, weil sie nicht Teil des Projektes waren. Das stimmt aber nicht. Es bringt schlechte PR DXR frei zu schalten, wenn die beste am Markt befindliche GPU von AMD die Raytracing Performance einer rx 5700 xt hat. Man würde damit lediglich zeigen, wie weit man selbst hinter einer rtx 2060 im Raytracing zurückliegt. Deshalb hat man angekündigt, bei der folgenden High-End Karte eben auch hardwareunterstütztes Raytracing einzuführen und dann wird man auch DXR freischalten.

Unabhängig davon hat man den Focus bei AMD derzeit auf CPUs.
 
  • Gefällt mir
Reaktionen: Laphonso
Offensichtlich haben die vielen AMD Jünger in den Foren recht behalten, die GeForce RTX Serie ist der Reinfall und verkauft sich schlecht :daumen:
 
  • Gefällt mir
Reaktionen: highwind01
@Draguspy
Können schon nur dauert es eben seine Zeit sowas zu entwickeln.
Da hier offenbar im Gegensatz zu DirectX nicht Microsoft die Vorgaben machte welche die Hardware Hersteller dann entsprechend umsetzen müssen sondern sie lediglich die Schnittstelle für DX12 zur Verfügung stellten hat nvidia ganz einfach einen erheblichen Zeitvorteil bei der Hardware Entwicklung. Dann muss nämlich nur eine Softwareschnittstelle für die bereits entwickelte Hardware geschaffen werden anstatt Hardware für die Vorgaben einer Schnittstelle. Werden andere Hersteller erst nach der Veröffentlichung des Gesammtergebnis mit einbezogen dann hat ein Hersteller natürlich einen erheblichen zeitvorteil bei seiner Hardware.
Ergänzung ()

SFVogt schrieb:
Offensichtlich haben die vielen AMD Jünger in den Foren recht behalten, die GeForce RTX Serie ist der Reinfall und verkauft sich schlecht :daumen:
Hatten die nicht eher gesagt das überzogene Preise zur Gewinnmaximierung verlangt werden?
 
Wadenbeisser schrieb:
Hatten die nicht eher gesagt das überzogene Preise zur Gewinnmaximierung verlangt werden?
Ja das vermutlich auch und das dadurch sich die RTX Serie schlecht verkauft. Die armen müssen jetzt aber ne bittere Pille schlucken...
 
Wadenbeisser schrieb:
Was man aber bei dir recht gut sieht ist wie man bei Herstellern einen regelrechten Tunnelblick bekommen und dabei Entwicklungen abseits dessen Produktpalette ignorieren kann.
Ich bin sogar total leicht zu beeindrucken von gfx settings und max fps und schiebe dann das Geld rüber. Das mache ich seit fast 30 Jahren. Sobald AMD 1-2 Jahren das Enthusiastensegment (was sie seit einem halben Jahrzehnt nicht bedienen) mit den Performacne und Features attackiert, werden sie wieder Teil der Auswahl.

Gibt halt mehr als genug Bekloppte, die kaufen nach Gaming fps. ;)

Aber die werden niemals Mainstream.
 
Wadenbeisser schrieb:
@Draguspy
Können schon nur dauert es eben seine Zeit sowas zu entwickeln.
Da hier offenbar im Gegensatz zu DirectX nicht Microsoft die Vorgaben machte welche die Hardware Hersteller dann entsprechend umsetzen müssen sondern sie lediglich die Schnittstelle für DX12 zur Verfügung stellten hat nvidia ganz einfach einen erheblichen Zeitvorteil bei der Hardware Entwicklung. Dann muss nämlich nur eine Softwareschnittstelle für die bereits entwickelte Hardware geschaffen werden anstatt Hardware für die Vorgaben einer Schnittstelle. Werden andere Hersteller erst nach der Veröffentlichung des Gesammtergebnis mit einbezogen dann hat ein Hersteller natürlich einen erheblichen zeitvorteil bei seiner Hardware.
Ergänzung ()
Die Details kann ich nicht einschätzen, da fehlt mir das Wissen im Bereich Informatik. AMD ist bisher im Raytracing Bereich dadurch aufgefallen, das sie Raytracing Schnittstellen generell schlecht gepflegt haben. So ist es bei nVidia schon lange normal, das die gaming Treiber eine integrierte Schnittstelle für Cudacores haben, so das Rendersoftware im Hobbybereich diese nutzen kann. Wer mit Blender rendern wollte, musste damals ca. drei Jahre warten, bis die Community betra-Treiber entwickelte, die das auch bei AMD Karten ermöglichten. Da dominiert nun selbstverständlich nVidia, obwohl AMD eine bessere Rohleistung für den Preis hatte. Nur was nutzt die, wenn man nicht drauf zugreifen kann? Der Unterschied war, das AMD dies nur bei HPC-Karten tat, nVidia aber auch für den consumer Bereich. Aus meiner Sicht haben sie daher den Vorsprung, den hat man sich über Jahre am Kunden erarbeitet. AMD hat erst vor kurzem eine Wende vollzogen, als sie merkten, das viele "Kreative" sich keine Profikarten kaufen, sondern bei High-End Gaming von nVidia zugriffen, daher die Titan Serie, neuerdings kauft man auch gerne rtx 2080 ti.
 
SFVogt schrieb:
Offensichtlich haben die vielen AMD Jünger in den Foren recht behalten, die GeForce RTX Serie ist der Reinfall und verkauft sich schlecht :daumen:

Bei Nvidia erklärt man das so:

PCGH schrieb:
Nvidia erklärt, dass für den Umsatz positive Marktentwicklungen derzeit vor allem aus China und mit Notebooks erzielt werden, die aber schon im laufenden Quartal bei Nvidia im Umsatz zu sehen sind, sich aber erst zu Weihnachten an den Endkunden verkaufen. In den Q3-Zahlen steckt also schon ein Stück weit das Weihnachtsgeschäft.
https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/Nvidia-Q3-2019-1337132/

Wie man bei Steam gut sehen kann, hat sich Turing nach 1 1/2 Jahren deutlich schlechter verkauft als noch Pascal oder Maxwell bei den dGPUs. Und da Nvidia laut eigener Aussage besonders gut im Bereich Mobile (Notebooks) wächst, ist dass dann auch wieder konkurrent mit der Steam-Statistik.
 
Laphonso schrieb:
GSync ist ein Traum, RTX bringt sichtbare Facetten an Immersion und Atmosphäre.
Ob das Gimmicks sind oder nicht, entscheidet dann ja der Konsumer- und Gamermarkt.

adaptive sync ist ein traum - gsync ist die nvidia methode, um den markt einer freien technologie zu berauben, und diese als mauer einzusetzen, durchgesetzt mit der marktmacht von nvidia.

nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.

wie adaptive sync vs. gsync. das selbe geht ohne gsync modul, ohne zusatzkosten, ohne nvidia hardware lock. bei nvidia ist das (wie immer) wohl etwas in die hose gegangen und der freie standard hat sich durchgesetzt. weil es nvidia aber hasst, wenn es "nice things" gibt, wird da sofort irgendwas unternommen, um ein "nvidia ding" draus zu machen, das entweder geld oder monopolstellung bringt.

und hier ist sie: die feindliche übernahme von freesync. das ist marketingtechnisch geschickt gemacht, aber eben auch typisch nvidia. anstatt, dass nvidia "adaptive sync" unterstützt, werden auf einmal monitore auf "gsync kompatibilität" geprüft - adaptive sync/freesync heißt jetzt "gsync compatible". fast alle "freesync" monitore werden jetzt nicht mehr mit "freesync" sondern mit "gsync compatible" beworben.

https://www.asus.com/de/Monitors/TUF-Gaming-VG27AQ/ ist ein normaler adaptive sync monitor - also "freesync" - trotzdem ein fettes "gsync" logo vorne drauf und "freesync" wird in keinem wort erwähnt.

es werden auch produkt pages nachträglich angepasst:


es ist hier wichtig das große ganze zu sehen:

https://www.igorslab.media/intel-unterstuetzt-vesa-adaptive-sync/

intel will auch vesa adaptive sync unterstützen. nur bis intel mit den eigenen gpus ums eck kommt, gibts nur noch nvidia gsync (compatible) - und schon kauft man zur intel gpu einen nvidia feature monitor - oder doch lieber direkt eine sicher kompatible nvidia gpu?!

dass es jetzt für amd gpu besitzer ein gutes stück schwieriger geworden ist, einen freesync monitor als solchen auszumachen, kommt ja auch erst noch oben drauf. für den rest der welt, der nicht so tief in der materie steckt, sieht das ganze jetzt allerdings so aus: "freesync gibts nicht mehr, freesync ist tot, adaptive sync for amd ist tot."

eigentlich hat nvidia aber mit gsync gegen freesync/adaptive sync verloren. die adaption von adaptive sync auf dem desktop markt haben nvidia kunden am wenigsten nvidia zu verdanken.

Zero_Point schrieb:
HL2 war lange vor PhysX und kann mit diesem nicht mithalten. 4 Jahre sind es, um genau zu sein.

der kauf von ageia durch nvidia war 2008 - die technologie von ageia wurde von 2004 an entwickelt. hier die tech demo:


dagegen die half life 2 E3 demo aus 2003:


da liegen schon 3 jahre dazwischen, zu gunsten von hl2 (älter).

welchen grund hat nvidia ageia zu kaufen? wie war das weiter oben noch?

nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.

klar - ageia kaufen, die physx funktionen der karten in geforce implementieren, und ati besitzer von physx ausschließen:

https://www.pcgameshardware.de/Graf...pdate-AMD-sagt-Physx-werde-irrelevant-696067/

und gleichzeitig will man auch cpus ausschließen (wir denken wieder an intel) - daher wird für den physx fallback auf eine cpu das instruction set x87 und nicht SSE2 genutzt.

igor hat dazu folgendes zu sagen:
With SSE2 optimizations and good threading management for the CPU, modern quad-core processors would be highly competitive compared to GPU PhysX. Predictably, Nvidia’s interest in this is lackluster.
https://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-9.html

und was ist jetzt aus physx geworden?

es wurde in die eingekaufte unreal engine integriert - insgesamt ist die adaptionsrate außerhalb von software physx außerhalb der unreal engine sehr gering:

https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support

man sieht sehr gut, wie die meisten titel aus der "physx-zeit" stammen - danach hat das feature an relevanz verloren und nur studios mit großer nvidia nähe setzen noch auf hw-physx.

flüssigkeitssimulation in portal 2 in der source engine:

aus 2011.

physx ist irrelevant. totgemolken von nvidia.


gameworks tessellation:

wir erinnern uns nochmal an folgenden leitsatz:

nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.

INCREDIBLY DETAILED VISUALS
Experience an unprecedented level of detail and realism in the latest games. Tessellation- one of the biggest new features of Microsoft DirectX11- helps developers create more detailed characters and terrain in games, bringing you sharper, crisper images and a more realistic experience. GeForce GTX 400 GPUs deliver up to 8x the tessellation performance compared to competition*, bringing your games closer to reality without sacrificing the high frame rates you enjoy.
https://web.archive.org/web/20150318072556/https://www.nvidia.com/object/GTX_400.html

sehr witziges detail auf der seite der 400er serie:

Futuristic Graphics:
Prepare yourself for the future of gaming. GeForce GTX 480 powers interactive raytracing, bringing spectacular, photo-realistic renderings to your screen for the first time. Go ahead, spoil your eyes.

dann schauen wir uns mal das GCN paper von amd über tessellation an:

gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah-61-638.jpg


gs4106-the-amd-gcn-architecture-a-crash-course-by-layla-mah-62-638.jpg


sub pixel tessellation verringert performance? oder sind amd gpus einfach nur schlecht in tessellationsaufgaben?

sicherlich ist zweiteres der fall, oder? hört man ja ständig. aber schauen wir uns das mal genauer an:

DX11 tessellation:

Sniper-Elite-3-Benchmark-Review-Tessellation-FXAA-pcgh.png
https://www.pcgameshardware.de/Snip...ecials/Technikanalyse-und-Benchmarks-1127251/

nvidia hairworks tessellation 64-fach:

hairworks.jpg
https://www.hardwareluxx.de/index.p...d-tressfx-und-nvidia-hairworks-im-detail.html

faktor 64 auf den haaren? das ist doch ultra fein aufgelöst - das sind ja mehrere polygone pro pixel -OHHHH. verstopft das etwa die GCN render pipeline? wie war das noch mit der tessellationsleistung ab der 400er serie?

GeForce GTX 400 GPUs deliver up to 8x the tessellation performance compared to competition*, bringing your games closer to reality without sacrificing the high frame rates you enjoy.


das sind sicherlich nur zufälle, oder?

physx + geforce physx hardware beschleunigung -> schlechte performance für alle anderen

gameworks tessellation + tessellations einheiten in geforce gpus -> schlechte performance für alle anderen

gsync modul + geforce gpu -> teure proprietäre monitore und gekapertes adaptive sync

RTX??????

Laphonso schrieb:
😂 Man kann auch alles wörtlich nehmen. AMD kann jetzt, 13 Monate später, immer noch kein Hardware(Hybrid)Raytracing anbieten.

wie wärs denn damit:

nvidia sucht nach dem nächsten heißen shit nach physx und gameworks als köder für die eigene kundschaft und microsoft braucht dringend ein mittel gegen vulkan, damit man dx12 und damit auch win10 noch weiter in den markt drücken kann?

intel hat sich wohl eher auf vulkan statt auf dx12 eingeschossen:

https://software.intel.com/en-us/articles/practical-approach-to-vulkan-preface

wir erinnern uns an nvidias proaktive maßnahmen gegen intel.

nvidia und microsoft setzen sich zusammen, tüfteln aus dem nichts real time raytracing aus, und schieben das gemeinsam in den markt. die verlierer sind: vulkan, amd, intel.

intel hat mit sicherheit bei Xe raytracing bis turing nicht vorgesehen gehabt - das selbe gilt für navi von amd. und auch vulkan hat man knallhart auf dem falschen fuß erwischt. real time raytracing für spiele war absolut nicht absehbar bis turing.

wie war das mit dem hardware schlüssel vom software schloss? der unterschied liegt bei RTX darin, dass die API diesmal von microsoft kommt. trotzdem hat keine andere firma eine vergleichbare technik für die echtzeitberechnung von raytracing, weil das niemand auf dem schirm hatte.

im endeffekt bleibt aber alles beim alten.

und wenn man dann hier lesen muss "nvidia hat halt raytracing, und die anderen nicht, ist das ein grund nvidia zu kaufen" könnte ich mir nicht vorstellen, wie nvidias strategie hätte besser aufgehen können. das argument gibts so lange wie es nvidia gibt. und bisher hat immer jeder verloren, außer nvidia.
 
duskstalker schrieb:
Wildes geblubber...

Oh man wo soll man bei dir anfangen.
Passt zu deiner Sig.

G-Sync bietet auf jeden Fall schon mal mehr als einfach nur Sync, aber naja ich glaube es hat keinen Sinn dir was zu erklären wenn ich mir deine Posts so anschaue.

Bei meinem letzten Monitor fand ich G-Sync einfach wesentlich besser als jetzt wo die Range erst ab 48 beginnt...

Schönes Wochenende euch allen.
 
  • Gefällt mir
Reaktionen: Laphonso
Ich bin eher gespannt was nVidia mit der nächsten Gen in 7+ anstellt...

Könnte ja fast 100% Performance zu meiner 1080 TI geben, ohne Raytracing...
 
  • Gefällt mir
Reaktionen: Laphonso
Hoffentlich kommt im nächsten Jahr von AMD und Intel was vernünftiges, sodass Nvidia nichts halbgares mit einem übertriebenen Preis bringt. Die RTX3080Ti muss schon was tolles sein, sodass ich sie kaufen will.
 
  • Gefällt mir
Reaktionen: Laphonso
BastianDeLarge schrieb:
Oh man wo soll man bei dir anfangen.
Passt zu deiner Sig.

G-Sync bietet auf jeden Fall schon mal mehr als einfach nur Sync, aber naja ich glaube es hat keinen Sinn dir was zu erklären wenn ich mir deine Posts so anschaue.

Bei meinem letzten Monitor fand ich G-Sync einfach wesentlich besser als jetzt wo die Range erst ab 48 beginnt...

Schönes Wochenende euch allen.
Exakt, danke. Bei einigen hier ist irgendwie die Balance aus Gaming Hobby und Realität vs Ideologie und absurden Gedankenkonstruktionen echt komplett aus den Fugen 😂
Ergänzung ()

BosnaMaster schrieb:
Ich bin eher gespannt was nVidia mit der nächsten Gen in 7+ anstellt...

Könnte ja fast 100% Performance zu meiner 1080 TI geben, ohne Raytracing...
Könnte passen, bin von der 980Ti auf die 2080Ti, das waren zimelich genau safe 100 %, selten etwas weniger, öfter eher mehr als 100%.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BastianDeLarge und BosnaMaster
duskstalker schrieb:
der kauf von ageia durch nvidia war 2008 - die technologie von ageia wurde von 2004 an entwickelt.
Es lief aber erst 2008 auf Geforce Karten, davor hast du eine spezielle Karte von Ageia gebraucht, die niemand gekauft hatte.

duskstalker schrieb:
dagegen die half life 2 E3 demo aus 2003:
Du willst jetzt aber nicht sagen, dass das gegen HW-PhysX anstinken kann?

duskstalker schrieb:
da liegen schon 3 jahre dazwischen, zu gunsten von hl2 (älter).
3 Jahre, in denen sich offenbar extrem viel getan hat.

duskstalker schrieb:
klar - ageia kaufen, die physx funktionen der karten in geforce implementieren, und ati besitzer von physx ausschließen:
ATI war davor schon ausgeschlossen, genauso wie Nvidia. Brauchtest nämlich erst mal so eine Physikkarte, die - wie bereits erwähnt - niemand kaufte. Jetzt konnten immerhin Nutzer einer Geforce HW-PhysX ohne Zusatzkarte nutzen. Ganz schlimm. AMD hätte Ageia auch aufkaufen können, die 20 Mio. hätten selbst die gehabt. Aber AMD hatte wieder mal gepennt. Oder wollten die ernsthaft Zusatzkarten?

duskstalker schrieb:
und gleichzeitig will man auch cpus ausschließen (wir denken wieder an intel) - daher wird für den physx fallback auf eine cpu das instruction set x87 und nicht SSE2 genutzt.
Viel Spaß mit der Berechnung mit damaligen CPUs. ;)

duskstalker schrieb:
flüssigkeitssimulation in portal 2 in der source engine:
3 Jahre nach dem Kauf von Nvidia. Merkste selbst? Und PhysX auf Flüssigkeitssimulation zu reduzieren ist schon dreist.

duskstalker schrieb:
es wurde in die eingekaufte unreal engine integriert - insgesamt ist die adaptionsrate außerhalb von software physx außerhalb der unreal engine sehr gering:

https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
Die Adaptionsrate dürfte besser sein als alle AMD/ATI proprietären Features zusammen (angefangen bei Trueform). ;)
Kein Riesenerfolg, aber richtige Flops haben andere hingelegt.
 
  • Gefällt mir
Reaktionen: Laphonso
duskstalker schrieb:
eigentlich hat nvidia aber mit gsync gegen freesync/adaptive sync verloren.
😂

Qualität gewinnt immer, mindestens Kunden.

https://www.digitaltrends.com/computing/freesync-vs-g-sync/
August 14, 2019 4:00AM PST

Given the price gap, you might wonder why anyone would prefer G-Sync. The answer is simple — it’s superior. Nvidia’s adaptive refresh technology just delivers more consistent overall performance.

Die Freesync Kinderkrankheit Ghosting ist offensichtlich immer noch nicht ausgeräumt:


"The fundamental problem here is nobody should have to reduce their freesync range to have a better experience. This is something AMD should have tuned on a driver level 3 years ago.
Nvidia's approach to everything is for it to be transparent to the user. Just like Gsync with a physical module was, their Freesync implementation works without the user having to do anything but toggle it on and the driver does what's best. I dunno how or why you can defend AMD's incompetence here."


Im Monitor subreddit (also der tatsächlichen Gamer und Nutzer/User) steht auch 2019 fest: G-Sync ist besser und auch Nvidias Freeync Integration wird besser angesehen als AMDs

"Also I'd like to note that Nvidia's driver side implementation for Freesync is leaps and bounds better than AMD's. "

Das hat natürlich einen Preis, und jeder mag entscheiden, ob man den zahlen will oder nicht.
Meine Gamingkumpels haben mich 2014 für bekloppt erklärt, einen 1100 teuren G-Sync Monitor zu kaufen.

Mittlerweile haben sie alle G-Sync Monitore. Es ist halt klasse :)
Gysnc>Freesync, wenn auch nur marginal
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SFVogt
Draguspy schrieb:
So ist es bei nVidia schon lange normal, das die gaming Treiber eine integrierte Schnittstelle für Cudacores haben, so das Rendersoftware im Hobbybereich diese nutzen kann. Wer mit Blender rendern wollte, musste damals ca. drei Jahre warten, bis die Community betra-Treiber entwickelte, die das auch bei AMD Karten ermöglichten. Da dominiert nun selbstverständlich nVidia, obwohl AMD eine bessere Rohleistung für den Preis hatte. Nur was nutzt die, wenn man nicht drauf zugreifen kann? Der Unterschied war, das AMD dies nur bei HPC-Karten tat, nVidia aber auch für den consumer Bereich.

Das sind/waren aber zwei paar Schuhe. Es gibt Cuda seit 2006/2007. Das mehr oder weniger freie Equivalent dazu ist OpenCL. Zwischenzeitlich gab es noch, bzw. gibt es noch DirectCompute als dritten Vertreter. Eine AMD GPU kann bestenfalls OpenCL und DirectCompute, aber kein Cuda, weil Cuda eine NV proprietäre Lösung ist.
Blender setzte allerdings seit Anbeginn der GPU Beschleunigung für den Cycles Renderer auf Cuda. Die Gründe dafür sind vielfältig, bis hin zu Themen wie dem Support durch den Hersteller NV vs. einer quasi offenen Schnittstelle, wo dir Niemand hilft.
Irgendwann vor besagten ~3 Jahren hat man in Blender Cycles zusätzlich! einen OpenCL based Renderpfad eingebaut. Dieser läuft auf NV und auch auf AMD GPUs. Mit OpenCL ist es je nach Version und Optimierung sogar so, dass AMD GPUs teils deutlich schneller rendern können. Aktuell hat NV mit Turing allerdings wieder die Nase vorn, die in Blender Cycles sehr stark sind.

Also bitte keine Unwahrheiten verbreiten. Das Thema Blender hatte schlicht nichts mit irgendwelchen Schnittstellen im Gamingtreiber zu tun - die gab es auch auf der AMD Seite. Der Grund war, dass die Blender Guys sich aus Gründen auf Cuda eingeschossen hatten und damit AMD pauschal ausgeklammert haben.

duskstalker schrieb:
adaptive sync ist ein traum - gsync ist die nvidia methode, um den markt einer freien technologie zu berauben, und diese als mauer einzusetzen, durchgesetzt mit der marktmacht von nvidia.

nvidia nimmt ein problem mit einer vermeintlich einfachen lösung, verkompliziert das ganze, bastelt eine proprietäre hardware drum herum, und eine software. dadurch entsteht ein hardware-software schlüssel-schloß system.

wie adaptive sync vs. gsync. das selbe geht ohne gsync modul, ohne zusatzkosten, ohne nvidia hardware lock. bei nvidia ist das (wie immer) wohl etwas in die hose gegangen und der freie standard hat sich durchgesetzt. weil es nvidia aber hasst, wenn es "nice things" gibt, wird da sofort irgendwas unternommen, um ein "nvidia ding" draus zu machen, das entweder geld oder monopolstellung bringt.

und hier ist sie: die feindliche übernahme von freesync. das ist marketingtechnisch geschickt gemacht, aber eben auch typisch nvidia. anstatt, dass nvidia "adaptive sync" unterstützt, werden auf einmal monitore auf "gsync kompatibilität" geprüft - adaptive sync/freesync heißt jetzt "gsync compatible". fast alle "freesync" monitore werden jetzt nicht mehr mit "freesync" sondern mit "gsync compatible" beworben.

Du hast eine komische Sicht auf die Realität. GSync war eher am Markt bzw. wurde eher am Markt vorgestellt. Der angebliche Standard, den ihr immer bei diesem Thema benennt ist real schon eine ganze Ecke später erst in die DisplayPort Spezifikation eingebaut wurden, nämlich offiziell mit DP1.2a. (das war 12/2014 meine ich) Vorher gab es lediglich die eDP (seit 2009)
GSync in der ersten Version wurde allerdings 2013 vorgestellt und ist/war seit H2/2014 initial verfügbar. Es gab also Leute, die GSync nutzten, während der Standard nichtmal auf dem Papier war... Von wegen "den Markt einer freien Technologie zu berauben". Praktisch bleibt eher der Eindruck übrig, als versuchte gerade AMD ohne eigene Alternative zu GSync über den freien Standard ohne wirklichen Aufwand ein adequates Alternativprodukt zu erschaffen. Das ging aber nur so semi gut auf, wo ihr Marktanteil phasenweise einfach der Marktdurchdringung im Weg stand.

Irgendwie passt deine Aussage also nicht in die Realität. Denn es gab keine Lösung für ihr Problem - zumindest keine Lösung, die zeitig genug auf einem freien Standard hat basiert. Also entschied man sich etwas Proprietäres zu entwickeln. Raus gekommen ist dabei GSync mit Modul um das zu tätigen, was ein DP1.2a Monitor von Haus aus könnte, wenn die Erweiterung gebucht wurde.

Jetzt denk einfach mal einen Schritt (wirtschaftlich) weiter und du wirst ziemlich sicher feststellen, dass die bestimmt nicht ganz günstige Entwicklung von GSync nicht einfach mal so eben fallen gelassen wird, nur weil es irgendwo einen Standard gibt, der als Option in ein neues Übertragungsprotokol eingebaut wird... Dazu noch, AMD spielt mit den gleichen proprietären Mitteln bei ihrer FreeSync Version. FreeSync per HDMI ist bei so manchem Monitor möglich - aber der VESA Standard AdaptiveSync ist eben DP und nicht HDMI. VRR per HDMI gibt es meine ich seit 2.1? Auf jedenfall deutlich jünger als DP1.2a oder GSync. AMD im übrigen beherscht meine ich nach wie vor kein VRR per HDMI 2.1...

Zum letzten, was stört dich da wirklich dran? FreeSync ist AMDs proprietäre AdaptiveSync Umsetzung auf DP und hat irgend eine selbst hinbaute Umsetzung ohne Standard (denn den supporten sie meine ich nicht atm) bei HDMI. NV macht also nix anderes als ihren Namen gegen den von AMD stellen. Wenn schon Krtik, dann doch bitte nicht immer nur einseitig...
 
  • Gefällt mir
Reaktionen: BastianDeLarge, SFVogt, Laphonso und 3 andere
matty2580 schrieb:
Bei Nvidia erklärt man das so:


https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/Nvidia-Q3-2019-1337132/

Wie man bei Steam gut sehen kann, hat sich Turing nach 1 1/2 Jahren deutlich schlechter verkauft als noch Pascal oder Maxwell bei den dGPUs. Und da Nvidia laut eigener Aussage besonders gut im Bereich Mobile (Notebooks) wächst, ist dass dann auch wieder konkurrent mit der Steam-Statistik.
nVidia hat doch entgegen allen Hatern zum Trotz Turing sehr gut verkauft, der Umsatz und Gewinn überraschte ja scheinbar, und das trotz der höheren Kartenpreise. Natürlich hätte nV auch mehr Karten zu günstigeren Preisen verkaufen können, damit würden sich sich aber die Marge ruinieren, wollte man offensichtlich nicht.

Aus nVidias Sicht ist das eben genauso rentabel gewesen wie andere VGA Serien, womit sie sich hoffentlich bestätigt fühlen werden auch zukünftig GPU DIEs aufzulegen, die nicht der gängigen Norm entsprechen, dafür den Hardware Enthusiasten aber Produktoptionen ermöglichen für absolute Top Leistung.

Und das Weihnachtsgeschäft Thema betrifft doch nicht nur nvidia sondern genauso AMD und Intel. Deren Hardware wird auch im Vorraus an die Hersteller verkauft für die Prduktbestückung zu Weihnachten.
 
  • Gefällt mir
Reaktionen: Draguspy und Laphonso
Nicht nur in Q3, sondern auch in den Quartalen davor, hat man bei Nvidia immer wieder betont, dass man besonders starkt im Notebookbereich wächst.

D.h. umgedreht das man bei dedizierten GPUs, also den GPUs die die Masse hier im Forum interessiert, nicht ganz so erfolgreich war. Der Markt für Notebooks ist auch deutlich größer als der klassische Desktop-PC-Markt.

Und natürlich hat man bei Nvidia alles richtig gemacht, wenn man jetzt beim Umsatz schon fast wieder auf Mining-Hype-Niveau ist.

Erstaunlich ist eher das AMD nach wie vor nicht, trotz technisch guten Navi 10, profitieren kann, sondern Nvidia hauptsächlich weiter wächst.
 
matty2580 schrieb:
Nicht nur in Q3, sondern auch in den Quartalen davor, hat man bei Nvidia immer wieder betont, dass man besonders starkt im Notebookbereich wächst.

D.h. umgedreht das man bei dedizierten GPUs, also den GPUs die die Masse hier im Forum interessiert, nicht ganz so erfolgreich war. Der Markt für Notebooks ist auch deutlich größer als der klassische Desktop-PC-Markt.

Und natürlich hat man bei Nvidia alles richtig gemacht, wenn man jetzt beim Umsatz schon fast wieder auf Mining-Hype-Niveau ist.

Erstaunlich ist eher das AMD nach wie vor nicht, trotz technisch guten Navi 10, profitieren kann, sondern Nvidia hauptsächlich weiter wächst.

Habe irgendwo gelesen dass sogar bei Gaming mehr Notebooks als Desktops verkauft wurden...was mich doch erstaunt hat.
 
Zurück
Oben