News Quartalszahlen: Nvidia dank GeForce über den Erwartungen

fdsonne schrieb:
Das sind/waren aber zwei paar Schuhe. Es gibt Cuda seit 2006/2007. Das mehr oder weniger freie Equivalent dazu ist OpenCL. Zwischenzeitlich gab es noch, bzw. gibt es noch DirectCompute als dritten Vertreter. Eine AMD GPU kann bestenfalls OpenCL und DirectCompute, aber kein Cuda, weil Cuda eine NV proprietäre Lösung ist.
Blender setzte allerdings seit Anbeginn der GPU Beschleunigung für den Cycles Renderer auf Cuda. Die Gründe dafür sind vielfältig, bis hin zu Themen wie dem Support durch den Hersteller NV vs. einer quasi offenen Schnittstelle, wo dir Niemand hilft.
Irgendwann vor besagten ~3 Jahren hat man in Blender Cycles zusätzlich! einen OpenCL based Renderpfad eingebaut. Dieser läuft auf NV und auch auf AMD GPUs. Mit OpenCL ist es je nach Version und Optimierung sogar so, dass AMD GPUs teils deutlich schneller rendern können. Aktuell hat NV mit Turing allerdings wieder die Nase vorn, die in Blender Cycles sehr stark sind.

Also bitte keine Unwahrheiten verbreiten. Das Thema Blender hatte schlicht nichts mit irgendwelchen Schnittstellen im Gamingtreiber zu tun - die gab es auch auf der AMD Seite. Der Grund war, dass die Blender Guys sich aus Gründen auf Cuda eingeschossen hatten und damit AMD pauschal ausgeklammert haben
Wenn du deine eigene Antwort aufmerksam liest, ergeben sich daraus mehrere Rückschlüsse:
1) nVidia hat einen eigenen Standard für cudacore UND den Herstellern von Raytracing Software dabei geholfen, diesen zu implementieren, weswegen nVidia den Markt heute dominiert.
2) AMD hat auf einen offenen Standard gesetzt UND die Hersteller von Raytracing Software sich selbst überlassen, woraus folgt, das AMD consumer Karten nur selektiv einsetzbar waren.
3) Computing Power, die nicht abrufbar ist, ist nichts wert.
4) Wer auch nur annähernd an einem Hobby interessiert ist, das mit Raytracing zu tun hat, verlässt sich weder auf die Community, ob die irgend wann eine OpenCL Lösung entwickelt, noch auf den möglichen Support danach. Wer macht denn so was? Und wenn neue GPUs kommen, müssen die wieder in den Treiber eingepflegt werden. Bei nVidia dauert das 1-2 Monate, da kann man sich drauf verlassen. Bei AMD nicht und auch das RT in Blender Cycles sehr Stark sind, ist kein Zufall. vor allem das die RT Kerne bereits dezidiert verwendet werden können.
5) Bezüglich Unwahrheit - es ist Fakt, das nVidia sich hier eine führende Position aufgebaut hat. Die Manpower und Erfahrung dahinter hat selbstverständlich Auswirkungen auf die Geschwindigkeit, mit der man auf DXR portieren kann. Und nun hat AMD schon wieder ein Problem, DXR wartet nicht auf den letzten am Markt. nVidia hat ein funktionierendes Produkt, das DXR unterstützt. Nach wem soll sich die Weiterentwicklung der Schnittstelle/Bibliotheken und auch der Game-Engines denn sonst richten, als nach existierenden Produkten/Features? nVidia hat sich bezüglich RT und Raytracing mit rtx zuverlässig die technische Marktführerschaft bei Raytracing gesichert und es wird sehr schwer für AMD, das zu kontern. Mit dem RX 5700 haben sie es erst gar nicht versucht und man weiß nach wie vor nicht, wann eine Raytracing fähige navi Variante fürs Gaming kommt.
 
Zuletzt bearbeitet von einem Moderator:
Bei ner 16 Kern CPU wird über den Preis gejammert, aber nVidia schiebt man über 1000 Euro in den Allerwertesten.

Kommt mal runter..

Jedem das seine.. aber sowas sollte man nicht unterstützen oder gar gut heißen.


Und dann noch so Beiträge "von oben herab".
Tierisch daneben.

Schön wenn man Kohle en mas hat, aber prahlen ist wirklich dämlich hoch Tausend.
 
trane87 schrieb:
@TrueAzrael

Sind 250€ Karten nicht Midrange? Ich meine früher konntest du für knapp 100-150€ ne Karte kaufen, um auf normaler Auflösung glücklich zu werden. Heute muss man deutlich mehr für hinlegen.

Früher hat eine Kugel Eis 50 Pfennig gekostet... Heute muss man deutlich mehr für hinlegen.
 
Zero_Point schrieb:
Die rauchen wahrscheinlich öfter ab und müssen deshalb öfters ersetzt werden. :evillol:

lol übrigens der Durchschnittliche Preis für die Gamer Teile soll bei 900$ liegen... So viel Power kriegt mann da doch nicht... xD :D
 
Vor-, und Nachteile eines Notebooks müssen hier nicht erläutert werden.
Fest steht, dass die Masse der Consumer draußen lieber ein Notebook nutzt, statt sich eine monströse Kiste ins Zimmer zu stellen.

Und bei Nvidia gibt man das ja seit einigen Quartalen freiwillig zu, dass man extrem in China wächst, und weltweit besonders stark im Notebookbereich.

Die (teilweise extremen) Preiserhöhungen seit Fermi haben mit der Inflation überhaupt nichts zu tuen. Ganz im Gegenteil, seit Fermi gibt es hier regelmäßige News zu Quartalsberichten, wo von Rekordmargen und Rekordumsätzen die Rede ist. Gleichzeitig ist der Aktienkurs von Nvidia seit Fermi gewaltig gestiegen.

Bei Nvidia nutzt man die eigene Marktmacht seit Fermi extrem aus.
Und viele Alternativen gibt es nicht zu Nvidia.
Entweder man kauft zähneknirschend Nvidia, AMD, oder gar nicht.

Und wie halbwegs gute Konkurrenz aussehen könnte, sieht man aktuell zwischen den Corebattle von AMD und Intel, und den stark gesunkenen CPU-Preisen. Das hat den CPU-Markt extrem belebt, und gleichzeitig AMD und Intel gut getan, so gut so gar dass man bei Intel vom stärksten Quartal aller Zeiten spricht.

https://www.computerbase.de/2016-10/quartalszahlen-intel-drittes-quartal-2016-rekord/

PCGH schrieb:
CEO Bob Swan sprach vom "besten Quartal in der Geschichte".
https://www.pcgameshardware.de/Wirt...en-und-dedizierten-Grafikkarten-2021-1335537/
 
Zuletzt bearbeitet von einem Moderator:
Guten Morgen Inxession,


Inxession schrieb:
Bei ner 16 Kern CPU wird über den Preis gejammert, aber nVidia schiebt man über 1000 Euro in den Allerwertesten.

Ich habe das Gefühl, andersherum wird ein Schuh daraus.
Bis auf wenige Ausnahmen, wird die CPU hochgelobt, aus verschiedensten Lagern, und der Preis als völlig in Ordnung oder gar sehr niedrig eingestuft.
Im Vergleich zu meinem 3900X bietet der 3950X 33% mehr Kerne/Leistung bei einem voraussichtlichen Aufpreis von ~60%. Sind das bei Nvidia nicht recht ähnliche Verhältnisse?

Inxession schrieb:
Kommt mal runter..

Jedem das seine.. aber sowas sollte man nicht unterstützen oder gar gut heißen.

Und dann noch so Beiträge "von oben herab".
Tierisch daneben.

Schön wenn man Kohle en mas hat, aber prahlen ist wirklich dämlich hoch Tausend.

Puh, vielleicht bin ich zu empfindlich. Aber ich finde es eher daneben, anderen vorzuschreiben, was sie "sollten".
Ich trinke bspw. keinen Alkohol. Abgesehen davon, dass ich alleine dadurch (bezogen auf den bundesweiten Durchschnittskonsum im Jahr) jedes Jahr genug Geld für eine >1000.- € Grafikkarte spare, käme ich deshalb aber auch nie auf die Idee, anderen Menschen zu sagen, sie sollten dies ebenfalls vermeiden.

Falls ich mich irre, entschuldige bitte. Aber du sprichst, in meinen Augen, aus einer Opferrolle heraus, in die dich niemand gesteckt hat außer dir selbst. "Von oben herab" und mit "Geld prahlen" sehe ich in keinem einzigen Beitrag in diesem Thread.

Liebe Grüße
gravity
 
  • Gefällt mir
Reaktionen: Grimey, Cohen und Laphonso
4to cka3al schrieb:
Ich wundere mich auch wie viel Geld manche scheinbar zur Verfügung haben für solche PC Komponenten und auch gewillt sind dies auf den Tisch zulegen. Alles Großverdiener hier im Forum? Oder absolute keine anderen Hobbys (Tennis, Sky fahren etc. kostet ja auch Haufen Kohle) oder Kinder?

Warum meinst du, dass jemand, der Geld für Hardware ausgibt andere Dinge vernachlässigen müsste? Ich gehe mehreren kostspieligen Hobbys nach (Haustier, PC, Motorrad, Multicopter, Fotografie, Heimkino, Smartphone, Urlaubsreisen, ...) und habe trotzdem noch weitere Hobbys (die nicht mit nennenswerten Kosten verbunden sind) und ein Sozialleben.

Für solche Behauptungen / Annahmen fällt mir rational nur ein Grund ein. Ich kann das ganze mit meinem Einkommen vereinbaren und arbeite dafür. Daher will bei mir auch kein schlechtes Gewissen deswegen aufkommen :) Am Ende ist es sogar gut für Leute, denen die Hardware nicht so viel wert ist, denn das Meiste landet irgendwann zu deutlich günstigeren Konditionen im Marktplatz.

Was mir mein Hobby wert ist bestimme ich selbst, die Meinung wildfremder Foristen ist dabei völlig irrelevant.

Dafür muss man auch kein Großverdiener sein. Klar, wenn man zum Mindestlohn arbeiten geht wird das kaum drin sein. Dann sollte man seine Vorwürfe aber mal überdenken, evtl. gehen sie in eine völlig falsche Richtung!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baya und Laphonso
Wie ich seit Jahren sage: mit bis zu 30% Reingewinn sind die Endkundenpreise von NVidia (und auch Intel) jenseits von Gut und Böse und weit über dem, was normale Firmen verlangen würden und dürften. Das ist nur noch Abschröpfung des zahlenden Kunden bis auf den letzten Penny.
Klar liegt das daran, dass nur noch AMD als einziger Konkurrent halbwegs mithalten kann, und wir leben auch nicht im Wohlfahrtsverein, und im knallharten Kapitalismus kann jeder verlangen was er will, aber das I-Tüpfelchen der ganzen Misere ist ja, dass es weltweit Abermillionen von Menschen gibt, die das einfach so mit sich machen lassen, und ein Teil davon das auch noch gutheißen und verteidigen, wie man in den Foren immer wieder erleben muss.
Eigentlich ist es gut, dass jetzt Intel als dritter Spieler im Grafikkartensegment hinzukommt.
Es birgt aber auch die Gefahr, dass die dann evtl. nur AMD zusetzen werden, weil Intel und NVidia jucken ein paar Prozent weniger Marktanteile nicht wirklich. Nur AMD muss jedes Jahr zusehen, wie man die Gelder für die Entwicklung rein bekommt.
Bevor jetzt jemand sagt, ich sei ein reiner AMD Fanboy: das stimmt nicht.
Ich nutze seit über 25 Jahren alle Produkte.
Wenn die Situation zum heutigen Zeitpunkt anders aussähe und die Firmennamen anders wären, hätte ich genau so das hier hingeschrieben.
Man kann udn sollte erwarten dürfen, dass man als langjähriger Kunde über Jahrzehnte hinweg immer fair behandelt wird.
Im Einzelhandel und in der Stammkneipe würden wir ja auch nicht alles mit uns machen lassen.
 
  • Gefällt mir
Reaktionen: Grimey
Draguspy schrieb:
Die Details kann ich nicht einschätzen, da fehlt mir das Wissen im Bereich Informatik. AMD ist bisher im Raytracing Bereich dadurch aufgefallen, das sie Raytracing Schnittstellen generell schlecht gepflegt haben. So ist es bei nVidia schon lange normal, das die gaming Treiber eine integrierte Schnittstelle für Cudacores haben, so das Rendersoftware im Hobbybereich diese nutzen kann. Wer mit Blender rendern wollte, musste damals ca. drei Jahre warten, bis die Community betra-Treiber entwickelte, die das auch bei AMD Karten ermöglichten.
Wie kann man etwas schlecht unterstützen wenn es in Hardware garnicht unterstützt wird? ;)
Ich bin mir nicht sicher weil ich keine entsprechenden Programme/Spiele besitze aber die Software Emulation über Microsofts Schnittstelle sollte auch so laufen und das eine nvidias Haus API nicht genutzt werden kann ist auch klar.
Gleiches Problem bei dem Punkt mit den Cuda cores, falls du damit die CUDA Schnittstelle meinst, auch das ist nvidias Haus API. Eine allgemein nutzbare Schnittstelle die das Programm unterstützen müsste wäre z.B. OpenCL.

Das ist am Ende auch der Großteil von nvidias Verkaufsstrategie.
"Binde" die Kundschaft mit Hausstandards in Hard- und Software und es bleibt ihr garnichts anderes übrig als weiterhin ihre Hardware zu kaufen, sofern sie diese Funktionenn auch weiterhin nutzen wollen.
 
matty2580 schrieb:
Bei Nvidia erklärt man das so:


https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/Nvidia-Q3-2019-1337132/

Wie man bei Steam gut sehen kann, hat sich Turing nach 1 1/2 Jahren deutlich schlechter verkauft als noch Pascal oder Maxwell bei den dGPUs. Und da Nvidia laut eigener Aussage besonders gut im Bereich Mobile (Notebooks) wächst, ist dass dann auch wieder konkurrent mit der Steam-Statistik.
Wadenbeisser schrieb:
Wie kann man etwas schlecht unterstützen wenn es in Hardware garnicht unterstützt wird? ;)
Ich bin mir nicht sicher weil ich keine entsprechenden Programme/Spiele besitze aber die Software Emulation über Microsofts Schnittstelle sollte auch so laufen und das eine nvidias Haus API nicht genutzt werden kann ist auch klar.
Gleiches Problem bei dem Punkt mit den Cuda cores, falls du damit die CUDA Schnittstelle meinst, auch das ist nvidias Haus API. Eine allgemein nutzbare Schnittstelle die das Programm unterstützen müsste wäre z.B. OpenCL.

Das ist am Ende auch der Großteil von nvidias Verkaufsstrategie.
"Binde" die Kundschaft mit Hausstandards in Hard- und Software und es bleibt ihr garnichts anderes übrig als weiterhin ihre Hardware zu kaufen, sofern sie diese Funktionenn auch weiterhin nutzen wollen.
Der Hersteller der Grafik Software muss die OpenCL Schnittstelle integrieren. Da jede GPU über etwas andere Parameter verfügt und auch OpenCL sich weiter entwickelt, muss auch der Hersteller der Software jedes mal nachbessern. Bei jeder neuen GPU und bei jeder Weiterentwicklung von OpenCL. Das können sich nur die Hersteller von Profiprogrammen zeitnah leisten.

Es ist nicht so, dass nVidia nur die proprietäre Technik pflegt, man unterstützt die Firmen auch bei der Implementierung der offenen Standards OpenCL. Letzten Monat ist man gleich als größter Sponsor von Blender eingestiegen, hat mit IRay auch schon seit längerem eine eigene Renderengine. Von der Knebelung der Kunden durch proprietäre Technik zu sprechen, ist falsch. Man bietet beides an. Eher schon kann man sagen, das nVidia seine größeren Ressourcen nutzt, um einen besseren Service zu bieten und frühzeitig erkannt hat, das unterhalb der Profikarten/Software ein wachsender Markt von Hobbygrafikern- und Kleinselbständigen entstanden ist, das fängt bei Moddern an, geht über Hobby Spieleentwickler über Content Creating bis hin zu Animationen/SF und Fantasy Kurzfilmen, den man als erste begonnen hat, zu bedienen. AMD will ich hier gar nichts unterstellen, ich glaube, ihnen fehlten einfach die Ressourcen dazu. nVidia will den Geschäftsanteil von Desktop-Gaming am Gesamtergebnis reduzieren, um weiterzuwachsen, hier handelt sich um eine der längerfristig laufenden Strategien, das zu erreichen.
 
@Draguspy
Warum schreibst du dann von einer Schnittstelle für Cuda Cores und nicht gleich von der API selbst?
Nvidias Schnittstelle für ihre CUDA Cores ist CUDA, die allgemeine Schnittstelle für GPGPU Berechnungen wäre z.B. OpenCL.

Also, von welcher Schnittstelle schreibst du denn nun?
Alles was du im unteren Teil schreibst deutet bisher auf CUDA hin weshalb ich mich wundere was im oberen Teil der Vortrag über OpenCL soll.

Und ja, Funktionen in den Markt zu drücken über die man nur selbst die Kontrolle hat und nur selbst bietet ist ein Mittel den Kunden an sich zu ketten und die Konkurrenz damit auszusperren und hier ist insbesondere nvidia hoch aktiv.
 
gravity3381 schrieb:
sehe ich in keinem einzigen Beitrag in diesem Thread.

Liebe Grüße
gravity

...größer war nur das Geweine der Geringverdiener die alle 3 Tage zum Friseur gehen um dann mit ihrem frischen Smartphone den Dicken zu markieren.
 
Deathless schrieb:
AMD verlangt ja auch keine Mondpreise wie Nvidia und Intel.

Wer über 1000 Euro für ne Grafikkarte zum Zocken ausgibt, hat keine Relation zu Geld!

4to cka3al schrieb:
Ich wundere mich auch wie viel Geld manche scheinbar zur Verfügung haben für solche PC Komponenten und auch gewillt sind dies auf den Tisch zulegen. Alles Großverdiener hier im Forum? Oder absolute keine anderen Hobbys (Tennis, Sky fahren etc. kostet ja auch Haufen Kohle) oder Kinder?


Gegenüber meinem Haupthobby (MTG und mehrere Turniere im Jahr - also nur Metadecks) ist die Grafikkarte ein Klacks und nein ich bin kein Großverdiener aber ich habe schon vor Jahren angefangen einen Notgroschen aufzubauen und der Rest fließt bereits jahrelang in Wertpapiere...Daueraufträge am Anfang des Monats und der Rest wird verbraten.
 
Hallo Inxession,

auch wenn Übertreibung ein gern genutztes Stilmittel ist, und erstmal sehe ich das in dem von dir zitierten Beitrag als dieses an, ist der Grat hier womöglich schmaler als ich ihn beim ersten Lesen aufgefasst habe, so dass man es als "von oben herab" sehen kann. Er unterstützt meine Aussage, es gäbe keinen einzigen dieser Beiträge, auf jeden Fall nicht.
Es wäre für mich leichter gewesen, den Kontext zu sehen, hättest du diesen Beitrag in deinem Ersten zitiert und direkt darauf geantwortet.

Ich verstehe zwar weiterhin nicht, weshalb du den Plural genutzt hast und es deshalb auf mich wie eine Pauschalkeule wirkt(e), aber ich kann nachvollziehen, dass dich der von dir zitierte Beitrag verärgert hat.

Liebe Grüße
gravity
 
Wadenbeisser schrieb:
* Überflüssiges Zitat editiert! *
Ich kaufe keine GPUs, die nicht mit meiner Rendersoftware harmonieren. nVidia hat das immer geschafft, AMD nicht. Eigentlich selbsterklärend.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben