News Quartalszahlen: Nvidia macht so viel Quartalsgewinn wie 2022 Jahresumsatz

TheInvisible schrieb:
Stimmt Steam survey, JPR und Umsatzzahlen alles gefälscht, lieber einem Post eines random forenusers geglaubt :freak:
Hast es mal wieder nicht gedschäggt und schon wieder fehlinterpretiert.
Habe Dich nach "Belege" gefragt, wo behauptet wird KEINER kauft Blackwell ! :rolleyes:
 
  • Gefällt mir
Reaktionen: muvmend
Nighteye schrieb:
Klar Dlss 4 ist optisch besser als FSR3, aber die FPS sind gleich.
Unsinn, ich kann aggressiveres upscaling einstellen mit dlss4 welches dann besser aussieht und schneller ist.
 
  • Gefällt mir
Reaktionen: Cohen
Araska schrieb:
Was genau will uns der Künstler mit diesem Gleichnis sagen?
Ergänzung ()


Oh, gleich mehrmals innerhalb einer Generation eine Neukarte.
So ist es brav. Nvidia mag dich.

würde es natürlich verkaufen und so hat jemand anders billiger eine gute karte und freude daran. hatte die letzten 8-10 jahre kein nvidia und letztes jahr 5080 gekauft und meine 5700xt red devil in rente geschickt
 
TheInvisible schrieb:
Das sind einzelfälle die von ein paar Foren/Newsmedien gepusht werden, auch die pro Karten von Nvidia/AMD/Intel haben den Stecker. Im weltweiten Verkauf nicht relevant
Echt schön, dass es Person gibt, die so etwas relativieren wollen. @Quidproquo77 ist auch so einer!
Nvidia macht so viel Umsatz/Gewinn und du schreibst so einen Mist! 6+2 Pin ist einfach viel besser!
Weisst du wie viele 12vhpwr Anschlüsse unsere H100 haben? 0!
 
  • Gefällt mir
Reaktionen: eXe777 und SweetOhm
TheInvisible schrieb:
Das sind einzelfälle die von ein paar Foren/Newsmedien gepusht werden,
Genau, und je öfters man dies schreibt, um so "wahrer" wird es ... :daumen:
 
Mimir schrieb:
die so viele Leute zu Nvidia greifen lassen und sich technisch gut begründen lassen.
Laut Steam gibts ja mehr RTX 5080 Käufer als RX9070XT Käufer.
Ich kenne mindestens 5 benchmarks wo die Radeon welche die hälfte kostet, auf die gleichen 1% low fps kommt.
Also die ganzen RTX 5080 leute zahlen doppelt so viel für den Namen Nvidia wenn man mich fragt.
Jetzt gleich kommt ein Nvidia Verteidiger und sagt FSR4 ist nicht so weit verbreitet wie DLSS4.
Stimmt, ändert aber nichts an der Richtigkeit meiner aussage.
Für mich sind Nvidia Kunden daher verschwenderischer in Relation.
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Genau, und je öfters man dies schreibt, um so "wahrer" wird es ... :daumen:
Die einzelfälle sind eh wahr, mehr aber auch nicht.
 
Quidproquo77 schrieb:
TSMC ist schon lange in den USA, Japan, China bzw. mit ESMC Joint Veture in Deutschland.
Ja, in den USA in Airzona läuft die Fab ja jetzt seit anfang des Jahres in 4nm (auch wenn TSMC hier keine Produktionskapazitäten nennt - und ich mir grad garnicht sicher bin ob die nur 4N oder auch 4NP machen), falls sich da nichts geändert hat müssen die Chips dann aber immer noch nach Taiwan fürs Packaging.

In Japan gibt's derzeit nur maximal 12nm (obwohl ne expansion für 6nm ja im Bau ist), und hier in DE ist derzeit auch nur 12nm geplant. Und China ist auch nur 16nm ohne EUV.

Produktionsstandort Taiwan ist daher weiterhin so ziemlich unabdingbar.

Ich bezweifle, dass TSMC ihre "top of the line" Nodes immer direkt auch ins Ausland bringen wird - am ende wird TSMC ja auch (klugerweise) genutzt, um Taiwan besser gegen China abzusichern. Und natürlich findet das ganze R&D meines wissens nach schwerpunktmäßig noch in Taiwan statt, auch wenn sie natürlich global R&D-Einrichtungen haben.

Quidproquo77 schrieb:
außerdem gibt es genügend große Auftragsfertiger.

Da wären noch Samsung, Intel, Globalfoundries, UMC, Rapidus, ESMC (TSMC Joint Venture) usw.
ESMC ist am ende auch nur TSMC (TSMCs Beteiligung daran liegt ja bei 70%, und wenn ich mir recht entsinne haben die so ziemlich die alleinige Kontrolle), und wie gesagt nur 12nm. Die anderen Auftragsfertiger sind recht irrelevant in der derzeitigen Marktsituation bei KI - abgesehen von der HBM-Produktion bei Samsung, Micron und SK Hynix.

Klar, es gibt Spekulationen, dass Nvidia (und auch AMD) Samsungs 2nm Node nutzen könnten...falls der denn gut wird und Samsung ne entsprechende yield hinbekommt, aber das ist alles reine Spekulation derzeit (außer ich hab da was verpasst).

TSMC ist und bleibt einfach erstmal die wichtigste Firma - vor allem bei KI. Auf ASML geh ich hier jetzt mal nicht ein - am ende machen die nur das "Werkzeug", und ohne Firmen wie TSMC, die mit dem Werkzeug und ihren eigenen Prozessen ein Produkt damit herstellen, sind die EUV-Maschinen auch recht nutzlos.
 
  • Gefällt mir
Reaktionen: Quidproquo77
TheInvisible schrieb:
Schrieb extra pro und keine Datacenter Karten. Lesen bitte danke
Pro Karten sind ja auch nicht wichtig.
Data-Center, da fliesst der Dollar!
Sogar Gaming ist über den Pro Karten und zwar deutlich! 85%+ ist Data-Center und da hat man keine 12vhpwr Stecker...
Aber gut, bleib du bei deiner Fan Theorie. 😋👍
 
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
Meine RX6800 16GB war doch bereits über 100€ günstiger als eine RTX 3070 8GB.
Und rate mal welche Karte besser gealtert ist.
Meine über 100€ günstigere Radeon, oder die teurere Geforce.
Anhang anzeigen 1651691
Anhang anzeigen 1651692
Anhang anzeigen 1651693


Du versuchst mir jetzt irgend etwas vorzuhalten, was ich nie bestritten habe, nur um irgend ein willkürliches Argument zu haben.

Außerdem hast du das Thema von
"Nvidia käufer sind dumm und ich treffe als AMD käufer die weiseren Entscheidungen" zu
"meine RX6800 ist besser als eine RTX3070 und deshalb ist mein vorheriges Argument korrekt"
umgelenkt, was einfach völlig willkürlich ist. :D

Du kannst doch nicht mit deiner RX6800 argumentieren, dass AMD in nachfolgenden Generationen die bessere Wahl wäre. Vor allem wenn du das OFFENSICHTLICH auf Basis völlig unvollständiger Argumente machst.


Wie schon gesagt, du sagst, die Qualität von FSR3 reicht dir, ignorierst dann aber dass höhere Qualität bei Nvidia auch bedeutet, dass du bei gleicher Qualität mehr performance haben kannst.
Das war beispielhaft dafür, dass deine Argumente und Abwägungen unvollständig sind und du somit nicht von dir behaupten solltest immer die weisesten Entscheidungen zu treffen oder Menschen die nicht deiner Meinung sind für dumm zu erklären. Denn ganz OFFENSICHTLICH sind dir nicht alle Punkte bewusst, wie mein Beispiel aufzeigt.
Ich halte dir hier nur den Spiegel vor. Du hast behauptet du triffst die weisesten Entscheidungen und hast mir einen Beitrag danach direkt ein Gegenbeispiel geliefert. Und nein, ich hab nicht gesagt, dass Nvidia stets die besseren Produkte hat. Das kam eher von dir bzgl. AMD... Ich stelle nur deine Aussage bzgl. Weisheit und dem vermeintlich dummen Verhalten der Käuferschaft in Frage. Das war der einzige Grund, warum ich auf deinen Kommentar eingegangen bin. Du brauchst jetzt keine Diskussion mit mir über AMD vs Nvidia Karten starten. Denn darum ging es im Kern gar nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen, TheInvisible, Quidproquo77 und eine weitere Person
ThomasD313 schrieb:
Einzelfälle sind das primär weil wohl nicht jeder Einzelfall groß in den Medien breitgetreten wird sondern die Grafikkarten einfach im Müll landen ohne dass man groß davon erfährt, wohl zum Glück ohne dass die ganze Bude dabei abfackelt. Und zusätzlich weil sich nur ein winziger Anteil an Leuten eine 4080/4090/5080/5090 holen und die kleineren Modelle so wenig Leistung nutzen dass es nicht so oft / so schnell zu einem Problem wird.
Der "winzige Anteil" von 4080/4080Super/4090D/4090/5080/5090D/5090 sind derzeit übrigens satte 3,3% bei den Steam-Survey-Daten. Das werden 3 - 5 Mio. Grafikkarten sein.

Bei einer hohen Ausfallquote von z. B. 5 - 10 Prozent wären das Hunderttausende Betroffene. Sicher, dass sich das so einfach unter den Teppich kehren lassen würde und dass da nicht deutlich mehr Schadensfälle in etlichen Computerforen auftauchen würden?
 
LGTT1 schrieb:
Freut mich für die Aktionäre, als Konsument sehe ich das weniger Positiv den die Gewinne des einen sind die Kosten des anderen. Mir persönlich wäre günstigere Hardware lieber als ein weiteres Rekordquartal für NVIDIA.
Gewinne von heute sind Investitionen von morgen. Wenn man sich den Hintern nicht auf den eigenen Lorbeeren platt-sitzt, wie seinerzeit Intel, kann man mit viel Geld halt auch viel neues Zeug entwickeln.

JoeDoe2018 schrieb:
Und was macht NVIDIA die stecken 60 Milliarden in den Aktienrückkauf, zu den Zeitpunkt wo der Preis pro Aktie einfach am höchsten ist. Das macht doch keinen Sinn.
Wenn die davon ausgehen, dass es in Zukunft noch besser wird, dann macht das schon Sinn. Und je weniger Einfluss von außen da ist, desto entspannter wirtschaftet man, und die entsprechende Dividende fällt auch weg.

aid0nex schrieb:
Es ist einfach nur noch krank... Die AI Blase muss platzen!
Lagert die Blase bei dir im Keller, oder warum ist das so relevant für dich? :P

Weltraumeule schrieb:
Ich hasse Nvidia und Intel seit Mitte 2000er! (Bin aber kein Fanboy, habe CPU und GPU von beiden momentan)
Im Englischen nennt man sowas "Enabler": Wenn selbst du als Hasser weiter Gewinne für die Unternehmen produzierst, gibt es absolut 0 Grund für jene irgendwas an ihrem Verhalten anzupassen.
 
  • Gefällt mir
Reaktionen: Nighteye
fineline schrieb:
Genau 👏 Meine 4070 Super hatte mit 600€ alles andere als Mondpreise.
Eine 4070 Super mit 12 GB war Anfangs zu 659 € (UVP) bis 699 € aber auch kein Schnäppchen. :rolleyes:
 
Nighteye schrieb:
Ich mach dir jetzt 2 Beispiele und verabschiede mich dann aus der Diskussion.
Für Hardliner will ich meine Zeit nicht verschwenden.
Na zum glück
Ergänzung ()

Syrato schrieb:
Pro Karten sind ja auch nicht wichtig.
Data-Center, da fliesst der Dollar!
Sogar Gaming ist über den Pro Karten und zwar deutlich! 85%+ ist Data-Center und da hat man keine 12vhpwr Stecker...
Aber gut, bleib du bei deiner Fan Theorie. 😋👍
Ist sicher eine Special Edition

https://forums.developer.nvidia.com/t/h100-pcie-12vhpwr-unstable/334250
https://cdn.wccftech.com/wp-content...s-Gaming-HPC-Content-Creation-_14-728x410.png
 

Anhänge

  • Screenshot_20250828-144829.png
    Screenshot_20250828-144829.png
    378,6 KB · Aufrufe: 45

Anhänge

  • DLSS4 Features.jpg
    DLSS4 Features.jpg
    113,3 KB · Aufrufe: 46
TheInvisible schrieb:
Macht doch AMD ebenso, die Preissteigerungen bei threadripper/epyc nicht gesehen?
Sagst/schreibst Du nicht immer, dass Leistung eben ihren Preis hat ? :heul:
 
Syrato schrieb:
Echt schön, dass es Person gibt, die so etwas relativieren wollen.
Fake News und falsche Panikmache zu widerlegen, hat wenig mit "relativieren" zu tun.
Die Vorstellung der meisten Forennutzer ist halt, dass jede 5te Karte durchbrennt, nur gibt es seit dem 12V2x6 und nativen Kabeln leider keine verwertbare Menge an Schmelzfällen, um daraus noch den großen Clickbait anzurühren. Dass es trotzdem gemacht wird und Einzelfälle zu "dass kann dir jederzeit passieren" gemacht werden geschieht primär aus Geldinteressen, Nvidia Hate oder Unwissenheit, Sensationslüsternheit etc.

"Ja aber 5090". Ja die Kritik ist bei der Karte legitim und für die geringe Wahrscheinlichkeit eines Ausfalls könnte man einfach auf mehr shunts/wires setzen, aber auch das wird nicht zu 100% helfen
Syrato schrieb:
Schau einfach im Forum wie viele Fälle von RTX 5000 GPUs hier schon aufgetaucht sind. Die Relevanz ist nicht gegeben.
Syrato schrieb:
6+2 Pin ist einfach viel besser!
Nein, der hätte bei einer höheren Stromaufnahme die gleichen potenziellen Nachteile.
Insofern wird der 12V2x6 bleiben und AMD in der nächsten Generation brav darauf setzen, freu dich drauf.
Die ersten Prototypen mit 12V2x6 und 600W werden nächstes Jahr auftauchen, die Foren werden abdrehen.^^
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Zurück
Oben