Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsQuartalszahlen von AMD: Ryzen und Radeon werden zum stärksten Pferd im Stall
Also war die GTX1080 ne Mittelklasse weil sie nur $599 gekostet hat und 180W verbraucht hat?
Preise und Verbräuche ändern sich in jeder Generation und haben nichts damit zu tun, ob eine Karte Mittelklasse ist oder nicht.
Kommt ne 6090 für 3000€ mit 700W auf dem 102er Chip, ne 6080 für 2000€ mit 600W auf dem 103er Chip und ne 6070Ti für 1500€ mit 450W auf dem 104er Chip, dann ist die 6070 immer noch die Mittelklasse der nächsten Gen, denn was sollten sonst 6080 und 6090 sein?
Wir definieren Mittelklasse anders.
Laut Steam sind eindeutig die xx60er die am meisten verbreiteten Varianten.
Selbst die Einsteiger Varianten wie xx50er sind teilweise häufiger in Steam vertreten als die xx70.
Also die RTX xx60er sind die Mainstream Karten und verdienen eher den Titel Mittelklasse.
Aber ist am ende alles Ansichtssache.
Ich bin jedenfalls der Meinung, 300W ist keine Mittelklasse.
Und GTX 1000 war die effizienteste Nvidia Gen mit GTX 900 seit 15 Jahren.
So Effizient und Sparsam war Nvidia seit dem nie mehr.
Daher ist das eher ein Cherry Picking Argument von dir.
Dass der Strom Trend nicht hoch gehen muss, zeigt ja auch gut RDNA 2.
RDNA 4 wäre auch viel besser, wenn AMD die nicht über dem Sweetspot mit der Brechstange released hätte.
Computerbase Tests zeigen, nur 2% weniger FPS bei -30% Powertarget und 212W mit der RX9070XT.
Abgesehen davon hast Du die Latenz bei 250 FPS eben nur, wenn Du auch ein 240 Hz+ Monitor oder GSync aus hast (was niemand ernsthaft so macht hoffe ich). Das Problem bei MFG zeigt das untere Bild, sobald ein 120 Hz Limit eingestellt wird, dann reduziert sich die Renderrate und die Latenz wird grottig.
In dem Fall müsste man auf MFG x2 reduzieren, dann siehts wieder anders aus. Das Problem ist, dass MFG dies nicht adaptiv kann.
Ist aber schwer dem Laien zu erklären und halt abhängig von Monitor und Grundleistung. Und auch ein Problem in Games mit grossen Unterschieden bei den Framraten.
Sind die Render-FPS <40 ist es immer Kacke, egal welche Karte oder ob FG, MFG, Reflex oder was weiss ich was. Und wenn wir von 40-50 FPS Minimum Renderrate reden, dann ist MFG nur sinnvoll für Leute, die mindestens 240 Hz Monitore haben. Bei einem 144 Hz Modell ginge MFG x3 knapp noch (ergibt 48 FPS nativ), wobei 40 FPS ja auch schon untere Grenze ist. Für ne gute Latenz und Snappyness sind ja 60 FPS eher wünschenswert, da bist mit MFG x3 schon weit über den 144 Hz.
Woher weiß du, von wo aus viele User ihre Beiträge schreiben? Man muss auch den Zeitunterschied im Auge behalten/merken. Ich zum Beispiel bin zur Zeit 1 Stunde zurück. ✈️
Du hättest jetzt auch einfach über deinen Schatten springen können, statt weiter auf sowas rumzureiten. Zum Beispiel, indem du gesagt hättest, dass du mit dem falschen Bein aufgestanden bist oder sowas. Hätte sogar zum Thema gepasst. Oder versucht du, deinem Namen alle Ehre zu machen?
Ich sag, der Umsatz ist deutlich gewachsen bei Radeon. Das ist Fakt.
Bedeutet für viele wohl, dass deine propagierten Nachteile AMDs wohl egal waren und sie NV damit eher abgestraft haben. Da muss also eher NV was falsch gemacht haben wenn man mehr AMD kauft, oder?
Ist nunmal die Realität. Auch wenn NV vll immernoch hier und da besser ist. AMD hat den Gap verkleinert. Punkt.
AntiLag(1) bringt nicht so viel wie Reflex, hier mal als Beispiel ein Test von Igor
Die Latenz bei ~75-80FPS liegt bei mir ohne Reflex bei ~60-62ms, da dürfte also auch AMD ohne AntiLag liegen.
Mit Reflex+Boost komme ich auf ~27-28ms, die 4 zusätzlichen FPS miteingerechnet, wären es bei exakt gleichen 75FPS eher ~28-29ms
Da hab ich für AntiLag mal ca die Mitte davon angenommen, das wären um die 45ms.
Mit FG(aktiviert Reflex ohne Boost) liege ich da schon 10ms drunter bei gleichzeitig ~60FPS mehr.
Kurze Bemerkung: Ich merke beim Spielen nicht wirklich einen Unterschied, ob Reflex hier an(27ms) oder aus(61ms) ist, den Unterschied zwischen 75 und 137FPS merke ich schon eher.
An den Werten sieht man auch ganz gut, wie unsinnig es ist, bei FG von einem "Disconnect" zwischen FPS und Latenz zu sprechen, den man negativ bemerken würde, denn Reflex gibts ja noch gar nicht mal so lange und schon gar nicht in vielen Spielen, das fand ja erst mit FG weitere Verbreitung.
Und jetzt hab ich oben einmal 75FPS bei 60ms, das ist das, was man vor Reflex immer gewohnt war. Jetzt bekommt man mit Reflex bei gleichen FPS die halbe Latenz.
Wenn wir jetzt ein Spiel haben, welches weder Reflex noch AntiLag unterstützt, wäre dort der Disconnect zwischen FPS und Latenz verglichen mit einem Spiel, welches Reflex hat, doch viel größer als alles, was wir bei FG sehen.
Aber vor FG wurden ja auch keine regelmäßigen Latenzmessungen gemacht und ich ich habe in Tests von Spielen ohne Reflex, wo man dann eben ~60ms bei 80FPS hätte, noch nie was davon gelesen, dass man einen störenden Disconnect zwischen Latenz und FPS hätte im Vergleich zu anderen Spielen, wo man mit Reflex dann ~30ms bei 80FPS hat. Scheint wohl also nicht negativ aufzufallen solange man die Latenz nicht aktiv misst und sich die Zahlen anschaut.
CadillacFan77 schrieb:
Abgesehen davon hast Du die Latenz bei 250 FPS eben nur, wenn Du auch ein 240 Hz+ Monitor oder GSync aus hast (was niemand ernsthaft so macht hoffe ich).
Das ist ein "Problem" welches in der Praxis nicht existiert, weil jemand der ohne FG bereits 120FPS erreicht, nicht MFG 4x zuschalten wird, nur um weiterhin bei 120FPS zu locken.
MFG wird dazu genutzt, um die FPS zu erhöhen, MFG 4x im speziellen um auf >200FPS zu kommen.
Wer nen 120 oder 144Hz Monitor hat, hat nur von MFG3x noch einen effektiven Nutzen.
MFG 4x könnte man frühestens ab 175Hz überlegen.
Oder man nutzt FG/MFG 2x und teilweise auch MFG 3x evtl noch fürs Strom sparen: Ich hätte mit einer Blackwell GPU auch die Möglichkeit, mich zwischen weniger Latenz und weniger Verbrauch zu entscheiden.
Also statt wie oben mit FG 137FPS bei 35ms Latenz und ~280W Verbrauch könnte ich auch MFG 3x nutzen, dann hätte ich 144FPS(Limit) und mit 48 Basis FPS immer noch ne Latenz von ~55ms, also weniger als das was ich oben ohne Reflex hatte und was mich nicht gestört hat.
Dafür aber auch nur noch ~220W Verbrauch weil meine GPU keine ~68FPS mehr real berechnen muss, sondern eben nur noch 48 und die generierten Frames verbrauchsgünstiger sind.
Danke AMD für den 5800X3D und die 7900XTX , für günstige TOP Leistung. Danke Noctua und Alphacool für die leise und kühle Bereitstellung derselbigen.
Eines der rundesten Systeme die ich je hatte , seit dem 386 DX40😍
Und warum sollte das jemand tun? Das ergibt doch keinerlei Sinn.
Wenn man schon 120 FPS hat, dann wäre FG 2x noch hilfreich und auf keinen Fall ein Limit?!.
Wenn du 120 FPS hast, stellst du dir doch auch kein Limit auf 30 Frames ein.
Bei Igors eigenem Test hatte die RTX 3070ti 40fps mehr als die RX6700XT.
Wie jeder weiß sinkt die Lazenz mit mehr fps.
Also nicht sehr wissenschaftlich.
Um die Latenz zu ermitteln sollte die FPS beider Karten gleich hoch sein.
Wie jeder weiß sinkt die Lazenz mit mehr fps.
Also nicht sehr wissenschaftlich.
Um die Latenz zu ermitteln sollte die FPS beider Karten gleich hoch sein.
Es geht um die Relative Veränderung der Latenz, da sind mehr FPS sogar hinderlich, weil Reflex hier pozentual weniger verringern kann, als bei niedrigeren FPS.
Würdest du die FPS der stärkeren GPU durch ein Limit reduzieren, wäre die GPU nicht mehr voll ausgelastet und die Latenz die du dann misst, ist überhaupt nicht mehr vergleichbar, da nochmal niedriger als die einer anderen GPU, die für die gleichen FPS ausgelastet ist. In dem Fall reduziert Reflex die Latenz dann auch weniger.
@SweetOhm ist ja nicht so als hätte ich hier genug Fakten/Argumente dazu geliefert warum 1. die Latenzen im 1. Diagramm allesamt niedriger sind als alles was du bei AMD bekommen könntest (sogar extra noch mal selbst mit meiner eigenen GPU nachgemessen), die Latenz mit 2x FG fast halb so hoch ausfällt wie nativ ohne Reflex und 2. das 2. Diagramm keine Relevanz hat.
Aber man kann natürlich auch immer wieder das gleiche Bild posten und dann was dazu schreiben was das Bild nicht hergibt oder Szenarien bauen, die so nie vorkommen werden.
Nur mal so: Spiele die kein (M)FG bieten, bekommen idR auch kein Reflex, der Vergleich ist also Nativ ohne Reflex mit den zwei möglichen Upgrades FG+Reflex und Nativ+Reflex.
Ausgehend von der Basis hast du die Wahl zwischen
a) reduzierter Latenz und mehr FPS
b) stark reduzierter Latenz
Bei Nvidia sieht es doch aktuell nochmals deutlich besser aus?
Sieht nicht gerade nach „schlechtem Angebot“ aus - die RTX 5000er scheinen sich im Gegenteil gut zu verkaufen - bei Amazon landet ja selbst die RTX 5080 immer wieder auf Platz 1 der Grafikkarten Bestseller Liste, obwohl man dort sonst nur 200-300€ Grafikkarten findet …
92 zu 8% - nochmals schlechter als das vorherige Quartal … spricht nicht wirklich für RX 9000 …
Zum Thema - kann gerne noch bis 50% so weiter gehen, mit 28% fehlt ja noch einiges, selbst beim mit Ryzen starken Desktop:
Ein Wert um die 10 - 15 % am Ende des Jahres als Gewinn mitzunehmen, ist für viele Firmen ein sehr guter Werter und auch "gesunder" Wert, wenn man nach VWL-Maßstäben ran geht.
Für Halbleiterfirmen die gut laufen sind 10 bis 15 % Betriebsmarge eher wenig. Halbleiter waren schon immer ein zyklisches Geschäft. Da brechen auch Mal die Umsätze um 20 bis 30 % ein.
Oder der Wert des Inventars muss herabgestuft werden, weil es nicht mehr zum geplanten Preis verkauft werden kann. Oder gar nicht mehr, so wie sich die 800 Millionen USD Vorleistung für die MI308 sich erst Mal in Luft auflösen.
Halbleiterfirmen haben R&D Ausgaben im Bereich von 20 - 25 % vom Umsatz. Und dieser Kostenblock verändert sich nicht, wenn kurzfristig der Umsatz einbricht. Zu den R&D Ausgaben kommt hinzu, dass viele Halbleiterfirmen hohe Marketingausgaben haben. Marketing bei Halbleiterunternehmen ist sehr viel mehr als einen Werbespot zu schalten. Darunter fallen Field Applikation Engineers, unterstützende Software und die notwendige Dokumentation damit die Kunden die Halbleiter auch verwenden können.
AMD ist massiv in die Vorleistung gegangen, von der Kostenstruktur her, muss der Umsatz deutlich steigen. Auch deshalb waren die 8,7 Mrd USD Umsatzprognose für Q3 2025 ernüchternd.
DevPandi schrieb:
Die Gewinnmargen, die TSMC und Nvidia aktuell einfahren sind zwar für BWLer und Investmentbänker der feuchte Traum,
TSMC benötigt diese Marge, um genügend Cash für die neuen Fabs zu generieren.
Halbleiterfabriken auf Pump zu bauen ist ähnlich wie auf Kredit mit Aktien zu spekulieren.
Nvidia kann mit den Gewinnen erst Mal nichts weiter anfangen und wird in der nächsten Zeit für 50 Milliarden Aktien zurückkaufen. Jensen Huang wird Nvidia keinen Ballast aufladen, nur damit er die Firma größer macht.
DevPandi schrieb:
gleichzeitig aus VWL Sicht nicht ganz so gut, weil dieses Geld erst mal dem "Kreislauf" entzogen wurde.
Da wird nichts dem Kreislauf entzogen. Es geht nicht zu wie bei Dagobert Duck mit dem Geldspeicher. Die Rücklagen werden in Wertpapiere angelegt und finanziert damit den Staat oder als Aktien und Anleihen andere Firmen.
DevPandi schrieb:
Vorsichtig: Buchhaltung! Das ist an der Stelle komplexer, als man denkt. Der Kauf von Firmen wird nicht direkt in den Zahlen sichtbar, sondern teilweise über Umwege.
Der Umsatz den das zugekaufte Unternehmen erwirtschaftet kommt direkt zur Geltung.
Es gibt eine Besonderheit wenn der Kaufpreis über dem bilanzierten Wert der gekauften Firma liegt. Dann muss Goodwill oder immaterielle Vermögenswerte als Ausgleich in die Bilanz der kaufende Firma aufgenommen werden.
Ein Teil dieser immateriellen Vermögenswerte verliert mit der Zeit an Wert (Zum Beispiel die Marke Xilinx, die AMD nicht mehr verwendet). Dieser der Wertverlust der immateriellen Vermögenswerte muss als Abschreibungen verbucht werden. Bei AMD waren es 568 Millionen USD im 2. Quartal.
DevPandi schrieb:
Dazu kommt halt auch, dass das, was hier als Gewinn ausgeschrieben ist, auch nur das ist, was am Ende nach weiteren auch "steuerlich" relevanten Abzügen überbleibt.
Das gilt nur in Deutschland. In den USA wird die Bilanzierung für die Börse gemacht und wird bei der SEC eingereicht. Die Steuer von Unternehmen wird in den USA gesondert berechnet.
DevPandi schrieb:
Abschreibungen auf das Inventar und Co drücken den Gewinn zum Beispiel auch in der Buchhaltung, gleichzeitig hat man jedoch mehr eingenommen.
Investitionen in Maschinen und Ausrüstung fließen nicht in die Gewinn und Verlustrechnung ein. D. h., sie haben keine Auswirkung auf den Gewinn. Und was Deutschland betrifft sind sie auch nicht direkt steuerlich abzugsfähig. Denn Maschinen und Ausrüstung sind Güter, die über mehrere Jahre im Gebrauch sind. Deshalb werden die Anschaffungskosten von Maschinen und Ausrüstung über mehrere Jahre verteilt. Dies geschieht über Abschreibungen. Es gibt bei den Abschreibungen Spielräume, aber die betreffen nur den Zeitraum und den Verlauf der Abschreibungen. Aber dies ändert nichts an der Summe der Anschaffungskosten, die über die Jahre abgeschrieben wird.
Und natürlich kann man eine abgeschriebene Maschine weiter benutzen. Die hohen Margen von TSMC beruhen zu einem hohem Anteil darauf, dass TSMC die abgeschriebenen Anlagen der alten Nodes weiter auslasten kann.
Noch verdient IBM ganz ordentlich an den Kunden die IBM als Geiseln genommen hat. Aber es dürfen nicht mehr viele wegbrechen.
stefan92x schrieb:
Denn Nvidia hat seine Dominanz im Datacenter auch deshalb, weil Nvidia einen kompatiblen Stack an Hardware und Software von der letzten Gaming-Möhre bis hin zum größten AI-Datacenter bietet.
Wieso sollte sich Nvidia aus einem Markt zurückziehen den Nvidia nach belieben beherrscht und mit dem Nvidia in Q1 des Geschäftsjahres 2026 schlappe 3,8 Milliarden Umsatzgeneriert hat?
Dass die Marge niedriger als im Datacentergeschäft ist, ist klar. Aber wo soll da ein Problem sein?
Cleric schrieb:
Aber wenn man den Gedanken mal zulässt, dann hat sich IBM auch nicht schlagartig aus diesen Märkten zurückgezogen. Das war eine über ca. 2 Jahrzehnte schleichende "Entfremdung" vom tradionellen PC- und Komponenten-Geschäft.
Mit dem PC hat sich IBM ein neues Geschäftsfeld erschlossen, aber dieses nach 25 Jahren wieder abgegeben weil IBM nicht in der Lage war dieses Geschäftsfeld profitabel zu betreiben.
Wie der IBM PC zustande kam, ist in allen Varianten die ich gehört, habe eigentlich eine Lachnummer.
Cleric schrieb:
Auch IBM hätte langfristig davon profitieren können, wenn sie vom Front- bis Backend weiterhin alles hätten bedienen können. IBM everywhere. Haben sie aber nicht gemacht.
IBM war in den 2000er schließlich zu faul und zu träge weiter gegen die PC OEMs zu bestehen und hat folgerichtig gekniffen.
Durch die Aufgabe des PC-Geschäfts wurde auch der Bereich mit den X86 Servern in Mitleidenschaft gezogen und folgerichtig musste sich IBM auch daraus zurückziehen.
Nachdem IBM zuerst verkündet hat die Zukunft wäre Software und dann wenige Jahre später erzählt hat die Zukunft wäre Service ist es wohl auch den verantwortlichen bei IBM klar geworden, dass ohne Hardware IBM weder Software noch Service anbieten kann.
Dass IBM beim Thema AI bisher keinen Fuß reinbekommen hat, ist die Lachnummer schlechthin. 1997 hat Deep Blue Garry Kasparov geschlagen.
Cleric schrieb:
Bei NVIDIA sehe ich das nicht, da gebe ich dir recht.
Das ist beinahe immer bei irgendwelchen Announcements der Fall. Das kommt daher, dass obwohl AMD wirklich gut performt und ihre eigenen Zahlen auch konsequent schlägt, die Erwartungen der Investoren einfach noch höher sind.
Client und Gaming hat git performt. Embedded schwächelt seit zwei Jahren und das Quartal von Data Center war schlecht.
Die Aktie von AMD ging nach oben weil sich wieder einmal die AI-Phantasie selbstständig gemacht hat. Und dann kommt es halt übel wenn der Umsatz beim Data Center Segment zurück geht und gleichzeitig EPYC zulegt.
Denn damit ist klar, dass der Umsatz mit den AI Beschleunigern deutlich zurückgegangen ist. Und mit dem Ausblick auf Q3 2025 hat AMD klargemacht, dass die MI350 nicht der ganz große Schlag ist.
Und damit entweicht die AI-Phantasie und ohne AI-Phantasie ist die AMD-Aktie zum aktuellen Kurs schlicht und einfach zu teuer.
Ergänzung ()
Araska schrieb:
Hmm... andere Stimmen sprechen davon, daß mit UDNA auch wieder die oberen Regale bedient werden sollen...
AMD ist was Operation Expenses anbelangt in Vorleistung gegangen. Hier muss der Umsatz im Data Center ordentlich zulegen um das zu kompensieren
AMD hatte vor dem Kauf von Xilinx alle Schulden bis auf IIRC 300 Millionen USD weg. Abbezahlt und in Aktien umgewandelt.
Den Kauf von ZT System hat AMD mit ca 3 Milliarden neuen Schulden finanziert.
Im übrigen schmälert das Abbezahlen von Schulden den Gewinn nicht.
Die Abschreibungen von AMD waren auf Inventar und immaterielle Vermögenswerte.
Gamefaq schrieb:
Sprich sie backen was den Gewinn angeht nur vergleichsweise kleine Brötchen. Was aber auch immer den Vorteil hat das man Vergleichsweise wenig an Steuern vom nur noch einem kleinen Gewinn zahlen muss.