News GPU-Team: AMD in China dementiert Gerüchte über Entlassungen

Grundgütiger schrieb:
Kannst du das auch mit Zahlen belegen?
Schau dir dazu einfach die regelmäßigen Steam-Hardwareumfragen an. Die meisten Gamer weltweit besitzen aktuelle oder ältere Mittelklasse-GPUs.
 
  • Gefällt mir
Reaktionen: Mr. Vega
Grundgütiger schrieb:
Kannst du das auch mit Zahlen belegen?
Muss ich das? Nein.

Steam Hardware Erfassung, die veröffentlichten Verkaufzahlen von MF und noch zig weitere Quellen.

Kann man sich aber selbst ziemlich problemlos erarbeiten.

Zumal das seit Jahrzehnten wirtschaftlich in nahezu allen Bereichen so ist.
Sei es Autos, weitere Elektronik usw.
Wer das abstreiten möchte, soll das tun, dem können auch Zahlen nicht helfen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Hate01, cbmik und TigerherzLXXXVI
Next_Us schrieb:
Das sieht Oracle wohl anders.
Natürlich ist Nvidia an der Spitze, das heißt aber nicht das kein Platz oder Interesse an AMD/Radeon Produkte da ist.

https://www.wccftech.com/amd-report...n-instinct-mi300x-ai-accelerators-from-oracle
Das ist natürlich schön für Oracle, hat nur 2 Haken.
1) Man geht nnotgedrungen zu AMD, weil NVidias Auftragsbücher aus allen Nähten Platzen und man sich nicht mal eben so mehr Fertigungskapazitäten aus den Rippen schneiden kann
2) Heißt interesse jetzt nicht, dass AMD auf einmal Generationen aufholt. Es heißt nur, dass "irgendwas" besser als "gar nichts" für Oracle ist; auch in Bezug zu 1)


Am generellen Verhältnis von über 10:1 für NVidia, ändert auch das nichts.
 
Next_Us schrieb:
Highend ist wichtig fürs Marketing und für den kleinen Prozentsatz der DIY Enthausiasten.
Die Mittelklasse ist und bleibt die Absatzstärkste Leistungklasse und das ist nicht erst seit gestern so.
Ergänzung ()


Das sieht Oracle wohl anders.
Natürlich ist Nvidia an der Spitze, das heißt aber nicht das kein Platz oder Interesse an AMD/Radeon Produkte da ist.

https://www.wccftech.com/amd-report...n-instinct-mi300x-ai-accelerators-from-oracle
Also NVidia kann das Gerede völlig Schnurzpiepegal sein, denn die Desktop-Grafikkarten machen nicht einmal mehr 20% vom Kuchen aus.
Die würde es also nicht einmal jucken, wenn Firmen wie AMD und Intel komplett das Geschäft übernehmen würden.
Die Chips, die frei werden, kann man sofort in KI und andere viel wichtigere Bereiche der Wirtschaft pumpen und vielleicht sogra noch mehr Knete damit machen.
Da kann man mal sehen, wie erschrckend groß die Firma geworden ist udn deren Marktmacht sollte Anlass zum Nachdenken geben.
Zum Glück ist die Übernahme vom ARM gescheitert.
Ein 2tes Apple sollte man sich nicht heranzüchten und unterstützen, wenn man sich damit an eine einzelne Firma bindet und auf deren weitere Entwicklung und Preispolitik gebunden ist.
 
  • Gefällt mir
Reaktionen: Mr. Vega
bondki schrieb:
Generellen Verhältnis von über 10:1 für NVidia, ändert auch das nichts.
Das streitet auch niemand ab.

Ändert aber nichts an der Aussage und dem Fakt das es Platz und Interesse an AMD Produkten gibt.

Sei auch deswegen das Nvidia den Bedarf nicht decken kann, wie du sagst.

Oracle nutzt auch schon länger AMDs Epyc CPUs. Vielleicht sind sie einfach auch zufrieden und nutzten deshalb jetzt weiter AMD Produkte. Eventuell auch weil AMD günstiger ist. Aber das ist Vermutung kann genauso stimmen oder nicht wie Deine.
https://www.oracle.com/de/news/announcement/oci-compute-instances-with-amd-processors-2023-06-13/

"AMD wird die Dominanz von Nvidia nicht brechen, die Monopolstellung aber mit sehr großer Wahrscheinlichkeit schon. Zu groß und zu bedeutsam ist der Markt und viel zu groß das Risiko für Unternehmen, Cloud Giganten und die Entwicklergemeinschaft sich in eine komplette Abhängigkeit eines Unternehmens zu begeben AMD wird sich als zweite Wahl im spannendsten Wachstumsmarkt der Welt etablieren können. Das sollte für weitere Kursgewinne ausreichen"

https://thedlf.de/amd-mi100x-vs-nvidia-h100-lasst-die-gpu-spiele-beginnen/

Ich bin gespannt wie es im Pro Bereich weitergeht, noch mehr interessant als der Gaming dGPU Mark.

Ergänzung ()



BxBender schrieb:
Also NVidia kann das Gerede völlig Schnurzpiepegal sein, denn die Desktop-Grafikkarten machen nicht einmal mehr 20% vom Kuchen aus.
So ist es. Völlig richtig.
 
Zuletzt bearbeitet von einem Moderator:
bondki schrieb:
Das ist natürlich schön für Oracle, hat nur 2 Haken.
1) Man geht nnotgedrungen zu AMD, weil NVidias Auftragsbücher aus allen Nähten Platzen und man sich nicht mal eben so mehr Fertigungskapazitäten aus den Rippen schneiden kann
2) Heißt interesse jetzt nicht, dass AMD auf einmal Generationen aufholt. Es heißt nur, dass "irgendwas" besser als "gar nichts" für Oracle ist; auch in Bezug zu 1)
Bei KI-Anwendungen verhält es sich aktuell wie im Gaming-Bereich: AMD bietet objektiv betrachtet wettbewerbsfähige Hardware. Das heißt eine ähnliche Performance wie Nvidia zu einem erschwinglicheren Preis. Über die Softwareunterstützung kann ich aber nicht viel sagen, doch ich vermute auch hier starke Parallelen: OpenSource gegen propritäres Ökosystem.
 
  • Gefällt mir
Reaktionen: Mr. Vega und latiose88
foofoobar schrieb:
Warum soll man das Rad neu erfinden?
Wieso das Rad erfinden, wenn man doch einfach das frei verfügbare Quadrat nehmen kann?
Ist genauso unsinnig.
Es ist und bleibt einfach eine peinliche Nummer von Intel, dass die mit nun bald 30 Jahren 3D-Grafikchiperfahrung seit den 90ern immer noch keine vernünftigen, vollwertigen, eigenständigen Treiber auffahren können.
Und wenn man dann ein externes Übersetzungstool nutzen muss, um die Maschinencodes schneller, besser und fehlerfreier rüberzubringen, das ist echt nicht zu übertreffen und ist einfach ein Eingeständnis der Inkompetenz einer ganzen Abteilung.
Das ist genauso eine Dummdöselei wie das Marketing von Intel von wegen der hohen Effizienz ihrer Prozessoren, dabei sind sie in Tests mal eben bis zu 3 mal schlechter als die Konkurrenz, und das aktuelle Flagschiff gönnt sich im Extremfall mal eben bis zu 550 Watt im Test-PC.
Wieviel "Effizienz"-Cores haben die mittlerweile? 8,12,16 ? Egal.
Intel lebt bei den Prozessoren ja auch nur noch, weil die sich mit AMD damals bezüglich der Nutzung der 64bit Technik geeinigt haben.
Also im Prinzip ist Intel keine so wirklich technisch begabte und innovative Firma, wie man uns immer vorschwärmen möchte.
Ein Markenname alleine reicht noch lange nicht.
 
TigerherzLXXXVI schrieb:
Ich hoffe, dass CB immer Neutralität bei der Berichterstattung wahrt. Soll heißen: es wird nicht einfach leichtfertig eine schlechte Nachricht über AMD veröffentlicht, während bei Nvidia überwiegend gute Meldungen aus einem riesigen Nachrichtenpool herausgepickt werden.

Der war wirklich gut :lol: . Wenn überhaupt, dann ist das genau diametral umgekehrt der Fall. Mir ist das schon oft aufgefallen. Auf anderen (englischsprachigen) Webseiten zum Beispiel News zu AMD-Sicherheitslücken. Bei CB nix.

Aber wenn es zu Intel oder nVidia etwas Negatives zu berichten gibt, dann steht das hier in der Regel sofort am selben Tag.

Ich würde dies übrigens gar nicht mal so sehr der Redaktion anlasten (obwohl man da in den News manchmal auch den "bias" herausliest, wenn bei Intel oder nVidia der Ton sehr polemisch süffisant wird), sondern eher der Community.
Locker 80%+ der User hier sind ja AMD-Fanboys und die schicken natürlich jeden Happen, der Intel oder nVidia in einem schlechten Licht dastehen lassen könnte, sofort an die Redaktion, um den negativen Newsflow zu befeuern.
 
RogueSix schrieb:
Locker 80%+ der User hier sind ja AMD-Fanboys und die schicken natürlich jeden Happen, der Intel oder nVidia in einem schlechten Licht dastehen lassen könnte, sofort an die Redaktion, um den negativen Newsflow zu befeuern.
Zum einen habe ich nur meine Hoffnung ausgesprochen, denn ich kenne die Wahrheit nicht. Das heißt ich habe niemals CB direkt einer Sache beschuldigt.

Zum anderen glaube ich nicht, dass bei CB überwiegend AMD-Fans sind. Das ist wohl nur ein Gerücht. Wenn man regelmäßig bei den GPU-Themen im Forum unterwegs ist wie ich, wird einem das ganz schnell klar: die extrem starke Nvidia-Fraktion hier ist nicht zu übersehen bzw. überlesen... Jeder zweite Beitrag handelt davon, wie überragend Nvidia ist und wie unterlegen AMD.
 
  • Gefällt mir
Reaktionen: cbmik
RogueSix schrieb:
Locker 80%+ der User hier sind ja AMD-Fanboys ...

Wow, einfach mal irgendeine Zahl nach Laune ausgesucht und als Tatsache hinstellen.
 
  • Gefällt mir
Reaktionen: Mr. Vega und Hate01
TigerherzLXXXVI schrieb:
Jeder zweite Beitrag handelt davon, wie überragend Nvidia ist und wie unterlegen AMD.
Könnte auch daran liegen, dass dem so ist. Und nicht mal nicht dem persönlichen Empfinden, sondern rein den Zahlen nach.
 
bondki schrieb:
Könnte auch daran liegen, dass dem so ist. Und nicht mal nicht dem persönlichen Empfinden, sondern rein den Zahlen nach.
Dann hättest du aber hiermit deine eigene Aussage als falsch entlarvt. Von wegen die vielen AMD-Fans (80%...) melden ständig schlechte Nachrichten über Nvidia (und Intel) an die CB-Redaktion, um bewusst den Konflikt zu suchen.
 
Dann kläre mich mal bitte auf, welche Worte du mir hier gerade in den Mund legen willst, die ich nie geschrieben habe?
 
-
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: TempeltonPeck und cbmik
Nikon71 schrieb:
RDNA4 wird nur Mittelklasse.

Wenn es hier schon um Gerüchte an sich geht: das ist auch nur eines...
Komisch es dann so als Tatsache aufzuführen.
 
Ihr habt alle eine sehr merkwürdige selektive Wahrnehmung (na gut... bei AMD Fans auch nicht anders zu erwarten :D ).

Jetzt mal als Beispiel die 12VHPWR Thematik: Der Hauptthread hat da mal eben locker 1027 Kommentare. Dazu kommen in den Follow-Up Threads noch mal 550 Kommentare, 543 Kommentare und 274 Kommentare. Macht zusammen ca. 2400 Kommentare (und vermutlich noch mal 1000, die im Aquarium gelandet sind :D ).
Der Großteil davon nVidia-Bashing vom Allerfeinsten bis hin natürlich zu persönlichen Beleidigungen des CEOs.

Jetzt mal abgesehen davon, dass die Redaktion in einem der Artikel wahrheitswidrig behauptet hat, dass nVidia das Problem ausgesessen habe...

Nvidia selbst saß die Debatte nach einer anfänglichen Äußerung, der Hersteller untersuche die Probleme, weitestgehend aus

^ Das war und ist grober Unfug und eine freche Unterstellung, da nVidia damals Karten der AIBs gesammelt und untersucht haben. Das dauert logischerweise alleine schon wegen der Logistik und der Testverfahren entsprechend lange (siehe auch die YT Videos, wo einige "Influencer" die Kabel regelrecht vergewohltätigt haben und das Problem trotzdem NICHT nachstellen konnten). Gerade eine Hardwareseite wie CB könnte und sollte das wissen.
Aber man wollte sich offenbar einfach gerne an der Stimmungsmache beteiligen. Nun ja. Die Leser hier sind ja schließlich auch (Abo-/Werbe-)Kunden, denen man offenkundig gerne nach dem Mund schreiben wollte und a bissl nVidia-Hetze geht schließlich immer.

Dass da von nVidia zwischenzeitlich keine täglichen Wasserstandsmeldungen rausgehen, sollte klar sein. Ebenso klar sollte es sein, dass man bei einer solch sensiblen Thematik keine voreiligen Schnellschüsse veröffentlicht, sondern erst an die Öffentlichkeit geht, wenn man eine rechtssichere Antwort parat hat.

Man zeige mir mal einen AMD Thread mit ähnlicher Beteiligung. Gibt es nicht. Bei negativen News zu AMD herrscht meist allseits betretenes Schweigen und die Hoffnung, dass der Artikel möglichst schnell von der Frontpage verschwindet.
Beispiel hier: AMD Sicherheitslücke Zenbleed. Gerade mal mickrige 159 Kommentare.

Es ist einfach Fakt: Negative News zu Intel oder nVidia = es gibt keine größere Freude für die CB Community als endlich mal wieder nach Herzenslust auf diese beiden Erzbösewichte eindreschen zu dürfen. Das ist so als würde man eine Herde Säue in ein Piranhabecken werfen. Blutrausch pur. Wer das abstreitet, leidet unter pathologisch relevanten Wahrnehmungsstörungen :) .
 
RogueSix schrieb:
Beispiel hier: AMD Sicherheitslücke Zenbleed. Gerade mal mickrige 159 Kommentare.
Das liegt wohl eher daran,dass viele sich nicht in Gefahr sehen durch solche Lücken solange sie keine Server betreiben.

Weiters ist das Thema mit Lücken in CPUs ein alter Hut, auch wenn immer mal wieder ein neuer Angriffsvector bekannt wird, das ist wie BufferOverflows.
Sowas wird doch meist mit kurzem "Aha, wieder Mal..." Betrachtet.

Bei der Stecker Geschichte war da auch viel Abneigungen gegen den neuen Stecker Formfaktor dabei, und es war was ganz neues.

Aber egal, immer schön andere als Boy bezeichnen (kann's nimmer hören), sowas kommt auch immer von den selben Leuten
 
Zuletzt bearbeitet:
TigerherzLXXXVI schrieb:
Schau dir dazu einfach die regelmäßigen Steam-Hardwareumfragen an. Die meisten Gamer weltweit besitzen aktuelle oder ältere Mittelklasse-GPUs.
Hier geht es doch um die aktuelle Generation, sprich AMD 7000er, NV 4000er Serie.

Vor allem NV hat von der 4090 sehr viele Karten verkauft.
die 4060 ist auf dem letzten Platz, vorlerzter ist 4080.

Platz 3 für die 4090, die teuerste Karte welche ja angeblich kaum jemand kauft.
dicht gefolgt von der 4070Ti und auf Platz 1 die 4070.
 
Zurück
Oben