News PC-Grafikchips: AMD und Nvidia erobern Marktanteile von Intel

Hallo @ all,

eigentlich sagen diese Zahlen überhaupt nichts aus. Letztendlich geht es darum, daß immer weniger Desktops und Laptops abgesetzt werden. Denn die APUs zählen schließlich mit. Ginge es nur um dedizierte GPUs hätte Intel sonst keine Bedeutung. Der Grund dafür daß Intel Marktanteile verliert ist Intel selbst. Denn durch ihre Monopolstellung, haben sie für eine technische Stagnation im Bereich Desktop gesorgt. Man darf es Intel auch kaum übel nehmen. Warum zig Milliarden mehr in die Forschung & Entwicklung reinpumpen, wenn es KEINE Konkurrenz gibt? Wenn sich aber eine CPU-Generation z.T. nur 5-7% von der vorherigen unterscheidet, statt 50-150% wie früher, gibt es kaum einen Grund aufzurüsten.

Neuere Techniken (wie z.B. USB 3.1) werden auch extrem spät nativ unterstützt, so daß hier ein weiterer Grund zum aufrüsten entfällt. Und gerade im Highend-Sektor (2011) tut sich immer langsamer etwas. Daß die Highend-Plattformen von Intel der Mainstream-Plattformen bald zwei Generationen hinterhinken ist ein Armutszeugnis und das direkte Ergebnis alleiniger Marktherrschaft.

Das Problem ist aber auf Kundenseite leider nicht zu lösen. Wenn man Highend/Leistung haben will, dann gibt es einen 5960x, noch teurere XEONs und sonst absolut nichts. Und nicht jeder kann/will Verzicht üben.
 
Vindoriel schrieb:
Nee, die Fanboys (überwiegende Spezies bei Intelbase) und "Benchmarkbalkenlängenmesser ohne Verstand" sorgen eher dafür, dass AMD zu wenig verkauft.
AMD sorgt letztendlich mit ihren Produkten/Werbung/Preisen dafür dass AMD zu wenig verkauft. :rolleyes:
Immer den ominösen Fanboys die Schuld zu geben ist schön einfach, was? :freak:
 
Zugegeben, ich bin jetzt nicht so der "jedes Jahr ne neue GraKa Käufer".
Ich kauf mir seit ~16 Jahren immer mal ne neue GraKa weil die alte meinen anforderungen nicht mehr genügt.
Aktuell ist es halt noch immer ne GTX770.
In anbetracht der Spiele die ich derzeit spiele, sieht es auch nicht danach aus das sich in nächster Zeit etwas daran ändert.(primär Vanilla WoW in 4k und 8xFAA, altes Spiel eben)
Eher limitiert da die CPU(PhenomII 945 x4 auf 3,3GHz).

Aber selbst wenn das nicht bei durchgehend 60fps rennen würde... eine deutlich schnellere Graka kostet über 300€. Das ist mehr als ich bereit bin für einen leistungssprung von 20-30% bereit bin zu zahlen. Da wäre eine schnellere CPU(+Board..etc) eher sinvoll, auch für mein Hobby(Fotografie). Allerdings finde ich die CPU Preise derzeit auch zu hoch gegriffen(Intel), bei AMD schauts im moment eher düster aus mit CPUs(ein FX bringt mir einfach keinen nennenswerten Leistungszuwachs).

Man Merkt einfach seit ~3 Jahren das die Konkurrenz fehlt. Beim Preis als auch bei der Leistung.
 
Krautmaster schrieb:
wäre bereits 2017, könnte das durchaus sein, heute eher weniger.
http://www.pcgameshardware.de/Grafi...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
~25-30 % OC nich mit einberechnet.

Stand heute seh ich da keine Ausgeglichenheit in dem Segment GTX 980 TI. Drunter, bei der R9 390 (X) - spricht deutlich mehr für die AMD Modelle. 8GB sei Dank.
Die Schlacht gewinnt Nvidia zur Zeit aber viel eher durch die kleinen Modelle mit hoher Marge wie die GTX 960.

Danke für den Link ,dessen Inhalt Du nicht richtig interpretieren kannst. Das sind Prozentangaben und keine Absolutwerte. Du kannst sowas nur verwenden und eine Tendenz zu erkennen, mehr auch nicht.
Ich hab das was ich meine mal graphisch deutlich gemacht (ganz eff, aber reicht)
Unbenannt1.PNG

Und mal ein paar fps Werte zum direkten Vergleich, und da ist CoDAW dabei, wo die Fury richtig abstinkt. Und das Performance-Rating spricht für sich. Und sag jetzt bitte nicht, so einem Test auf AMDbase kann man nicht vertrauen... ;)
CrossFire.PNG
Ergänzung ()

Nacho_Man schrieb:
AMD sorgt letztendlich mit ihren Produkten/Werbung/Preisen dafür dass AMD zu wenig verkauft. :rolleyes:
Immer den ominösen Fanboys die Schuld zu geben ist schön einfach, was? :freak:

Für Dich eine Gute-Nacht-Geschichte :D
Es war einmal ein Dorf in dem es 2 Schreiner gab, die Stühle herstellten. Der eine, ein alter Tausendsassa, kannte quasi das ganze Dorf. Dem Anderen, ein ruhiger Geselle, wurde hingegen kaum Beachtung geschenkt. Dieser aber stellte mit geringeren Mitteln Stühle her, die genauso gut, teils besser waren und gab diese günstiger her. Das stank dem Tausendsassa, und er erzählte Jedem im Dorf, das seine Stühle doch die Besseren seien, und er großzügigen Rabatt gewährt, wenn man gleich sein ganzes Haus mit dessen Stühlen austatten würden. Natürlich alles hinter der Hand im Verborgenen, es soll ja niemand ahnen, was er da treibt.
Viele Jahre strichen durchs Land und Alle waren überzeugt, die besten Stühle im Haus zu haben, bis der Bürgermeister eine Ahnung davon bekam was vorgefallen war, und er verdonnerte den betrügerischen Schreiner zu 100 Talern Strafe. Der Alte hatte jedoch über die ganze Zeit zig tausende Taler verdient und lachte sich ins Fäustchen...

Eine Mitteilung wurde verfasst, und ganz weit unten am unteren Rand des Haupttors angeschlagen, so das die meisten Dorfbewohner garnicht erst erfuhren, was passiert ist. Jedermann waren immernoch überzeugt davon, daß die Stühle des Ruhigen, weniger stabil und aus billigstem Holz gefertigt waren, und sowie vollkommen unbequem und tatsächlich unbrauchbar waren und sie trotz des günstigeren Preises keine entsprechende Qualität erbrächten. Und weil jeder Zweite im Dorf sich für einen hochqualifizerten Möbelkenner hielt, wurde die miese Qualität immer und immer wieder bestätigt, wenn sich die Experten unterhielten.
Nur wenige, die mal Aufmerksam auf die unteren, kaum sichtbaren Anschläge am Haupttor blickten und sich darauf hin die Stühle beider genau in Augenschein nahmen, stellten fest daß diese sich im Alltagsgebrauch nicht unterscheiden und die Stühle des Neuen nur etwas knirschten wenn sich der dicke Wilhelm mit seinen 300 Pfunden darauf setzte.
Aber Mehrheit des Dorfes wollte das nicht wahrhaben, Nein, sie wollten keine Stühle die knirschen wenn der dicke Willhelm sich setzt (auch wenn sie diesen niemals in sein Haus einladen würden)

Dem Schreiner, dessen Verdienst ausblieb und der Ruf für lange Zeit geschädigt war, obwohl er Stühle in guter Qualität zum günstigen Preis anbot, litt sehr, denn ihm fehlten die Mittel für neue, noch bessere Stühle, denn er konnte das. Ideen hatte er zu Hauf. Auch beim Geldverleiher hatte er kein Glück, denn dieser meinte, er solle erstmal bessere Stühle bauen, die sich auch verkaufen lassen.
Und so trug sich die Lüge fort und fort, bis der arme Schreiner starb. Der Betrüger stellte noch viele Jahre seine Stühle her, mit minderer Qualität zum doppelten Preis. Und alle im Dorf weinten bitterlich..... :heul::heul::heul::heul:

Schlaf schön weiter!
 
Zuletzt bearbeitet:
dass Fury mit 4K zulegt liegt ja auch daran, dass die AMD Karten im GPU Limit ihre brachiale Rohleistung besser umsetzen können, kein Geheimnis. Deswegen bricht natürlich eine Fiji Karte in 4K auch weniger ein, bzw. legt gegenüber Nvidia meist zu.
Deswegen war ich eig. immer der Annahme, dass die Fury X noch an der GTX 980 TI (non OC) vorbeimarschieren kann, mit DX12, neuen Engines die auch in FHD mehr abverlangen usw...

Im Prinzip bleibt es Ratespiel. Stand heute bietet über weite Strecken die GTX 980 TI das bessere Paket, was sich aber wie gesagt ändern kann. Ne Fury X mit 8 GB wäre generell deutlich besser positioniert.

Ging ja nur um die Aussage von PongLenis
Kommt halt auf die Auflösung an. Wenn du noch mit Handyauflösung spielst, dann ist die 980 TI natürlich die bessere Wahl. Mit der Fury X bist zu bei 4k halt oft besser dran, als mit deiner 980 TI, und das obwohl sie weniger gekostet hätte.

Die Karten sind generell so nah aneinander, dass die eigentliche Kaufentscheidung eher auf andere Faktoren verlagert wird, weniger dem Balken selbst der sich non OC in 4K um +-5% unterscheiden mag. Die einen mögen ein kürzeres PCB , die anderen eher OC Potential, 2 GB VRam mehr und HDMI 2.0... man kann da nicht pauschal kaum sagen "greif zu der oder der Karte". Bei mir war die Tendenz eher gegen GTX 980 TI
 
Genau das zeigt doch aber, dass die GTX 970 mit 3,5 GB RAM deutlich zu wenig hat.
Mit der Fury X bist zu bei 4k halt oft besser dran, als mit deiner 980 TI, und das obwohl sie weniger gekostet hätte.
...ohne Worte......also wenn Du da die Argumentationslücke nicht erkennst, dann kann Dir wohl keiner mehr helfen!

Davon ab, in den aktuellen Test der letzten Wochen sahen die Fury-Modelle ziemlich mies aus.

Topic:
Ich glaube der Fehler bei Intel liegt daran, dass sie die wirklich starke, interessante iGPU immer nur in den Top-CPU-Modellen verbauen!
Ich möchte wetten das Gelegenheitsgamer die keine dedizierte GPU kaufen wollen oder können, auch nicht die Top-CPU kaufen sondern wohl eher was in der Mitte oder sogar nur Einsteiger-CPUs.

Ein weiterer Grund ist natürlich das Intel immer noch schlechtere Treiber als die Wettbewerber liefern!
 
Jesterfox schrieb:
Nein, wer aufgrund rationaler Abwägung zu dem Ergebnis kommt ist kein Fanboy. Die schlimmen sind diejenigen die nur weil die 980Ti und Titan xyz so gut abschneiden jeden davon zu überzeugen versuchen eine nVidia zu kaufen, egal was dem seine Anforderungen sind und dann noch mit dem Stromargument kommen was wenn man es durchrechnet gar nicht so viel ausmacht und für ein Hobby eher irrelevant ist. (außerdem wars ihnen bei der GTX480 auch egal...)

Das selbe kann man auch auf CPUs übertragen, im low und mid cost Bereich kann AMD durchaus mit interessanten Modellen punkten.

Ich finde hier im Forum ist eher das Gegenteil der Fall. Als meist neutraler Mitleser erkenne ich hier eine eindeutige Tendenz zur Dämonisierung von NVIDIA- und Heiligsprechung von AMD-Produkten. Es werden z.B. im PC-Zusammenstellungsthread fast ausschließlich AMD-Grafikarten empfohlen und von NVIDIA Produkten abgeraten, wenn der Threadersteller diese in seiner Konfiguration vorsieht. Und dann ist da dieses immer noch vorhandene Bashing auf die GTX970 wobei tonnenweise Tests bereits bewiesen haben, dass die beschnittene Speicherbandbreite so gut wie keinen Einfluss auf die Leistung hat.
Wäre Intel bei den CPU's nicht wirklich haushoch den AMD-Produkten überlegen, so würde ich jede Wette eingehen, dass auch auf Intel eingeschlagen werden würde.
 
Die Überschrift "AMD und NVidia erobern Marktanteile von Intel" ist eine Lachnummer:

Intel produziert keine dedizierten Grafikkarten! Da kann man nix wegnehmen! Eine prozentuale Senkung von Null bleibt Null.
Der Absatz von iGPUs steigt bei AMD und auch bei Intel. Hier ist NVidia der Nuller.

Da heißt es auch nicht: "AMD und Intel stehlen NVidia Marktanteile".
Wo nix ist, kann man nix stehlen.


Intel hat mit einer Reduktion von iGPUs zwischen Q2 und Q3 zu kämpfen.
Dies "könnte" an einem Verschieben bei den iGPUs zu AMD hin liegen. Könnte, muss aber nicht, das geben die Zahlen nicht her.
Da aber fast alle CPUs von Intel neuerdings iGPUs enthalten, kann es auch eine generelle Absatzentwicklung bei den CPUs sein.
Das kann am sinkenden PC-Verkauf liegen und an den Abwanderungen zu mobilen Devices (ARM).

Die Steigerungen AMD/NVidia von Q2 auf Q3 hängen mit den erhöhten dedizierten Grafikkartenverkäufen zusammen (oder einfach nur mit deren Preis).
Eine verkaufte 980TI oder eine FuryX macht nunmal 10-15 Lowendkarten aus. Ich weiß, die Upperclass wird prozentual weniger verkauft als der Mainstream.
Weiter nicht verifizierbar.

Bei AMD hängt die leichte Steigerung zwischen den Quartalen auch mit der Steigerung der iGPUs zusammen (irgendwie, ggfls. nur wenig, kann man den Zahlen nicht entnehmen).

Zwischen den Jahren steigt der Marktanteil (!) Intel und NVidia, der von AMD sinkt.
Aber Marktanteil (!) ist NICHT Umsatz!
Gesamtmarkt ist immer 100%, egal wie hoch der Gesamtumsatz ist.

In den Tabellen sind UNTERSCHIEDLICHSTE Datengrundlagen und Zeiträume:
Einmal ist es die Absatzentwicklung Q2-Q3! Heisst das die ANZAHL der verkauften Einheiten ODER der GESAMTPREIS?
Dann heisst es Marktanteil 2014-2015 (wird der Marktanteil am Finanzumsatz oder an der Anzahl der verkauften Einheiten bemessen?).

Solange die Datenbasis nicht identisch oder wenigstens durch Übersetzungstabellen vergleichbar sind,
ist jede Statistik was für den Rundordner.

Hier wurden einfach Infos ohne Basis weitergegeben.
Der Rest sind alles Spekulationen.
 
Zuletzt bearbeitet: (Typos)
@Wishbringer:
Irgendwie denkst du an den Tatsachen vorbei...
Der Bezug auf die Marktanteile beinhaltet ALLE verkauften Grafikkarten, unabhängig ob dediziert oder eben nicht. Und da ist Intel eigentlich "der" Big Player, weil dem geneigten Käufer dieses miese Stück Technik aufgedrängt wird, ob er nun will oder nicht...
Jetzt mal ehrlich, wie oft suchen die Leute nach einer Intel CPU und stellen frustriert fest, dass die ungeliebte iGPU nahezu unvermeidbar mitgekauft werden muss...
AMD rennt hier also tatsächlich Marktanteile ab, weil die Käufer derzeit hauptsächlich zu einem AMD-Produkt (APU) greifen, weil sie keine dedizierte GPU wünschen. Die Leistung eines Core i ist da ja bekanntermaßen eher ungenügend, wenn man nicht nur Word darstellen will...
 
Zuletzt bearbeitet:
PongLenis schrieb:
Kommt halt auf die Auflösung an. Wenn du noch mit Handyauflösung spielst, dann ist die 980 TI natürlich die bessere Wahl. Mit der Fury X bist zu bei 4k halt oft besser dran, als mit deiner 980 TI, und das obwohl sie weniger gekostet hätte.

Von DX12 fange ich lieber erst gar nicht an.

meinst weil die nachlade ruckler vom vram grüppel so abgehen?

evtl ma die rote brille runter und die letzten paar games anschauen wie die fury da abkackt!

dx12 kannste schauen die 2 games wo es giebt ist die 980ti auch schneller.

ausser dem etwas besseren preis spricht aktuell alles dagegen eine fury x zu kaufen.
kein hdmi 2.0 zu wenig vram


zum thema immer hin verkauft amd ein wenig mehr karten denk ma die 390x und die 380 dürften da die zugpferde sein.

allerdings gesamt markt ist amd langsam auf dem weg der cpu sparte.

nächstes jahr muss das relabeln aufhören und amd muss was auf den tisch hauen.
 
EchoeZ schrieb:
Für Dich eine Gute-Nacht-Geschichte :D
Es war einmal ein Dorf ...............

Eine schöne und wahre Geschichte.
Ich freue mich auf Zen, und hoffe 2016/2017 wieder leistungsstarke AMD CPU's kaufen zu können.
 
@_Cloud_
Bitte nicht falsch verstehen, aber dein Text ist eine Katastrophe...
Bei Schreibschwächen kann es helfen, wenn man den Text erst einmal in Word oder so schreibt und die Korrektur verwendet. Das macht es dann für andere deutlich lesbarer.

Zu dem Inhalt: Es ist immer die Frage, welches Spiel man betrachtet und es lassen sich daher keine pauschalen Aussagen treffen... letztlich ist es derzeit so, dass je nach persönlicher Aufstellung mal nVidia und mal AMD besser ist, im Grunde tun sich beide aber nix.
Wenn man aber alle Test quer liest, hat PongLenis nicht unrecht. Zwar hat nVidia in der Regel bei den Top-FPS die Nase vorn, jedoch brechen die Karten bei höherer Auflösung und Last stärker ein, als die Radeon.

Das betrifft auch das "auf den Tisch hauen"... AMD ist ständig im Minus und bringt dennoch Produkte, die sich nicht verstecken müssen und punktet mit Innovationen... was meinst du, was die erst können, wenn die mal Geld rein bekommen...
Es ist leider das gleiche Spiel wie bei der Jobsuche... um einen zu bekommen musst du 28 Jahre alt sein mit 30 Jahren Erfahrung... daher auch "Daumen hoch" für die Gute-Nacht-Geschichte von den beiden Tischlern... ;)
 
PongLenis schrieb:
Genau das zeigt doch aber, dass die GTX 970 mit 3,5 GB RAM deutlich zu wenig hat.

Die Zahlen sehen jetzt nicht so schlecht aus, scheint langsam wieder in den Köpfen der Leute anzukommen, dass man bei AMD deutlich mehr fürs gleiche Geld bekommt, bzw. je höher die Auflösung ist, desto überlegender sind sie.

AMD hat einfach wie schon vor 10 Jahren am meisten mit den irrationalen Käufern aka Fanboys zu kämpfen.

Aber überlege mal wie lange es die 970 schon gibt und wie lange die 390 mit 8GB! Die 970 etwas über ein Jahr mittlerweile. Da hatte keine Graka mehr als 4GB gehabt außer ein paar spezielle. Die 970 hat ihr Geld eingebracht und war es auch wert für die gebotene Leistung. Meine 980 ist bis ans Limit übertaktet und ich spiele immer noch ganz oben mit und sogar auf UHD. Wenn Volta kommt geht es da weiter.
 
Krautmaster schrieb:
~25-30 % OC nich mit einberechnet.

Natürlich nicht, sonst würde sie ja mehr verbrauchen als die Fury X.
Und das darf, speziell bei dir und deiner ausschließlich Einseitigen Meinungsmache, niemals zur Geltung kommen ;)

@News
Merci für die Info, sehr interessant!
Bin mir leider sicher dass keine Konsolen APUs von AMD in die Statistik mit einbezogen wurde, sonst würde die komplett anders aussehen :D

mfg,
Max
 
Zuletzt bearbeitet:
@Lübke82: Vor allen Dingen zu wenig wofür?
Für Megatexturen? Ja.
Für 4K und gut aufgelöste Texturen? Ja.
Für FullHD mit normalen Einstellungen in halbwegs gut programmierten Spielen? Nein.

Da ist eher die Frage was ich von meiner Grafikkarte erwarte. Es gibt für jeden Topf nen Deckel.
 
Natürlich nicht, sonst würde sie ja mehr verbrauchen als die Fury X.
Und das darf, speziell bei dir und deiner ausschließlich Einseitigen Meinungsmache, niemals zur Geltung kommen
...dieses AMD-Mantra hört man immer häufiger das die nVidia Pendanten mit OC mehr verbrauchen als AMD ohne OC - ja, ist auch so, aber bitte nicht vergessen, dass sie dann auch eben um das OC-Potential schneller sind!

Und bitte, jetzt nicht das Argument das man die 390(x) (Fury geht ja nicht) ja auch noch übertakten kann - ja, geht manchmal, aber dann wird es bei der Stromaufnahme völlig absurd! Einfach mal in die Threads OC bei AMD R9 290 schauen was da gemessen wurde - abartig!
https://www.computerbase.de/forum/threads/der-r290-x-overclocking-thread.1278690/#post-14868237

Na gut, ich hoffe auch wirklich das AMD mal wieder was gutes bringt - ich hatte eigentlich vor dieser nVidia fast immer AMD / ATI - und dann nicht bei der Preisgestaltung über das Ziel hinaus schießt wie mit der Fury-Serie!

Klar muss es rentabel sein, aber man kann eben auch nicht mit einer vermeintlich guten Graka-Serie die Verluste von Jahren hereinholen wollen!
So kriegt man keine Marktanteile zurück.......
 
Da gönne ich dem betrügerischen Tischler, dass er mal wieder sowas wie die 5800 Ultra ("Fön") rausbringt und AMD Nvidias Highendkarten fast schon deklassiert.
Und binner weniger Monate wollen alle nur noch AMD...
 
BlackWidowmaker schrieb:
Der Grund dafür daß Intel Marktanteile verliert ist Intel selbst. Denn durch ihre Monopolstellung, haben sie für eine technische Stagnation im Bereich Desktop gesorgt.
Ich glaube eher, dass der Grund ist, dass die Prozessoren bei weitem ausreichen. Ich sitze hier an einem PC mit einem A8-6500 und hatte noch nie das Problem einer CPU Limitierung (ich war zwar sicher mal bei irgendwas am CPU Limit, habe es aber nie als Problem empfunden). Einige Sachen können einfach nicht mehr als flüssig laufen. In der Uni hingegen die Rechner ruckeln teilweise, wenn man in Word etwas tippt.
Für alle, die nicht gerade die neuesten Spiele spielen wollen, reichen 4 Jahre alte Prozessoren einfach noch aus und es besteht kein Grund zum Aufrüsten. Es sind nicht alle Enthusiasten, die immer den neuesten Prozessor "brauchen".

nschlichtmann schrieb:
eine eindeutige Tendenz zur Dämonisierung von NVIDIA- und Heiligsprechung von AMD-Produkten. [...] dass die beschnittene Speicherbandbreite so gut wie keinen Einfluss auf die Leistung hat.
Nehme ich dir nicht übel, da du noch nciht so lange dabei bist. Es gab einmal Zeiten, als NVidia die wirklich sehr guten GTX neu auflegte und AMD zwar ein Rohleistungsmonster raus brachte, dass aber zunächst nicht seine Leistung ausspielen konnte (8800 GTX vs HD2900). Zu dieser Zeit gab es die 8600 GTS in 2 Varianten. Eine mit 320MB VRam und eine mit 640MB VRam. In diversen Tests wurde immer wieder festgestellt, dass die 320MB VRam durchaus ausreichten. Das Problem war nur: kurz darauf kamen Spiele auf, die mit der 640MB Variante noch super spielbar waren, mit der 320MB Variante aber nicht mehr. Damals haben sich dann viele Käufer der 320MB Variante geärgert, dass sie auf die kleinere Version gesetzt haben um ein ganz paar Euro zu sparen.
Auf Grund solcher Erfahrungen tendieren viele dazu, dass sie lieber die etwas größere Version empfehlen, da sie wissen, dass man lieber jetzt 20€ mehr ausgibt, als ein Jahr früher als Geplant wieder 250€.

Zu Heiligsprechung von AMD/Nvidia: Das variiert sehr stark von Generation zu Generation. Interessanterweise sind auch die Argumente der Fanboys von Generation zu Generation andere. Bei der Thermie war vielen Nvidia Fanboys der Stromverbrauch vollkommen egal, während er später oft von den gleichen Leuten den AMD Grafikkarten vorgehalten wurde. Das gleiche Spiel gab es anders rum bei der HD2600 vs 8600 GTS, wobei damals die HD2600 etwas verschrien wurde, da der große Bruder nicht die Leistung der 8800GTX erreichte.

@Topic: In der 1. Tabelle mit der Unterscheidung zwischen iGPU und dGPU fehlt meiner Meinung nach noch der Hinweis, dass es sich um Änderungen zum Vorquartal und nicht zum Vorjahr handelt.
 
Zuletzt bearbeitet:
In der Statistik wird ja zwischen iGPU und dGPU unterschieden - dabei sind das mittlerweile doch getrennte Märkte da in den meisten verkauften CPUs eben iGPUs drin sind. Somit ist das für die meisten Käufer ja gar keine oder-Entscheidung.
 
Zurück
Oben