News Intel-Quartalszahlen: Erwartungen dank des starken PC-Geschäfts übertroffen

@incurable
Also als ich in den 90er Jahren promoviert habe gab es diesen Begriff schon. Und Gattungsbegriffe haben Hersteller erst Recht nicht zu definieren. Da kommt nur Schmu bei raus.
 
CadillacFan77 schrieb:
alle anderen sind teilweise steinalte Generation bis zurück zu Ryzen 6000
SteinALT? Mobile Ryzen 6000 sind Zen 3 oder meinetwegen Zen3+ Kerne, also das zweitNEUeste was es gibt!

CadillacFan77 schrieb:
habe ich ein Yoga 7 Pro mit 5800HS. Super Gerät, gibt nix auszusetzen. Mit dGPU
Ich frage mich warum man in eine APU noch eine dGPU reinsteckt, außer man braucht wirklich die Power und den dedizierten VRAM zum Zocken. Aber eine GeForce MX450 laut Signatur? Das ist ein TU117 Chip der GeForce GTX 1650 und soll ein bisschen schneller als eine GTX 1050 sein.
Nicht wahnsinn, aber ok, Spielchen laufen bestimmt deutlich besser auf der dedizierten MX450 als auf der integrierten Vega 8 die keinen VRAM hat sondern den System RAM und dessen im vergleich zu VRAM bescheidene Speicherbandbreite auch noch mit der CPU teilen muss.

Zum letzten Teil: Stimme ich voll zu! Leider gibts sehr wenige Geräte. Unerwartet nachdem es mit spätestens mit Zen 2 Renoir APUs (Ryzen 4000) bergauf ging und es mit den Zen 3 APUs (5400/5600/5800) schon so viele AMD Modelle gab wie noch nie.
Vermutlich wegen mangelnder Attraktivität (Preise und Menge an lieferbaren Chips - oder dass trotzdem noch AMD geräte übrig blieben und die OEMs diese zu den summer sales verscherbeln mussten) oder weil Intel, für die der Laptopmarkt ja IHR Geschäft sind, mit Massen an Chips zu attrativen Konditionen an gewissen Abnahmegrößen attraktiver ist.

Wie auch immer: Bei der Menge an benötigten Chips könnte AMD nichtmal den halben Notebookmarkt mit Ryzen APUs beliefern. Zen 3 CPU Kerne oder neuer vorausgesetzt (7720er mit Zen 2 Kernen, selbst wenn günstig, braucht trotz immer noch guter Leistung und guter Energieeffizienz heute niemand mehr neu.
Und dass obwohl ich so ein Einstiegsnotebook erst vor Monaten auf dem Tisch hatte. War erstaunlich flott, nur das Display war Müll, aber was willst du bei Geräten unter 500€ erwarten. War ein Lenovo V14/15 oder sowas glaube ich, bei HP wäre das die HP 250/255er Serie).
 
Zuletzt bearbeitet:
GPU ist ein Gattungsbegriff, weil er zwar auf Sonys Mist gewachsen ist, aber industrieweit Verwendung findet.

Wer außer AMD verwendet aktuell APU für Prozessoren dieser Zusammenstellung? Wer verwendete APU dafür als AMD den Begriff irgendwann zwischen 2005 und 2008 einführte? Wer verwendete APU dafür "lange [da]vor"? (Deine Behauptung, ohne Not)

Ist Dir das nicht mal peinlich, eine für Deine Behauptung 4+ Jahre zu alte Präsentation zu einem Hilftriebwerk (!) zu verlinken?
 
Ich gehe mal kühn davon aus, dass Du bisher keine Verwendung des Begriffes "APU" für eigene solche Produkte bei den von Dir herangezogenen Intel und Apple gefunden hast.
 
Intel wollte seine inzwischen eingestampften HPC APUs als XPU bezeichnen. Intel würde ja den Mangel an eigener Innovation offensichtlich machen, in dem sie eine von AMD geprägte Bezeichnung übernehmen würden.

Bei den Clientprozessoren hat sich Intel hat lange Zeit auf iGPUs beschränkt, die für Officeanwendungen ausreichten. Leistungsstarke iGPUs sind erst mit der Zeit hinzugekommen. Einen besonderen Namen hat Intel nicht verwendet.

Die Intel Fanboyz sind ja schier ausgeflippt als Meteor Lake in den Phoronix Benchmarks schneller war Phoenix. Also gibt es großes Interesse an Prozessoren, die eine CPU und eine leistungsfähige GPU vereinen.

Alle von Apple hergestellten Prozessoren vereinen CPU und GPU. Für Apple ist es wichtig hervorzuheben dass die Prozessoren von Apple sind. So heißen sie entweder Apple Chip oder Apple SoC. Außerdem verkauft Apple Geräte und keine Chips.

Man kann nur über Konzepte diskutieren, wenn man Ihnen einen Namen gibt. Das Konzept CPU mit leistungsfähiger iGPU verbreitet sich im Notebookmarkt immer stärker. Die Luft für die kleinen dGPUs wird im Notebook immer dünner. Auf Dauer werden sich nur sehr leistungsfähige dGPUs für Gaming Notebooks oder mobile Workstations halten. Also für Anwendungen bei denen man das enge Powerbudget eines mobilen Computers bewusst sprengt.

Du bist mir noch schuldig was die offizielle Bezeichnung für das ist, was AMD als APU bezeichnet.

Apropos:
https://www.computerbase.de/2023-03...ht-rialto-bridge-und-setzt-auf-falcon-shores/

Zweites Wort zweiter Absatz.
 
War inzwischen nicht die Rede davon, dass AMD selbst wieder vom Begriff "APU" weggegangen ist? Hab jedenfalls sowas gelesen dieses Jahr (weiss aber nicht mehr wo, wahrscheinlich irgendein anderes Techforum). Also so wirklich passend scheint der Begriff nicht zu sein. Für mich bleibt es in Zukunft daher auch nur "iGPU". Da weiss jeder was gemeint ist.
 
Zuletzt bearbeitet:
Smartbomb schrieb:
SteinALT? Mobile Ryzen 6000 sind Zen 3 oder meinetwegen Zen3+ Kerne, also das zweitNEUeste was es gibt!
Technisch sind die natürlich schon ok. Aber willst Du wirklich ein neues Notebook kaufen (welches man 4 Jahre oder so nutzt) und dann schon ne 2 Jahre alte CPU Gen drin haben, wenn es bereits zwei neuere gibt?
Ich würde auch keinen Intel 11th Gen mehr kaufen.

Es zeigt aber das Problem m.M.n. sehr gut: Es gibt schon ein paar AMD Notebooks. Aber eben sind die nur semi-geil. Sprich Du kannst schon AMD haben, aber halt vielfach mit CPUs von vor 3 Jahren. Wäre ja kein Problem, wenn diese CPUs in irgendwelchen günstigen Notebooks verbaut würden (wie Du es erwähnt hast). Aber sie werden parallel in dem Mittel/Oberklasse Modell von Lenovo verbaut. Und dann auch noch wild gewürfelt (es gibt das "aktuelle" Yoga ja mit Rzyen 6000, 7735 (defacto ja gleich) und 7840. Bei Intel sind aktuell alle auf Gen 13.

Das macht Intel halt eben besser, darum haben sie auch das gute Image bei den 0815 Kunden. Und AMD verpennt es, ihre aktuelle technische Überlegenheit sinnvoll in Strahlkraft umzuwandeln. Ausserhalb der IT Blase meine ich.

Smartbomb schrieb:
Ich frage mich warum man in eine APU noch eine dGPU reinsteckt, außer man braucht wirklich die Power und den dedizierten VRAM zum Zocken. Aber eine GeForce MX450 laut Signatur? Das ist ein TU117 Chip der GeForce GTX 1650 und soll ein bisschen schneller als eine GTX 1050 sein.
Nicht wahnsinn, aber ok, Spielchen laufen bestimmt deutlich besser auf der dedizierten MX450 als auf der integrierten Vega 8 die keinen VRAM hat sondern den System RAM und dessen im vergleich zu VRAM bescheidene Speicherbandbreite auch noch mit der CPU teilen muss.
Naja, die Vega 8 hier ist halt schon sehr lahm, spielen geht eigentlich kaum damit. Auch wenn, finde ich es persönlich besser wenn sich der Strombedarf auf zwei Komponenten aufteilt, das ist einfacher zu kühlen und besser zu steuern. So habe ich in Games eigentlich immer volle CPU und GPU Leistung, würde ich die Vega 8 nehmen ginge ein Teil der TDP dafür drauf.

Habe ja gedacht mit Phoenix sind wir so weit, dass eine dGPU für mich obsolet wird. Leider kommt die 780M auch nur auf ca. 30% mehr Performance. Eine 4050 mobile ist ein ganz anderes Kaliber.
 
  • Gefällt mir
Reaktionen: Smartbomb
CadillacFan77 schrieb:
Und AMD verpennt es, ihre aktuelle technische Überlegenheit sinnvoll in Strahlkraft umzuwandeln. Ausserhalb der IT Blase meine ich.
Da stimme ich dir vollkommen zu (zum Rest übrigens auch).
AMD ist sich dessen sicher bewusst.
In meinem Post habe ich ein paar Szenarien beschrieben, warum das wohl so ist.
Würde mich wirklich interessieren, wie es in Wirklichkeit ausschaut!
Nachdem offenbar Waferfläche für Mobile Ryzen 5000 zur Verfügung stand, ists jetzt für Phoenix 7840/7640 U/HS nicht (mehr) der Fall? Ich mein, klar, neuerer process node, aber bleibt beben den 8-core Chiplets (für Server und CPUs) wirklich nichts mehr übrig? Rest alles Konkurrenz?

Dass die kleineren, energiesparenderen Plattformen (Mendocino, Barcello, etc) noch laufen ist eh ok - das betrifft eine TDP Klasse unter Phoenix bzw 5600/5800U/H.

Sicher, würde AMD sowas wie Intel Evo haben und viele Geräte mit Phoenix(1) 7640/7840 U/HS kommen, dann würde das genau diese Strahlkraft erzeugen.

Es ist nur: AMD als "Minifirma" kämpft an allen erdenklichen Fronten und gehen die Goliaths Intel und NVidia.
Die haben glaub ich nicht die Möglichkeit überall vollgas zu geben.
AMD muss Geld verdienen und ist seit Jahren am Schuldenabbau.
Wenn die mit Server Plattformen und -CPUs viel mehr verdienen und eine weit größere Marge haben als mit Laptop CPUs/APUs, dann ist der Fall wohl klar.
Hätte AMD dies alles nicht, würden sie wohl ihre Ganze Energie dann in den Laptop Markt stecken können.

Ist wie bei Servern: AMD muss konstant über Jahre Produkte und Support liefern, die besser oder mindestens gleich gut sind wie Intel UND attraktiver für die OEMs.
Also 1.) preislich und 2.) Plattformtechnisch.
Kein OEM baut für ein paar AMD Geräte eine neue Plattform, validiert sie usw.
Die Boards + CPUs und alles solllen halt wenn möglich 1:1 in bestehende Geräte passen. Da wird statt dem Intel Board mit alles drum und dran (CPU, RAM, etc aufgelötet) dann halt das AMD Board eingebaut. Alles andere bleibt gleich, Kühlung etc.
Und das günstiger, weil neue Verpackung, extra bewerben, extra den Händlern verkaufen damit die das auch nehmen und selbst verkaufen können etc.
Das ist über die Jahre hinweg VIEL Zeit und Aufmerksamkeit, aka Geld und manpower.
Server ditto! Und mit den Server Plattformen haben sie (AMD) zuerst begonnen einen Fuß in die Tür zu bekommen und das zahlt sich erst seit den Zen 3 Epycs wirklich aus.
Und AMD lässt nicht locker, denn die Konkurrenz schläft nicht (außer Intel mit Sapphire Rapids), ARM kommt immer mehr, Amazon und Apple machen ihr eigenes Ding, KI Zeug kommt…
Apropos: in den nächsten Microsoft Geräten wird wohl AMDs Hawk Point (also 7840 Phoenix(1) mit mehr AI) stecken, weil mehr TOPS usw.
Mal schauen wie es da weiter geht.
Zudem werkln sowohl AMD als auch Intel angeblich an eigenen ARM Versionen.

Es bleibt spannend.
Außer im Grafikkartenmarkt, wo die Preise immer noch lächerlich sind.
 
  • Gefällt mir
Reaktionen: CadillacFan77
franzerich schrieb:
War inzwischen nicht die Rede davon, dass AMD selbst wieder vom Begriff "APU" weggegangen ist?
Ich weiß nur, dass AMD die Desktop Ryzen Prozessoren explizit nicht als APUs bezeichnet.

Dass die Bezeichnung APU für AMD immer mehr als Bedeutung verliert wird, ist aus verschiedenen Gründen offensichtlich
  • AMD wird große Probleme bekommen, wenn sie erklären wollen dass Phoenix eine APU ist aber Meteor Lake keine. Jetzt wo auch Intel leistungsstarke iGPUs anbietet entfällt das Alleinstellungsmerkmal.
  • AMD konnte den potentiellen Vorteil der APU nur bei den Spielkonsolen auf die Straße bringen. Bei den PCs war APU ein leeres Marketingvehikel, da die APUs nur sehr eingeschränkt fürs Gaming interessant waren. In Anwendungen blieb die Rechenleistung der iGPU ungenutzt. Hardware, die von der Software nicht unterstützt wird, bringt eben nichts.
  • Koprozessoren für AI sind inzwischen viel sexier als eine langweilige iGPU.
Aber es geht nicht um die Verbreitung der Bezeichnung APU, sondern um die Verbreitung des Konzeptes das AMD mit APU bezeichnet hat.

franzerich schrieb:
Also so wirklich passend scheint der Begriff nicht zu sein. Für mich bleibt es in Zukunft daher auch nur "iGPU". Da weiss jeder was gemeint ist.
Das sehe ich ein bisschen anders.

iGPU und APU haben unterschiedliche Bedeutungen​

iGPU ist eine integrierte GPU. Meist lag die Funktion eher beim Ansteuern von Bildschirmen und den De- und Encodern. Die Leistung der Shader war über lange Zeit sehr begrenzt.

Die APU ist ein Prozessor der CPU und GPU vereinigt. Bei der GPU ging es von Anfang an um die Leistung der Shader. AMD hat über Jahre Prozessoren mit relativ leistungsstarken iGPUs oder Prozessoren ohne iGPU angeboten. Auch deshalb steht APU für viele für einen Prozessor, der auch ordentlich 3D-Leistung anbietet.

Auch die Intel iGPUs wurden in der letzten Zeit immer leistungsfähiger und haben sich dem Konzept das AMD als APU bezeichnet immer mehr angenähert.

Im übrigen sind sich alle einig dass die MI300A eine APU ist, aber nur wenige kommen auf die Idee hier von einer iGPU zu reden. Hier wäre eigentlich GPU mit iCPU viel passender.

Das Konzept und die Grenzen​


Das Konzept CPU + leistungsfähige GPU auf einem Die oder in einem Package, ermöglicht es dass die CPU und GPU auf denselben Speicher zugreifen. Es ist sogar möglich dass CPU und GPU auf denselben Last-Level-Cache zugreifen. Dadurch müssen weniger Daten bewegt werden was schnellere Übergabe der Tasks zwischen CPU und GPU ermöglicht und den Verbrauch reduziert.

Dieser Vorteil kommt bei HPC und vielen Anwendungen von GPGPU zum Tragen.

Bei Games spielt das keine Rolle. Das sieht man auch daran, dass sowohl Nvidia als auch AMD bei den dGPUs auf PCIe 5.0 verzichten und PCIe 4.0 bei den kleinen GPUs dafür verwenden, das PCIe-Interfache von 16 auf 8 Lanes zu reduzieren.

Auf dem PC taugen die APUs nur zum Spielen. Deshalb bringt die enge Kopplung von CPU und GPU keinen Vorteil. Es bleibt der Vorteil dass ein Chip oder Package beides beinhaltet. Das bringt
bei einem kleinen Powerbudget oder bei begrenzten Raum Vorteile gegenüber einer Kombination aus CPU und GPU aus diskreten Chips.

Das Problem ist, dass eine leistungsfähige GPU mehr Bandbreite benötigt als man über ein 128-bit-DDR-5-Speicherinterface bereitstellen kann. Das limitiert die Leistungsfähigkeit der iGPU. Sobald sehr kompakte Bauweise keine Anforderung ist und das Power Budget größer wird, können dGPUs die höhere Bandbreite dank separaten Grafikspeicher ausspielen.

D. h. die APUs sind im PC durch die beiden DDR5-Kanäle limitiert. DDR5 ist zwar besser als DDR4, aber während der Zeit ist auch die Bandbreite der dGPUs gewachsen.

Es fällt auf, dass die ersten Leaks zu den Intel Notebookchips ab Meteor Lake auf sehr große GPUs hingedeutetet haben. Sie wären viel mehr APU gewesen als alles was AMD bisher im PC-Markt als APU angeboten hat. Je näher die Releases rücken, desto mehr Schrumpfen die Angaben zu den GPUs.

Umsetzungen​

Spielkonsolen​

Die Spielkonsolen verwenden GDDR-RAM für den Hauptspeicher. Damit hat die GPU der APU genügend Bandbreite. Der Vorteil ist hier der einfache Systemaufbau.

Apple​

Apple hat das bei den Apple Silicon Macs sehr elegant gelöst, in dem sie den Speicher On Package neben der APU platzieren. On Package sind die Kosten*) eines breiten Speicherinterfaces zudem erheblich geringer als wenn das Speicherinterface auf dem Mainboard implementiert werden müsste.

Da Apple LPDDR5 verwendet, kommen sowohl die CPU als auch die GPU mit dem Hauptspeicher zurecht. Apple M Max und vor allem Apple M Ultra sind genau das, was die ganzen APU-Fans seit Jahren herbeisehnen. Natürlich nennt das Apple nicht so, alles was für Apple zählt ist zu zeigen, dass sie Apple Silicon verwenden.

Aber im Grunde hat Apple nur das für den Mac übernommen, was seit Jahren bei den iPhones üblich ist. Mit der Einführung der M1 Macs ist der Absatz von Apple überproportional gewachsen. Es wird interessant sein, wie sich die Verkaufszahlen der Macs weiter entwickeln. War der Starke Zuwachs bis Mitte 2022 nur der Umstieg auf Apple Silicon, oder hat Apple tatsächlich mehr Marktanteil?

*) Apple geht hier als Systemhersteller den Weg der Systemintegration weiter als es die PC-Anbieter können. Der Weg mehr Funktionen in die CPU zu packen war der Treiber für die sinkenden PC-Preise. Man sollte die hohen Preise der Macs nicht mit hohen Kosten verwechseln. Das was Apple in die SoCs steckt holen sie locker auf Systemebene wieder rein.

Mobil Phone SoCs​

Bei den Mobilphones und Tablets sieht man seit vielen Jahren nur noch SoCs mit CPU mit leistungsfähiger GPU. Das entspricht dem Konzept einer APU, auch wenn es niemand so bezeichnet. Einer der Gründe warum es niemand als APU bezeichnet ist, dass die Mobilphone SoC inzwischen viel weiter gegangen sind. Sie alle haben NPUs. Dank der NPUs und der AI-basierten Software liefern die Mobil Phones tolle Bilder.

Es war schon witzig wie sehr AMD "X86" betonen musste, um die AIE als Neuheit zu verkaufen. Wie üblich rennt der PC einem Trend hinterher.

Niemand bezeichnet ein Mobil SoCs als APU. Aber genauso wenig bezeichnet jemand ein Mobil Phone SoC als CPU. Die CPU ist nur noch einer von mehreren Prozessoren.

HPC APU​


AMD hat das Problem mit der Speicherbandbreite bei der MI300A ebenfalls sehr elegant gelöst. AMD hat 128 GByte HBM3e dazugepackt. Bei HPC-Anwendungen ist eine APU der beste Ansatz. HBM ist hier Standard und die Kosten des Advanced Packaging können hereingeholt werden. Die Mehrleistung resultiert auch dadurch, dass die Energie die beim Verschieben der Daten gespart wird, für das rechnen bereitsteht.

Es ist abzusehen, dass in HPC- und AI-Anwendungen der Hauptspeicher per Hybrid Bonding auf den Prozessoren gestapelt wird.

AI Anwendungen laufen hauptsächlich in der GPU ab, die Kommunikation mit der CPU ist nicht so wichtig wie bei HPC Anwendungen. Deshalb dominieren hier GPU*s. Deshalb bietet AMD für AI-Anwendungen die MI300X an.

Grundsätzlich wird in diesen Applikationen die CPU eher zum Beiwerk der GPU.

*) Auch wenn bei den meisten AI-Algorithmen AFAIK die Hauptarbeit auf dem Matrix- bzw. Tensor-Cores liegt. Auch hier haben wir das Problem, dass sich die Hersteller nicht auf eine Bezeichnung einigen konnten.

Bittere Ironien​

Apple​

Apple bietet genau das an, was APU-Fans seit Jahren von AMD erwarten.

Mit seiner Premiumstrategie sabotiert Apple schon seit dem Release des Macs einen wirklichen Erfolg.

Gescheiterte Visionen​

Die Übernahme von ATI, das in Folge entstandene Fusion-Konzept und die APU als Produktkategorie wurde eigentlich von Intel ausgelöst. Intel hat IIRC damals so viel zu Integration von CPU und GPU erzählt, dass AMD glaubte die Lücke an GPU-Know-How durch den teuren Kauf von ATI schließen zu müssen.

Alle Projekte, die Intel damals initiiert hat, sind im Sande verlaufen. Es gab ein paar Zwischenerfolge aber letztendlich hat sich gezeigt dass Intel den falschen Ansatz gewählt hat.

AMD hatte nach dem Kauf von ATI über viele Jahre nicht die konsequente Führung die erforderlich gewesen wäre, die Vision Fusion auch tatsächlich umzusetzen. Alles was AMD in punkto GPGPU-Software unternommen hat war halbgar. In Anwendungen liegt die GPU der APU brach.

Der lachende Dritte​

Nvidia musste, da sie vom X86-Markt ausgeschlossen wurden, alles auf die GPU setzen. Und das haben sie konsequent gemacht. Nvidia hat mit CUDA eine Schnittstelle zum Programmieren von GPGPU-Software etabliert. Nvidia hat die GPUs im Datacenter etabliert und damit im großen Stil Rechenkapazität von den CPUs auf die GPUs gezogen. Den Trend zu AI hat Nvidia in den letzten Jahren konsequent befeuert und ausgenutzt.

Und alle die sich einreden die Zahlen Intel waren gut, sollten sich nächsten Monat Mal die Quartalszahlen von Nvidia ansehen.

Bittere Wahrheiten​

Die CPU verliert an Bedeutung. Daran haben sowohl AMD als auch Intel zu knappern.

X86 ist dabei zur Nische zu werden. Wenn es AMD und Intel zulassen, dass Qualcomm Arm-PCs etabliert , wird es für AMD und vor allem für Intel ungemütlich.

-------------------------------

incurable schrieb:
"Eine APU oder XPU, wie Intel sie nennt"
Hast Du genügend Deutschkenntnisse, um die Bedeutung des Satzes zu verstehen?
incurable schrieb:
Also sind wir uns einig, dass APU ein AMD-Begriff ist, den so kein mir/uns bekannter Konkurrent für eigene Produkte verwendet?
  1. Ich habe wiederholt deutlich gemacht, dass es mir um das Konzept "APU" und nicht um die Bezeichnung "APU" geht.
  2. Wenn Intel und Apple Chips herstellen, die vom Konzept her APUs*) sind, bleiben sie APUs auch wenn sie vom Hersteller nicht als solche bezeichnet werden. Intel war ja auch nicht in der Lage ihre DPUs als DPU zu bezeichnen. Nein Intel musste sie als IPU bezeichnen. Wenn man technologisch hinterherhinkt muss man wenigstens bei den Bezeichnungen innovativ sein. Oder die Lachnummer mit den Tiles. Alle Welt redet von Chiplets. Nur Intel und Intel Fanboyz verwenden "Tiles", wenn sie von Chiplets reden.
  3. Wenn Du Wortspalterei betreiben willst, solltest Du wenigstens den Unterschied zwischen Bezeichnung und Begriff verstehen.
incurable schrieb:
Dann können wir das Ganze hier gern als nachvollziehbares Missverständnis zu den Akten legen.
Es geht hier nicht um ein Missverständnis, sondern Du verweigerst Dich einer sinnvollen Diskussion in dem Du dich auf Bezeichnungen zurückziehst.

Du weißt Haar genau, dass es mir nie um den Namen (Bezeichnung) ging, sondern immer um das Konzept (Begriff). Es muss für Intel-Fanboyz ziemlich schmerzhaft sein, dass Intel hier ein Konzept von AMD übernimmt.

Intel hat das Konzept übernommen, weil sie erkannt haben, dass sie damit Nvidia aus großen Teilen des Notebookmarktes verdrängen können.


*) Du bist mir immer noch schuldig wie die offizielle Bezeichnung einer Kombination von CPU mit leistungsstarker iGPU auf einem Chip oder in einem Package ist.
 
  • Gefällt mir
Reaktionen: Smartbomb
Zurück
Oben