News Details zum Intel-Nvidia-Deal: Ein GB10 mit x86 zu erwarten, Intels eigene GPUs bleiben

Quidproquo77 schrieb:
Konsolen beherrscht bis auf die Switch quasi AMD, auch bei Handhelds ist das mehr oder weniger ein "Monopol", nur dort ist es für dich kein Problem, da heißt es dann "halbwegs agieren".
Naja, AMD verkauft keine Konsolen. Sie verkaufen nur Komponenten dafür. Für den User ist das relativ transparent. Der Markt macht dort auch nicht AMD, sondern Sony, Nintendo, Steam und Konsorten.
Wenn AMD dort zu teuer oder zu wenig innovativ wird, wechselt einer der Hersteller halt. Da dort nicht auf Kompatibilität geschaut werden muss (ausserhalb des PS / Nintendo / Steam Systems) ist das ein Problem des OEMs und nicht des Endkunden.

Wenn nVidia & Intel zusammen spannen ist die Gefahr den x86 Markt zu monopolisieren durchaus gegeben. Im x86 Markt hat nVidia auf GPU Seite bereits über 90% Marktanteil und Intel bei den CPUs über 70%.

Das ist natürlich schlecht für Endkunden wie uns, wenn diese Zustände weiter zementiert werden oder irgendwelche proprietären Technologien zum Standard werden. x86 hat eben den Vorteil, dass es für viele Hersteller offen ist und Endkunden unendlich Möglichkeiten haben. Wenn diese Flexibilität wegfällt, dann hast Du irgendwann keine Alternativen mehr.
 
  • Gefällt mir
Reaktionen: Alesis und eXe777
Den besseren Deal meiner Meinung nach hat nVidia gemacht - mit dem Zugriff auf x86.

Alleine hier im Forum dürfte es so etliche geben, die einen Gaming PC "made by nVidia" gerne zuhause hätten.

Würde mich auch nicht wundern, wenn die dann eine eigene Abwandlung eines 3D Caches in einer Variante dann bringen würden.
 
Garack schrieb:
gibt es sympathische unternehmen, Apple ? Google? VW ?
AMD ist mit momentan symphatisch, da FSR 4 auf RDNA 3 ganz gut läuft.😜
Meiner 7900XT wurde so neues Leben eingehaucht.
 
Ltcrusher schrieb:
Würde mich auch nicht wundern, wenn die dann eine eigene Abwandlung eines 3D Caches in einer Variante dann bringen würden.
Das hatte Intel doch schon auf irgendwelchen Server CPUs. Das ist keine Erfindung von AMD. AMD hatte nur damals schon mit den K-III CPUs als erstes viel Cache in den Consumer Bereich gebracht. Damals noch L3 Cache on DIE. Das war meines Wissens was Neues.
So oder so, man darf gespannt sein, was kommen wird. Schlecht finde ich das Ganze nicht. Warum auch. AMD ist auch nicht wirklich günstiger. Im CPU und Mainboard Bereich sind die Preise auch bei AMD ziemlich angezogen. Im GPU Segment, naja, würde AMD nicht kontinuierlich Marktanteile verlieren, würde man die Preise auf das selbe Niveau setzen wie Nvidia. Warum soll man auch günstiger sein?
 
Vielleicht denke ich falsch.. aber lieber etwas Support bzw. Kooperationspartner für Intel (... um sich gesund zu stoßen) anstatt weiter Talfahrt... Nicht weil ich Intel liebe... ganz im Gegenteil: Ich bin (ebenfalls) von der mangelhaften Kommunikation zum 13th/14th -Gate angefressen... Aber Konkurrenz belebt ja das Geschäft (mit Blick auf AMD) und "dämpft" bestmöglich die Preise.
 
@DiePalme ich meinte damit nVidia, mit dem 3D Cache in einem potentiellen x86.

Einen L3 Cache hatte Intel auch schon beim Sockel 1150 mit dem Broadwell.
 
Screenshot 2025-09-19 164908.png
 
  • Gefällt mir
Reaktionen: Alesis, Alphanerd, Erzherzog und 3 andere
GOOFY71 schrieb:
AMD ist mit momentan symphatisch, da FSR 4 auf RDNA 3 ganz gut läuft.😜
Meiner 7900XT wurde so neues Leben eingehaucht.
Äh, AMD hat das zurück gehalten und von GitHub abgezogen und das findest du sympathisch? OK....
 
DevPandi schrieb:
Wie jetzt? Letztens kam von dir der Vorwurf, dass die hier die News zu JPR nicht aufgegriffen wurde und an den Zahlen ja was dran sein muss
Ja warum sollten die denn nicht hinkommen? Äpfel und Birnen. Das sind alle dedizierten GPUs die in PCIe Slots gesteckt werden, natürlich auch Pro GPUs für Workstations und auch Rechenzentren, die mit Gaming erstmal gar nichts zu tun haben. Ich rede hier ja von einem expliziten Gaming-Einsatz, da ist AMD natürlich stärker als 5-6%. Vielleicht 15%, oder auch 20-30%, weiß keiner so genau.
DevPandi schrieb:
und wir AMD Fanboys
Naja, so habe ich das nicht gesagt. Kann man ja nachlesen. Könnte ich nun auch in Frage stellen "mit welchen Mitteln" du arbeitest.
DevPandi schrieb:
Und an welcher Stelle nennen ich denn bitte 94 %?
Ja, korrekt, die Zahl hast du nicht genannt. Waren > 85%. Aber das ist wie schon gesagt in deiner Betrachtung genauso wenig ein Problem wie AMDs Dominanz im Konsolen oder APU Bereich.

Und ich sehe dort wie gesagt eben schon Effekte sie dem Kunden zu Gute kommen würden wenn eine weitere Lösung aus Intel und Nvidia zur Verfügung stände.

DevPandi schrieb:
Es ist aber schön, dass du nun für alle sichtbar darlegst, wie du diskutierst und du sogar vor unlauteren Mitteln wie Aussagen zu verfälschen nicht zurück schreckst, nur damit du irgendwie recht hast.

Als ob dies mit Absicht passiert wäre.
Ich gehe halt in einen Thread und lese 100x die eine Scheuklappen-Perspektive wie schlimm das alles werden soll und formuliere dann eine Gegendarstellung.

Ich sehe halt nicht wirklich inwieweit eine Zusammenarbeit von Intel und Nvidia nun so schädlich sein soll, wenn AMD die besten X86 CPUs und sehr gute GPUs aus einer Hand anbieten kann und Intel bzw. Nvidia bei ihren Produkten sich erst einmal einigen müssen. AMD hat hier doch die Vorteile in der Hand.

Und für Ki kommt von AMD schon was.
 
DiePalme schrieb:
Das hatte Intel doch schon auf irgendwelchen Server CPUs. Das ist keine Erfindung von AMD.
Intel hat damals um der iGPU Beine zu machen, bei den Notebook Chips einen L4-Cache als SRAM-Baustein eingeführt. das waren sogar 128 MiB. Das gab es auch schon bei Haswell. War dann in der Regel am "Iris Pro" zu erkennen. Die gab es dann ab Haswell.
DiePalme schrieb:
Damals noch L3 Cache on DIE.
AMD K6 hatte den L2-Cache on Die. Intel hatte beim Pentium Pro den L2-Cache als kleinen Baustein
Ltcrusher schrieb:
Einen L3 Cache hatte Intel auch schon beim Sockel 1150 mit dem Broadwell.
L3-Cache hatte Intel und AMD sogar bereits deutlich früher. Bei Haswell und Broadwell kam ein L4-Cache ins Spiel. Das hat ja bei den 5775C und Co auch damals gezeigt, dass es die Effizienz auch der CPU erhöht.
 
  • Gefällt mir
Reaktionen: Alesis, DiePalme und konkretor
TheInvisible schrieb:
Äh, AMD hat das zurück gehalten und von GitHub abgezogen und das findest du sympathisch? OK....
Wohlfahrtsunternehmen sind hier in der Regel woanders zu suchen, das ist richtig. Jedenfalls hätte ich mir fast eine 5070Ti bestellt, da FSR3 wirklich schlecht im Verhältnis zu den anderen Upscalern aussieht. So gut wie eine 9070XT auch sein mag, von der Spieleunterstützung fährt man mit Nvidia besser, auch bei älteren Games. Nun stellt sich auch noch die Frage, ob INT8 durchgerutscht ist oder die breite Community als Betatester fungieren soll.
Letzten Endes werde ich erstmal meine 7900XT behalten, da der offizielle AMD FSR4 Treiber sicherlich noch kommen wird. Spätestens jetzt steht AMD hier unter enormen Druck. Meistens erreiche ich mit meiner 7900XT um die 90% der fps mit FSR4 im Vergleich zu FSR3. Da die Karte noch eine hohe Rasterleistung hat, wäre das verschmerzbar. Das denken sicherlich viele 7900XT/XTX User ebenfalls hier. Aber das nur am Rande...
 
  • Gefällt mir
Reaktionen: Alphanerd
Klingt für mich wie ein Gamechanger im Silicon Valley Style. Intel bringt seine x86-Power, Nvidia haut die GPU-Magie drauf. Perfekt für High-Performance-Workloads. Für AI-Entwicklung ist das pures Gold. Mehr Rechenkerne, optimierte Speicheranbindung und massiv parallele Verarbeitung in einem Paket. Training von LLMs, komplexe Inferenz Jobs oder Echtzeitanalyse könnten damit deutlich schneller und effizienter laufen. Wenn die Roadmap hält, sehen wir bald Hardware, die AI-Stacks von Grund auf beschleunigt und zwar nicht nur im Datacenter, sondern auch on the edge.
 
DevPandi schrieb:
AMD K6 hatte den L2-Cache on Die. Intel hatte beim Pentium Pro den L2-Cache als kleinen Baustein
Oh, du hast recht. War zu lange her, ich dachte tatsächlich, dass es schon L3 Cache war. Dabei war ich damals stolzer Besitzer eines vollwertigen AMD K-III 400.
DevPandi schrieb:
Intel hat damals um der iGPU Beine zu machen, bei den Notebook Chips einen L4-Cache als SRAM-Baustein
Ich meine das Intel bei einer Server CPU schon sowas in der Art wie den 3DCache hatte. Also auch in Bezug auf den Aufbau des Caches. Aber das ist tatsächlich nicht so ganz mein persönliches Thema.
 
  • Gefällt mir
Reaktionen: Alesis
Ich sehe am x86-CPU-Markt und GPU-Markt jetzt kein Monopol, aber es ist ein Oligopol bzw. Duopol, da es eben nur Intel und AMD (VIA hat iwie auch noch ne Lizenz aber die haben eigentlich nichts mehr zu vermelden) bzw. nVidia, AMD und bei GPU seit ner Weile Intel gibt.

Durch die Fabriken ist Intel auch noch ein Stück weit vertikal integriert.

Von daher finde ich es sehr bedenklich dass diese beiden Größen, auch wenn Intel zum Teil ordentlich am Straucheln ist, nun die Köpfe zusammenstecken...
 
Alles wenn und aber hängt letztendlich davon ab, dass Intel endlich die Produktion in den 20er und 18er-Strukturen gebacken bekommt. Nvidia kann ja auch weiterhin beim zuverlässigen TSMC produzieren lassen, und dort wird auch trotz des Deals auch weiterhin der Großteil hergestellt.
 
CadillacFan77 schrieb:
Wenn nVidia & Intel zusammen spannen ist die Gefahr den x86 Markt zu monopolisieren durchaus gegeben.
Die ist viel mehr bei AMD gegeben, da diese X86 CPU und GPU aus einer Hand bieten können.
CadillacFan77 schrieb:
Im x86 Markt hat nVidia auf GPU Seite bereits über 90% Marktanteil und Intel bei den CPUs über 70%.
AMD hat die letzten Jahre aber sukzessive zugelegt. Im Serversegment stand AMD bei unter 1% Marktanteil.
CadillacFan77 schrieb:
Das ist natürlich schlecht für Endkunden wie uns, wenn diese Zustände weiter zementiert werden oder irgendwelche proprietären Technologien zum Standard werden.
Aus welcher Perspektive man es halt betrachtet. Ich glaube nicht, dass Kunden grundsätzlich von einem ausgeglichenen Marktanteil profitieren, Kunden profitieren wenn dann von mehr Anbietern und gegenseitigem Konkurrenzkampf. Ein großer Marktanteil von AMD (GPUs) hat nicht dazu geführt, dass AMD innovativ war. Innovativ waren AMD GPUs als AMD mit der RTG mit dem Rücken zur Wand stand.
Deshalb begrüße ich auch die Zusammenarbeit von Intel und Nvidia. Daraus könnte eben durchaus ein Mehrwert entstehen.
TheInvisible schrieb:
Äh, AMD hat das zurück gehalten und von GitHub abgezogen und das findest du sympathisch? OK....
Es gibt keine Beweise, dass AMD diese Implementierung zurückhält. Sowas dauert halt.
 
Portal501 schrieb:
Wie,aktuell hat AMD das Monopol im CPU Bereich. Nicht umsonst kosten die CPUs so viel. Von AMD. Aber bei euch CBlern wundert nichts mehr. 🤦

Und genau hier zeigt sich beispielhaft wie wichtig Investitionen in den Bildungssektor sind.
 
Portal501 schrieb:
Wie,aktuell hat AMD das Monopol im CPU Bereich. Nicht umsonst kosten die CPUs so viel. Von AMD. Aber bei euch CBlern wundert nichts mehr. 🤦
Wie kommst du darauf, dass AMD ein Monopol im CPU Bereich hat? Marktanteil liegt aktuell bei 27-28%, der Rest ist Intel. Im Serversegment steht AMD noch viel schlechter da. Allerdings haben sie es hier geschafft, zumindest Marktrelevant zu werden. Im Mobilen Bereich kommt AMD gar nicht voran.
Wo bitte hat AMD also ein Monopol?
 
  • Gefällt mir
Reaktionen: eXe777
RalofSturm schrieb:
War mir bis eben gar nicht klar, dass das US-Unternehmen sind. Ich weiß, vom Boss aus sollte man nicht auf alle schließen, aber hatte mir bis eben gerade darüber noch nie Gedanken gemacht. Hab "Intel" und "Nvidia" gerade mal gegoogelt ^^ Ich dachte, die sind alle wie Samsung aus Südkorea - Upss xd
Du kannst dir ganz pauschal merken, jeden Namen den du im Zusammenhang mit -im weitesten Sinn- IT, PC, Computing, Gaming Computer, soziale Medien usw liest, sind US-Firmen.

Sie beherrschen quasi die Welt.

Die USA bräuchte keine Atombombe. sie bräuchten nur den ganz großen Schalter umlegen und die Welt ist duster. Komplett nicht mehr lebensfähig.

Ohne die USA liest du hier nicht einen Buchstaben.
 
  • Gefällt mir
Reaktionen: RalofSturm und Alesis
Zurück
Oben