Die glued together Bezeichnung stammt ursprünglich von AMD, es ist egal wie oft man es umgekehrt wiederholt, es stimmt nicht, dass das von Intel "erfunden" wurde, sondern kam von AMD über den Core 2 Quad und wurde Jahre später als Retourkutsche verwendetBlueSkies schrieb:die "glued together" Bezeichnung hat Intel gegenüber AMD gemacht, und das mehrmals.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Intel Clearwater Forest im Detail: 12 × 24 schnellere Kerne mit großem L3-Cache à la X3D
Wenn du dafür eine Quelle hast, revidiere ich gerne meine Meinung. Meines Wissens hat AMD dies nie gesagt. Das kam von Intel, und Intel wurde anschließend Heuchlerei vorgeworfen, weil sie damals den Qore2Quad zusammengeklebt haben.adfsrg schrieb:Ja, und zwar um sich über AMD lustig zu machen, weil der Spruch ursprünglich von denen kam.
Objektiv betrachtet nur TSMC. Die ersten Ryzen waren ja trotz TSMC in der Praxis schlechter als die Intel. Und zuletzt waren die Ryzen nur mit dem Cache beim Gaming besser.heroesgaming schrieb:Im Prinzip kann man die Technologie nicht nur AMD, sondern muss sie zusätzlich auch TSMC zuschreiben
Selbstverständlich kann man das vergleichen, weil es im Prinzip ja das gleiche ist: Mehrere Dice in einer CPU.heroesgaming schrieb:Nicht ansatzweise vergleichbar mit eigenen Lösungen und bedeutend weniger elegant als heutige Multi-Die-Produkte.
Auch das kann man vergleichen: Mehr Cache in der CPU.heroesgaming schrieb:Broadwell nutze eDRAM als L4(!)-Cache auf demselben Package wie die CPU, jedoch nicht auf der CPU selbst. Ebenfalls nicht ganz vergleichbar mit den Stacked-Lösungen von heute.
K3ks
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 13.756
Der Spruch kam von AMD: Beim ersten Phenom der ja deutlich hinter dem Q2D zurücklag würde der rausgehauen.
->adfsrg schrieb:Will endlich wieder nen neuen Rechner, aber ich mag AMD nicht. Die sind mir super unsympathisch.
😅😓😡K3ks schrieb:https://www.computerbase.de/news/netzpolitik/eu-wettbewerbsverfahren-intel-bittet-um-zeit.20287/
https://www.computerbase.de/news/wi...-intel-zu-1-06-millarden-euro-bussgeld.24914/
https://www.computerbase.de/news/wi...rdenstrafe-wegen-strittiger-rabatte-ab.79495/
https://www.computerbase.de/news/wi...uro-wegen-wettbewerbsverzerrung-zahlen.85595/
usw.
- Registriert
- Juli 2021
- Beiträge
- 3.705
Kurze Antwort: Nein.adfsrg schrieb:Das mit dem Cache hatte Intel schon bei Broadwell.
Lange Antwort: Nein, denn ersten war es nicht Broadwell, bei dem Intel diese Lösung als erstes nutze und zweitens ist die Lösung von Intel damals eine ganz andere gewesen und war auch ebenso anders aufgebaut.
Den eDRAM als zusätzliche Cache-Stufe - L4 - hat Intel bereits bei Haswell eingeführt und sollte damals primär der iGPU Beine machen. Es waren 128 MB eDRAM und war neben dem Chip als eigener Cache-Baustein. Alle iGPU mit Iris Pro bei Haswell und Broadwell hatten diesen Baustein. Broadwell brachte das nur in den "Desktop", weil die dedizierten CPUs von Broadwell dank Problemen in der 14nm Fertigung nicht mehr gekommen sind und direkt von SkyLake abgelöst wurden.
Die zweite Generation des Pentium-D griff auch bereits auf zwei Dies zurück, die kommunizierten nur - wie auch der Core 2 Quad über den Front Side Bus - FSB - und verfolgten damit sogar ein vollständig anderes Konzept.adfsrg schrieb:In einer CPU mehrere Dice hatte Intel ja schon damals bei den Core2Quad.
Eine "richtige" CPU mit mehreren Dies gab es allerdings auch schon lange davor: Pentium Pro. CPU-Kern als Die, der L2-Cache als andere Die, die entsprechend im Gehäuse verdrahtet werden mussten. Eine damals teure Angelegenheit.
Führte dann zu dem Konzept, dass man den L2-Cache als SRAM-Baustein auf eine Platine setzte - Pentium 2, erste Athlon Generation.
hardcoreCHENGO
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.241
Ist doch am Ende von der Leistung her im Desktopbereich (Gaming) eh alles egal wenn man qHD+ aufwärts spielt 
in UHD merkt man doch von dem extra Cache quasi nichts und eine 170€ CPU lastet eine High-End GPU genau so gut aus xD
in UHD merkt man doch von dem extra Cache quasi nichts und eine 170€ CPU lastet eine High-End GPU genau so gut aus xD
Es gibt wohl keine CPU-Serie, bei der das Thema Gaming weniger passt, als Intels Forest-Xeons...hardcoreCHENGO schrieb:Ist doch am Ende von der Leistung her im Desktopbereich (Gaming) eh alles egal wenn man qHD+ aufwärts spielt![]()
Das könnte doch Intel wieder machen ich war mit dem Q6700 von 2008 bis 2014 sehr zufrieden.BlueSkies schrieb:Mal davon ab dass mein Kommentar eher ironisch und nicht als Kritik gedacht ist, die "glued together" Bezeichnung hat Intel gegenüber AMD gemacht, und das mehrmals. Und der Core2Quad war in der Tat das Ergebnis von zwei zusammengeklebten Dies, AMD hat sich darüber aber nicht lustig gemacht. Da hast du wohl einiges verwechselt.
Ich frag' mich ja immer, warum wir als Menschen echt so leicht manipulierbar sind. Als wäre Intel im Gamingmarkt inexistent oder unbrauchbar. Tatsächlich ist Intels 265er und 285er ja eigentlich super fürs Gaming, nur knapp hinter einem X3D... aber dafür genial fürs Arbeiten. Einem 9700X klar voraus, das zeigt Intel baut gute Prozessoren, AMD hat halt noch zusätzlich den 3D cacheHagen_67 schrieb:Als jemand, der seit 2018 nur AMD- CPUs verbaut, freut mich diese Nachricht. Hoffe Intel kann dann auch beim Desktop- Gamen wieder Land gewinnen.
https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/2/
Blau sind Spiele
'Xander
Lt. Commander
- Registriert
- Juli 2005
- Beiträge
- 1.720
Bereits beim Pentium D Presler😉adfsrg schrieb:Was hat denn Intel hier von AMD abgekupert? In einer CPU mehrere Dice hatte Intel ja schon damals bei den Core2Quad. Da hat AMD die spöttisch als "glued together" bezeichnet. Das mit dem Cache hatte Intel schon bei Broadwell.
Volker schrieb:Mit Clearwater Forest geht Intel jetzt den AMD-Epyc-Weg: Statt zwei große Dies gibt es 12 kleinere CPU-Tiles mit jeweils 24 Kernen in sechs Clustern zu 4 Kernen mit geteiltem L2-Cache.
Die Topologie ist aber sehr anders als als AMDs aktuelle Epycs, am ehesten noch mit AMD Naples von 2017 vergleichbar.
AMD hat seit Zen2 ein Hub and Spoke system mit uniformer Speicher- und IO/O Latenz. Dadurch können sie quasi ohne große Nachteile einen single NUMA node anbieten. Ein einzelner Core ist aber auf 32MB bzw. 96MB L3 Cache begrenzt, größere Workloads spillen in den DRAM.
Intel dagegen hat 3x4 Channel DDR5, 3x L3 Caches und komplett unterschiedliche I/o Latenz pro Corecluster. Dafür fassen sie den L3 je nach Node zusammen und können so theoretisch bei workloads mit exrem großen worksets gut abschneiden. Die scheint es aber bisher kaum zu geben.
Im unified Numa node Modus dürften Speicher- und L3 Latenzen bei Intel jenseits von gut und Böse sein. Granite Rapids der bereits diese 3fach Aufteilungaber nur 128Cores benutzt sah hier schon richtig schlecht aus: https://chipsandcheese.com/p/a-look-into-intel-xeon-6s-memory
Mit 288Cores und nochmal jede Menge Die to Die connections wird das sicher nicht besser werden. Der Traffic Overhead auf dem NOC wird bei so vielen Teilnehmern gewaltig sein.
Wie bei Granite Rapids wird man wohl zumindest SNC3 benutzen müssen und die Software optimieren um an die volle Leistung zu kommen.
Zuletzt bearbeitet:
Eher mit MI300. Den gibt es ja auch als reine CPU, und da hat AMD 4 Base-Dies mit Cache und Speichercontroller, und auf jedem davon 3 CCD gestapelt.davidzo schrieb:Die Topologie ist sehr anders als als AMDs aktuelle Epycs, am ehesten noch mit AMD Naples von 2017 vergleichbar.
input_iterator
Lt. Junior Grade
- Registriert
- Jan. 2010
- Beiträge
- 260
heroesgaming schrieb:Im Prinzip kann man die Technologie nicht nur AMD, sondern muss sie zusätzlich auch TSMC zuschreiben, die entsprechend fertigen können. Intel konnte beides bisher nicht.
Die Idee selber und das erste kommerzielle Produkt was daraus entstanden ist, gehen auf die amerikanische Firma Ziptronix zurück. Diese Firma entwickelte (mit Hilfe von Universitäten und Forschungsinstituten) und pattentierte das DBI Verfahren. Wie es dann so läuft wurde die Firma dann aufgekauft und die betreffenden Firmen hatten dann das DBI-Hybrid-Bonding Verfahren dann in der Industrie weitervermarktet. Bevor AMD die Technik in ihren Prozessoren eingesetzt hatte, wurde das Verfahren schon in 3D Nands, Bildsensoren, in Masse eingesetzt.
Da sind ungefähr 20CPUs ausgeblendet, ja, ich habe mich vor allem Mal auf den Spiele Vergleich konzentriert und vor allem interessiert hier der Vergleich Intel vs AMD, wenn es heißt AMD wäre bei Spielen so voraus.Araska schrieb:@BAR86 : G'hört das so, daß du den 9950X3D geflissentlich ausgeblendet hast?![]()
Tatsächlich ist man ohne Cache langsamer als Intel ohne Cache.
Den 285vs9800X3D Spiele Vergleich Bei den 450€ CPUs gewinnt AMD, macht man auch was produktives hat Intel das ausgewogener Paket, will man bei AMD eine CPU mit mehr Arbeitsleistung haben hat man etwa dem
9950 oder 9950X3D zur Wahl.
Ersterer ist ungefähr gleich flott wie der Intel, aber bringt seine eigenen Nachteile mit sich, letzterer ist deutlich teurer.
Um den Preis also ist der Intel der bessere Allrounder (rein die CPU betrachtet). Falls man also nicht später upgraden möchte so d die 285/265 CPUs sehr gute CPUs mit insgesamt 24/20 Cores und das negativ Gequatsche unnötig.
Im Direktvertrieb rein die CPUs ohne den extra Trick 3D Cache schaut es dann überhaupt gleich ganz anders aus. Blender man also die reinen Spiele-CPUs aus, ist man mit Intel mitunter sogar besser aufgestellt, etwa für Buromaschinen
rentedttexas921
Cadet 3rd Year
- Registriert
- Sep. 2023
- Beiträge
- 46
Finde ich gar nicht mal so geil. Die hätten sich mal selbre was neues ausdenken sollen damit wir technisch fortschreiten können und eine nummer an methoden haben die man am ende kombineiren könnte.
heroesgaming
Commander
- Registriert
- Feb. 2022
- Beiträge
- 2.868
Die ersten Ryzen wurden von Globalfoundries in einem von Samsung lizenzierten Verfahren gefertigt. Mit TSMC kooperierte AMD ab Zen 2.adfsrg schrieb:Objektiv betrachtet nur TSMC. Die ersten Ryzen waren ja trotz TSMC in der Praxis schlechter als die Intel.
Und nein, nicht "objektiv betrachtet nur TSMC". Foundries entwickeln ihre Prozesse in Kooperation mit Partnern und passen sie an deren Bedürfnisse an, gerade an der "bleeding edge". Ganz so einfach, wie sich in einem Supermarkt ein Produkt aus dem Regal zu greifen, ist das nicht wirklich.
Stimmt nicht uneingeschränkt. Die neuesten Intel-CPUs brauchen deutlich schnelleren RAM, um sich absetzen zu können, auch gegen "normale" Ryzens - trotz Fertigungsvorteil übrigens. Und der verschwindet mit der kommenden Generation sehr wahrscheinlich wieder.adfsrg schrieb:Und zuletzt waren die Ryzen nur mit dem Cache beim Gaming besser.
Ich bestreite nicht, das Intels Core-Design nach wie vor stark ist, das war es im Prinzip auch immer. Das Ganze ist aber nicht so eindimensional zu sehen wie du es hier darstellst.
Wenn du das wirklich meinst, solltest du dir die jeweilige Technologie mal genauer ansehen.adfsrg schrieb:Selbstverständlich kann man das vergleichen, weil es im Prinzip ja das gleiche ist: Mehrere Dice in einer CPU.
Ein Core 2 Quad entsprach viel eher zwei CPUs in einem Package. Heutige Multi-Die-Designs sind sehr viel stärker integriert. Ich finde nicht, dass man diesen feinen Unterschied so herunterbrechen sollte. Grenzt an reductio ad absurdum.
Dasselbe hier. Nach deiner Logik zieht mein Vergleich mit der Xbox 360 ja dann auch. Der ist aber eigentlich gezielt absurd gewählt. Man mache daraus, was man wolleadfsrg schrieb:Auch das kann man vergleichen: Mehr Cache in der CPU.
Im Übrigen war es bei Broadwell eher mehr (und vergleichsweise langsamer) Cache neben der CPU, wenn auch nahe dran. Nochmal, feine Unterschiede ...
Ähnliche Themen
- Antworten
- 60
- Aufrufe
- 5.475
- Antworten
- 34
- Aufrufe
- 3.198
- Antworten
- 31
- Aufrufe
- 3.550