News AMD Raven Ridge: 7-nm-Refresh der APU in diesem Jahr möglich

MK one schrieb:
und was fällt bei dir unter " passend " ? Mini - ITX gibt es schon ne Weile für Ryzen , jetzt auch mit B450
ich bräuchte µATX für das MS-Tech 1200 Gehäuse, hab aber gerade auf GH nachgesehen, scheint so als ob Mainboards mit HDMI 2.0b endlich erhältlich sind :)
 
AleksZ86 schrieb:
Mainboards mit HDMI 2.0b endlich erhältlich sind
Der HDMI kommt vom Raven Ridge und der liefert 2.0, das Board ist da praktisch egal.

smalM schrieb:
m CCX sind die Kerne über den shared L3 verbunden

Und das soll reichen für die Kommunikation untereinander? Ja, Daten werden da abgelegt und können dann vom anderen Kern aufgegriffen werden. Aber die Kerne müssen trotzdem noch untereinander Kommunizieren, oder sehe ich das falsch?
Was passiert, wenn mehr Kerne auf den gleichen L3 zugreifen?
 
Ozmog schrieb:
Der HDMI kommt vom Raven Ridge und der liefert 2.0, das Board ist da praktisch egal.
danke für die info, das habe ich nicht gewusst
 
  • Gefällt mir
Reaktionen: Inxession
smalM schrieb:
Im CCX sind die Kerne über den shared L3 verbunden (und darüber dann auch mit der IF).

Soweit ich das mitbekommen habe kann jeder Kern im CCX direkt mit jedem anderen kommunizieren. Das heißt 15 direkte Verbindungen
Die Verbindungen an den Cache kommt da doch noch zusätzlich mit dazu.

So hab ich es zumindest verstanden
 
Hill Ridge schrieb:
Da liegst du aber vollkommen daneben.
Gerade bei den Profikarten muß AMD liefern können!
Bei Profikarten sind die Stückzahlen niedriger und dafür die Preise hoch. Deswegen ist das bei schlechtem yield besser, da man nicht so viel liefern muss, wie im Consumer Markt
 
  • Gefällt mir
Reaktionen: rg88
Hill Ridge schrieb:
Da liegst du aber vollkommen daneben.
Gerade bei den Profikarten muß AMD liefern können!
Schlechte Ausbeute -> hohe Kosten. Das rentiert sich also nur bei einem hohen Preis mit guten Margen. Ein Brot-und-Butter-Modell wäre hier viel zu großes Verlustgeschäft. Also ist die Konsequenz nur logisch.

Das bedeutet ja auch nicht, dass man nicht liefern kann. Aber wenn man bei einem guten Prozess 200 Dice rauschneidet und bei einem neuen mit schlechten Yields nur 50, dann sind die Herstellungskosten nunmal 4fach so hoch. (alle Zahlen frei erfunden, ich habe keinen Einblick in die echten Zahlen, aber das Beispiel soll ja nur die Logik begründen)
 
Immerhin werden aber mehr Dice pro Wafer abfallen, muss die Yield ja schon schlechter werden, als der Gewinn durch den Schrink um schlechter da zu stehen.
 
  • Gefällt mir
Reaktionen: Hill Ridge
Taxxor schrieb:
Bei Profikarten sind die Stückzahlen niedriger und dafür die Preise hoch. Deswegen ist das bei schlechtem yield besser, da man nicht so viel liefern muss, wie im Consumer Markt
Das ist reiner Unsinn!

Gerade bei Profikarten muß AMD gleich mal tausende auf einen Schlag liefern können!
Informier dich doch bitte mal, bevor du mich immer wieder über Dinge belehrst, von denen du nicht so viel Ahnung hast...
 
Hill Ridge schrieb:
Gerade bei Profikarten muß AMD gleich mal tausende auf einen Schlag liefern können!.
und inwiefern widerspricht sich das bitte? Man fertigt ja keine einzelnen Wafer sondern zig Wafer.
Hill Ridge schrieb:
Informier dich doch bitte mal, bevor du mich immer wieder über Dinge belehrst, von denen du nicht so viel Ahnung hast...
Musst du eigentlich immer gleich so aggressiv werden, obwohl deine Aussage in keinste Weise "richtiger" ist? Du belehrst Leute mit ebenso wenig Ahnung wie du diesen vorwirfst.
Ergänzung ()

Ozmog schrieb:
Immerhin werden aber mehr Dice pro Wafer abfallen, muss die Yield ja schon schlechter werden, als der Gewinn durch den Schrink um schlechter da zu stehen.
Das ist die große Unbekannte, solange man keine internen Zahlen hat.
 
Neue und schlecht laufende Prozesse werden in der Regel von sehr sehr kleinen Chips angefahren. Je größer der Chip, desto höher die wahrscheinlichkeit, dass es einen defekt im Chip gibt der ihn unbrauchbar macht.

Das heißt, man fängt mit Smartphone Chips (~70mm2) an geht dann über kleine Desktop Chips(100-200mm2) bis hin zu großen Big Chips, meist Grafikkarten oder Server CPUs (200-800mm2)
 
@Gaugamera: der Vega-Chip ist ja klein. Auf 14nm natürlich nicht, aber bei dem Shrink auf 7nm ohne neue Shader eben schon.
 
Gaugaumera schrieb:
Soweit ich das mitbekommen habe kann jeder Kern im CCX direkt mit jedem anderen kommunizieren. Das heißt 15 direkte Verbindungen
Die Verbindungen an den Cache kommt da doch noch zusätzlich mit dazu.

So hab ich es zumindest verstanden

Nicht, daß ich wüßte.
Der L2 ist privat, also nur der Kern, zu dem er gehört, kann darauf zugreifen.
Blockschaltbild Zen-Core
Blockschaltbild CCX
Blockschaltbild Zeppelin-Die

Ozmog schrieb:
Was passiert, wenn mehr Kerne auf den gleichen L3 zugreifen?
1. Pech gehabt.
2. Der L3-Arbiter muß sich drum kümmern.
3. Hoffentlich hat der zweite Thread des Kerns keinen L2-Cache-Miss in der Zeit, in der der erste Däumchen dreht.
4. Der L3-Cache ist in 8194 Blöcke unterteilt, konkurrierender Zugriff auf einen Block sollte nicht soo häufig sein.
 
Zuletzt bearbeitet von einem Moderator:
Hill Ridge schrieb:
Da liegst du aber vollkommen daneben.
Gerade bei den Profikarten muß AMD liefern können!
Hm, der schlechte Yield wird auf den Preis der Profikarten umgelenkt. Das geht im Profisegment deutlich besser. Was das mit „liefern“ zutun hat...
 
Ich frage mich ob einigen hier bewusst ist das die Turing Karten nicht anderes sind als die teildefekten / teildeaktivierten Die s aus dem Profi Segment , selbst die 2080 TI ist teildeaktiviert und nicht Vollausbau

Bei NVidia waren die Gamer schon immer die " Resteverwerter " und wer den Vollausbau haben wollte mußte für eine Titan xyz tief ins Portemonnaie greifen . kommt hier garantiert auch noch wenn sie zu viele vollwertige Dies haben.
 
  • Gefällt mir
Reaktionen: Mcr-King und Hill Ridge
@smalM
Ich meine, wie sieht es aus, wenn dann jetzt 8 Cores auf den gemeinsamen L3 zugreifen. Dazu noch, irgendwie müssen sie ja auch die Daten managen, also welche Daten sollen wo hin und sind wofür bestimmt. Wenn Core 1 was bearbeitet hat und es in den Cache legt, was der nächste bearbeiten soll, wie weiß dann Core 3 zum Beispiel, dass er die Daten aus Block 384 nehmen soll? Irgend etwas muss es ja managen und dann wird es trotzdem Komplexer, wenn mehr Kerne auf den gemeinsamen Speicher zugreifen.

Ich denke unterm Strich wird das schon einen Sinn gehabt haben, warum man 4 Kerne in einem CCX gepackt hat. Und einfacher weitere CCX auf dem Die zu packen sollte es auch sein, dafür, dass IF auf Skalierbarkeit entwickelt wurde.

Nicht umsonst wird so ein Aufriss mit IF oder bei Intel mit Ringbus und Mesh gemacht, wenn man doch einfach die Cores an einem gemeinsamen L3 hängen kann.
 
@Hill Ridge: Also erstmal musst du die Leute hier nicht so aggressiv angehen, und mit 1-Satz-Antworten wie dieser um dich werfen. Nimm dir mal zu Herzen, was dir hier gesagt wurde.

Um den Punkt, ob die Profi-Karten oder andere Produkte sich zuerst für 7 nm eignen, muss man sich auch nicht streiten. Ich finde die Aussage von Taxxor und rgb88 plausibel, dass halt zu Anfang weniger Yield-Rate erreicht wird und das gut zu einer kleineren Menge mit höherer Marge passt. Wir sind uns wohl alle einig, dass die Profi-Karten gegenüber den Gamerkarten eine kleinere Menge darstellen. Es wird ja vorproduziert, sodass nicht "auf einen Schlag" geliefert werden muss.
 
Bei den Gamerkarten sind Lieferprobleme aber nicht so schlimm, wenn AMD aber nicht wie vereinbart Profikarten an zb. Alibaba liefern kann, "brennt die Hütte".
 
Das kommt darauf an, welche Verträge AMD eingegangen ist. Sie können sich sowohl gegenüber Graka-Herstellern als auch gegenüber anderen Abnehmern verpflichtet haben (oder auch nicht). Einen Auftrag werden sie wohl erst annehmen, wenn die Lieferbarkeit halbwegs sichergestellt ist.
 
Zurück
Oben