Notiz APU-Gerüchte: Grafik-Konfigurationen von AMD Renoir im Gespräch

RuhmWolf schrieb:
Es gibt nichts was ich so sehr erwarte wie endlich Ryzen 2 Kerne in APUs...Renoir bitte lass nicht so lange auf dich warten!



Eine 5700XT schafft es in Compute Aufgaben nicht mal eine Vega64 zuschlagen (sie ist eigentlich durchgängig langsamer als eine sogar unoptimierte VEGA 64).

Eine Radeon VII ist in diesen Aufgabenbereichen teilweise fast doppelt so schnell wie eine 5700XT!

Ich denke hier war wieder nur die Spielebrille aufgesetzt...
Naja genau genommen kann man vega nicht in x mal schneller angeben da die computing Leistung null beträgt unter open CL bei NAVi
 
MIWA P3D schrieb:
Naja genau genommen kann man vega nicht in x mal schneller angeben da die computing Leistung null beträgt unter open CL bei NAVi

Bezogen auf den OpenCL Bug von Navi der zu falschen Ergebnissen führt?

HighPerf. Gamer schrieb:
@RuhmWolf

Umgekehrt bringt es auch nichts jetzt zu behaupten das nur HPComputing das wichtigste auf der Welt wäre. RDNA und VEGA sind 2 Architekturen die für ihre Einsatzzwecke gut sind, das eine für Consumer (RDNA) und das andere für die Profis da draussen (VEGA). Vega soll sogar weiter geführt werden in Zukunft (Profi Markt/ Datacenter usw.) soweit ich mich an eine Aussage von AMD erinnern kann.

Und an welcher Stelle habe ich oder irgendjemand anderes so etwas behauptet?

[wege]mini schrieb:
Come on....was denn sonst?

Dein Argument läuft doch schon bei Gamer Karten komplett ins Leere.

Die Apu´s hier sind die kleinste billig einsteiger Lösung für Games.

Niemand würde damit irgend welche rechenintensiven hardcore produktiv Anwendungen verwenden.

mfg

Text und Leseverständnis möchte gelernt sein. Mehr braucht man zu deinem Beitrag nicht zu sagen.

Wenn jemand die Rohdaten einer Spielekarte mit einer Karte vergleicht die eben nicht nur für Spiele gedacht ist und dann meint die gleiche Leistung zu haben bei viel weniger "Materialeinsatz", dann sollte man vielleicht auf seinen Fehler hinweisen.
 
RuhmWolf schrieb:
dann sollte man vielleicht auf seinen Fehler hinweisen.

Hier kann man halt argumentieren, der von dir angegriffene User will nur Computer Spiele spielen.

Er interessiert sich nicht dafür, dass 4k irgend welche Kerne in irgend welchen Berechnungen xx% schneller sind, als 2.3k Kerne.

Er will fps in seinem Game und daher ist ihm deine Argumentation herzlich egal. Bei manchen seiner Games sind beide Karten gleich schnell in bestimmten Auflösungen.

Gamer sind Gamer und wollen Fps....wie, warum, mit welchem Verbrauch und z.T. zu welchem Preis, interessiert da wenig.

mfg
 
MIWA P3D schrieb:
Ja, solange nicht fest steht ob der behoben wird muss man davon ausgehen. AMD selbst weiß zwar von denn bug hat aber noch keien idee wie die das lösen

Das Statement von AMD hat sich aber nicht danach angehört, dass sie nicht wissen wie sie es lösen, sondern die Aussage war eher "Wir können noch keinen Termin festlegen wann der Fix kommt".
 
Zuletzt bearbeitet:
2CUs mehr und von 2400 auf 3200er speicher.... letzteres dürfte wohl den grössten boost bringen, da ja schon die 11CU version bei gleichem takt, kaum schneller als die 8CU version ist bei default speichertakt --> 11er verhungert an bandbreite. auf alle fälle hat AMD da wieder deutlich die nase vorne bei iGPU in notebook, jetzt wo intel ja gleich gezogen ist(mit DDR4 LP3733X vs. AMD mit 2400MHz :evillol: ), denke wenn man die bandbreite bei intel auf die alte generation beschneiden würde, wäre die iGPU auch wieder nen rohrkrepierer.
 
Was ist eigentlich aus dem eDRAM-Ansatz geworden den Intel damals den Broadwell CPUs spendiert hat?
Gerade die iGPU konnte von dem schnellen Speicher ja enorm profitieren, warum haben die Hersteller nicht in diese Richtung weiter entwickelt?
Ebenso gab es ja eine Weile Gerüchte zu verlötetem HBM-Speicher auf den APUs. Davon habe ich aber auch schon lange nichts mehr gehört.
Weis da jemand genaueres?
 
  • Gefällt mir
Reaktionen: AirForce
MHumann schrieb:
Ähnlich möglich sehe ich einen geänderten IO-Die kombiniert mit der Grafikeinheit (eventuell beschränkt auf PCIe3.0) plus 8-Kern Chiplet. Also 2 Chips insgesamt. Damit hat man keine Probleme mit der vertraglichen Mindestabnahmemenge bei Global Foundries, weil man einfach den IO-Grafik-Die von denen abnimmt, und kann trotzdem in Sachen Prozessorleistung ordentlich zulegen. das Vega-Design funktioniert afaik schon gut in 12nm, der IO-Chip funktioniert ebenfalls gut.

auch denkbar. Das wäre zumindest günstiger als alles in 7nm, die Yield wäre höher und man könnte ggf bestehendes einfacher aufgreifen. Das Ganze müsste man dann sehr auf Effizienz trimmen. Auf den GPU Part fällt da schnell das Meiste ab.
 
Krautmaster schrieb:
das wirst dir abschminken können, zu 99%. Vor allem wenn es Vega ist ist man leider was das angeht eher hinter der Zeit.
Der decider hat mit der GPU Architektur rein gar nichts zu tun. In der Vergangenheit wurden die IGP auch immer mit einer modernen VPU ausgestattet, auch wenn die GPU schon älter war. Die VPU war dann moderner als das Pendant der Desktopkarten.

Floletni schrieb:
Wirkt für mich als würdest du umschreiben das es einen Engpass gibt. Sie nehmen die Chips für Großprojekte und woanders fehlt was. Das ist für mich ein Engpass.
Es sieht eher so aus, als hätten sie Probleme genug Chips zu bekommen, die die hohen Taktraten mitmachen. Die kleinen Ryzen sind ja alle gut verfügbar. Die Marge ist für AMD aber bei den Topmodellen größer.

Salutos schrieb:
Was im IO-Chip den Verbrauch so nach oben treibt ist ja nicht - zumindest mir nicht - bekannt. Wie ich schon gelesen habe soll PCIe 4.0 für den relativ hohen Verbrauch verantwortlich sein.
Das meiste wird für die ganzen PHY drauf gehen (PCIe und IF) und den Speichercontroller.
Das lässt sich nach meiner Meinung nur mit einem Chiplet Design vernünftig und effizient realisieren.

Tatsächlich stehe ich mit der Meinung Chiplet-Design ziemlich alleine im Wind.
AMD hatte für Renoir richtig viel Zeit (12+Monate) was mich darin bestärkt, sie haben die IO-Die Herausforderung gelöst.
Was soll denn für das Chiplet Design sprechen? Energieeffizienz ist schlechter durch die Inter-Die Kommunikation.
HighPerf. Gamer schrieb:
Naja Computerbase selber bescheinigt Navi gegenüber Vega eine deutlich höhere IPC auf Turing Niveau.
Und was bringt dir jetzt eine höhere IPC? Dafür benötigt Navi deutlich mehr Transistoren für gleich viel Rechenleistung. Bei der Energieeffizienz bin ich mir nicht sicher ob Navi da so viel besser ist, oder der Großteil durch die Fertigung kommt.
Sicherlich hat Navi Vorteile, so st hatte man es nicht entwickeln brauchen. Aber ich glaube der Unterschied ist nicht so groß.

MHumann schrieb:
Ähnlich möglich sehe ich einen geänderten IO-Die kombiniert mit der Grafikeinheit (eventuell beschränkt auf PCIe3.0) plus 8-Kern Chiplet. Also 2 Chips insgesamt. Damit hat man keine Probleme mit der vertraglichen Mindestabnahmemenge bei Global Foundries, weil man einfach den IO-Grafik-Die von denen abnimmt, und kann trotzdem in Sachen Prozessorleistung ordentlich zulegen. das Vega-Design funktioniert afaik schon gut in 12nm, der IO-Chip funktioniert ebenfalls gut.
1. Haben sie denn überhaupt Probleme mit der mindestabnahmemenge? Sollten genug IO Dies für Ryzen und Epic bei rum kommen.
2. Was soll der Vorteil von der GPU in 12 nm sein?
Für ein mobile Produkt welches oft in 15 W TDP daher kommt wäre ne effiziente GPU wichtig. Zudem skaliert die super.
Ein monolithischer Die in 7nm mit 8 Kerne und 13 Vega Einheiten wäre kleiner als Raven Ridge. Den L3 Cache kann man noch gut halbieren. IO ist ja im mobile Teil kaum nötig.


XTR³M³ schrieb:
da wieder deutlich die nase vorne bei iGPU in notebook, jetzt wo intel ja gleich gezogen ist(mit DDR4 LP3733X vs. AMD mit 2400MHz :evillol: ), denke wenn man die bandbreite bei intel auf die alte generation beschneiden würde, wäre die iGPU auch wieder nen rohrkrepierer.
Warum sollte man das künstlich beschneiden? Es ist auch ein Teil der Entwicklung einen passenden Speichercontroller zu verbauen. Die Frage ist warum AMD das nicht macht und ihre starken IGP verhungern lassen. Wahrscheinlich mangelnde Kapazität in der Entwicklungsabteilung. Kann man nur hoffen das AMD mit Renoir auch LPDDR4 anbietet. Würde auch dem idle Verbrauch helfen.

Xes schrieb:
Was ist eigentlich aus dem eDRAM-Ansatz geworden den Intel damals den Broadwell CPUs spendiert hat?
Gerade die iGPU konnte von dem schnellen Speicher ja enorm profitieren, warum haben die Hersteller nicht in diese Richtung weiter entwickelt?
Ebenso gab es ja eine Weile Gerüchte zu verlötetem HBM-Speicher auf den APUs. Davon habe ich aber auch schon lange nichts mehr gehört.
Weis da jemand genaueres?
Schau dir mal den eDRAM von Broadwell an. Die Bandbreite ist nicht so hoch. Mit LPDDR4 ist man schon besser dran. Den eDRAM könnte man natürlich breiter anbinden und höher takten, aber das gibt's nicht umsonst. Insgesamt sind das einfach höhere Produktionskosten. Auch mit dem HBM in einem Package.
 
Ein I/O-Die in 12nm mit integrierter GPU halte ich nicht für so unwahrscheinlich.
Würde ermöglichen, das bekannte 8Kern-Chiplet weiterzuverwenden.
Die spekulierten 13CU sind nur 2 mehr als bei den alten APUs,
sprich Fläche und Verbrauch steigen kaum an.

Raven Ridge ohne CPU-Teil, nur I/O und GPU sollten grob 160mm² sein,
zum Vergleich: das Zen 2 I/O-Die liegt bei rund 120mm².
Da wird eben viel Ballast drin stecken, der für ne reine Nutzung in ner APU nicht nötig ist.
 
bensen schrieb:
Warum sollte man das künstlich beschneiden?
Für gesockelten RAM zum Beispiel. Es gibt doch tatsächlich noch Leute, die sowas wollen.
 
Cyberfries schrieb:
Ein I/O-Die in 12nm mit integrierter GPU halte ich nicht für so unwahrscheinlich.
Würde ermöglichen, das bekannte 8Kern-Chiplet weiterzuverwenden.
Die spekulierten 13CU sind nur 2 mehr als bei den alten APUs,
sprich Fläche und Verbrauch steigen kaum an.

Raven Ridge ohne CPU-Teil, nur I/O und GPU sollten grob 160mm² sein,
zum Vergleich: das Zen 2 I/O-Die liegt bei rund 120mm².
Da wird eben viel Ballast drin stecken, der für ne reine Nutzung in ner APU nicht nötig ist.
Natürlich wird man den IO-Die aus dem Desktop nicht nutzen. Aber wozu das 8 Kern Chiplet nutzen? Du brauchst eh einen neuen Die. Also warum nicht gleich mit CPU?
Und warum man Anfang 2020 die höhere Effizienz von 7nm für die GPU nicht mitnehmen sollte, ist für mich völlig unverständlich.
CPUs werden seit 6 Monaten damit gefertigt, die ersten GPUs seit 12 Monaten. Auch kleine Navis lassen sich anscheinend bei überschaubaren Kosten damit herstellen. Warum sollte man im mobile Bereich, wo die Effizienz am wichtigsten ist, darauf verzichten?
 
bensen schrieb:
Warum sollte man das künstlich beschneiden? Es ist auch ein Teil der Entwicklung einen passenden Speichercontroller zu verbauen. Die Frage ist warum AMD das nicht macht und ihre starken IGP verhungern lassen. Wahrscheinlich mangelnde Kapazität in der Entwicklungsabteilung. Kann man nur hoffen das AMD mit Renoir auch LPDDR4 anbietet. Würde auch dem idle Verbrauch helfen.

wollte damit nur sagen, das die neue grafikeinheit in intels CPU nur unwesentlich stärker ist als die alte generation, und das plus mehrheitlich auf das plus an bandbreite zurückzuführen ist. ;)

mangelnde kapazität in der entwicklungsabteilung? also die APUs für die konsolen sind bereits am samplen, ryzen 4000(= zen2) mobile APUs bereits bei den boardpartnern = massenfertigung startet sehr zeitnah(muss ja auch, da Q1/20 selbige auf den markt kommen sollen), und wenn AMD schlau ist, spendieren sie den mobile ableger vom zen2 grad LP4266X = maximum nach JEDEC, damit dürfte das bandbreiten thema auch vom tisch sein... natürlich doof das die mobile version dann mit 8C/16T schneller ist bei gleichem takt als die desktop ableger, durch das massive plus an bandbreite(ok, aber nur wenn der IF 1:1 läuft) :)
 
@XTR³M³
Und das ist nicht richtig. Intels Kaby Lake GPU wurde gar nicht so viel ausgebremst durch den Speicher. Die Mehrleistung der icelake IGP kommt durch die massiv aufgebohrten ALUs. Na klar ist dafür auch mehr Bandbreite nötig. Aber kabylake würde auch mit LPDDR4x keinen Blumentopf gewinnen.


Was haben die Konsolen damit zu tun? Raven Ridge ist schon ein bisschen älter. Und welchen Grund außer mangelnde Ressourcen gibt es sonst LPDDR4 nicht zu unterstützen, obwohl die extrem überlegene IGP massiv ausgebremst wird?
 
bensen schrieb:
Und warum man Anfang 2020 die höhere Effizienz von 7nm für die GPU nicht mitnehmen sollte, ist für mich völlig unverständlich.
CPUs werden seit 6 Monaten damit gefertigt, die ersten GPUs seit 12 Monaten. Auch kleine Navis lassen sich anscheinend bei überschaubaren Kosten damit herstellen. Warum sollte man im mobile Bereich, wo die Effizienz am wichtigsten ist, darauf verzichten?

1.Die 7nm Fertigung ist offensichtlich noch nicht auf dem Niveau, die Mengen in der Qualität zu fertigen.
2.Kosten. Die APUs sollen die unteren Marktsegmente abdecken, da hilft jeder cent.
3.Die Vorteile von 7nm DUV werden gerne mal ein bisschen übertrieben dargestellt. Erst mit EUV wirds wirklich spannend.
4.Der I/O Anteil ist riesig und profitiert von der kleineren Fertigung nicht. Das in 7nm verursacht unsinnig Kosten.

Für den derzeitigen Markt würde die Variante völlig ausreichen.
Klar in die absoluten Spitzenklasse-Notebooks kommt man damit nicht,
aber da ist Imagetechnisch für AMD noch kein Markt.
Sehe ich frühestens mit der Nachfolgegeneration.
 
bensen schrieb:
@XTR³M³
Und das ist nicht richtig. Intels Kaby Lake GPU wurde gar nicht so viel ausgebremst durch den Speicher. Die Mehrleistung der icelake IGP kommt durch die massiv aufgebohrten ALUs. Na klar ist dafür auch mehr Bandbreite nötig. Aber kabylake würde auch mit LPDDR4x keinen Blumentopf gewinnen.


Was haben die Konsolen damit zu tun? Raven Ridge ist schon ein bisschen älter. Und welchen Grund außer mangelnde Ressourcen gibt es sonst LPDDR4 nicht zu unterstützen, obwohl die extrem überlegene IGP massiv ausgebremst wird?

wer spricht von den aktuellen konsolen? zumal warum sollten diese jetzt erst gesamplet werden? :D

und AMD muss ja nichtmal gross recourcen aufwenden, LPDDR4/X ist 100% kompatibel zu DDR4, entsprechend müssten sie nur den I/O-DIE bzw. IMC dahingehend trimmen, das er mit dem hohen takt 1:1 rennt.

btw. ne HD530 macht nen sprung von bis zu 10% bei 2666 zu 3200(gleiche timings). :)
 
Zurück
Oben