News CES-Keynote: AMD über Raytracing, 16 Kerne und PCIe 4.0

Ozmog schrieb:
Kann, muss aber nicht. Gerade Vega geht im Idle weit im Verbrauch runter. Daher ist auch Raven-Ridge im Idle sehr genügsam und schlägt sogar Intel-CPUs mit ihrer kleinen IGP.
Hast du dazu einen Link mit Messungen? Hatte bisher immer nur Tests eher mit Gaming-Boards gesehen bei denen AMD-GPUs z.B. nicht mit Stromspar-Boards wie einem Fujitsu und i3-8100 @<10 Watt im Idle auskommen.
 
TheTrapper schrieb:
Wie gesagt WTF mehr fällt mir dazu nicht mehr ein WTF
Ich verstehe aber auch nicht worauf du hinaus willst, EUV spart Produktionsmasken ein, das ist Fakt. Und Masken sind nicht das gleiche wie Layer.

The most costly of these is the use of as many as three or four different photomasks to produce a single pattern on a chip. With today’s most complex processors, that means a wafer could need some 80 trips though the lithography tool.

EUV lithography’s reason for being is that it uses 13.5-nm light, which is much closer to the size of the final features to be printed. With it, manufacturers can turn three or four lithography steps into one. For its 7-nm EUV process, GlobalFoundries will replace 15 steps with just 5. John Lin, TSMC’s director of litho equipment and mask technology, says his company plans a similar reduction.
https://spectrum.ieee.org/semicondu...hography-finally-ready-for-chip-manufacturing
 
Zuletzt bearbeitet:
ist zwar keine Vega , aber meine von 480 auf 580 geflashte RX580 dürfte 11-12 W haben

5,4 W der GPU chip , 1,4 W der Speicher = 6,8 W jedoch arbeiten die VRMs nur mit 25,9 % Effizienz , hier weiss ich nicht ob das schon einberechnet wurde , wenn nicht wären es 11,83 W

58.gif
 
Taxxor schrieb:
Darauf würde ich nicht wetten. Die 3000er Mobile Chips kommen ja bald schon, die 3000er Desktop chips kommen ja erst gegen Ende des Jahres

Wenn man nach bisherigen Roadmaps und den bisherigen Vorgehen AMDs geht, wird Picasso ebenfalls als Desktop nur der Refresh von Raven-Ridge sein.
Ryzen 3000 APUs sind eben Zen+ wie zuvor Ryzen 2000 APUs Zen war, während die Ryzen 2000 CPUs dann Zen+ waren.
Damit ist der Nachfolger, ich glaube Renoir wird er genannt, wohl ein Ryzen 4000. Er soll Zen2 mit Navi-Grafik verbinden. Nicht bekannt ist, ob da dann auch das Chiplet-Design verwendet werden soll. Für viele mobile Geräte ist das vielleicht etwas viel Chip, wenn man den Controller-Chip plus CPU-Chiplet und noch den GPU-Chiplet mitführen muss. Hier kann es durchaus sein, dass zumindest Renoir noch eine monolithische APU werden kann, die auch nicht zwangsläufig mehr Kerne bieten wird. AMD kann ja kaum im Mobil-Markt Fuß fassen, daher ist es fraglich, ob es sich lohnt, ein relativ komplexes MCM einzusetzen, wenn kaum Mobil-APUs abgesetzt werden können.

Kann aber auch gut sein, dass es über die Chiplets günstig genug ist, um die APUs genauso aufzubauen. Ich weiß jetzt nicht wie groß das Package der mobilen Ryzens ist und wie groß das MCM dafür ausfallen muss, dass sollte man aber auch noch im Hinterkopf behalten.

Weitere Möglichkeit: In der Roadmap sind immer zwei verschiede Codenamen für APU und CPU vorhanden. Der Aufbau von Matisse ist jetzt ja weitestgehend bekannt und wird einmal mit einem CPU-Chiplet und einmal mit zweien ausgestattet sein. Am Aufbau ändert sich sonst nichts. Was hindert denn daran, dass man dazu Matisse statt eines weiteren CPU-Chiplets mit einem GPU-Chiplet ausstattet, es weiterhin als Matisse bezeichnet und Renoir als kleine APU, möglicherweise monolithisch, führen kann, um den "Einsteiger-Bereich" abzudecken.
Immerhin sind Raven-Ridge und Summit-Ridge ja wirklich verschieden, sind ja unterschiedliche Dice. Aber Threadripper wird ja trotzdem als Summit-Ridge bzw Pinnacle-Ridge (2000er) bezeichnet. Der Die bleibt gleich, der Aufbau als MCM ist unterschiedlich.
 
Ozmog schrieb:
Was hindert denn daran, dass man dazu Matisse statt eines weiteren CPU-Chiplets mit einem GPU-Chiplet ausstattet, es weiterhin als Matisse bezeichnet und Renoir als kleine APU, möglicherweise monolithisch, führen kann, um den "Einsteiger-Bereich" abzudecken.
Irgendwas wird sie schon daran hindern, denn den APUs mit Chiplet Design wurde ja für die dritte Gen eine Absage erteilt und ich kann mir nicht vorstellen, dass man den Namen Matisse in die 4. Gen mitnehmen würde.
 
iamunknown schrieb:
Hast du dazu einen Link mit Messungen?
Hier ein Test der reinen Package-Power: Test
Beim Gesamtsystem sieht es nicht so rosig aus, dazu sehe ich den Chipsatz als Schwachstelle an.
 
Taxxor schrieb:
Irgendwas wird sie schon daran hindern, denn den APUs mit Chiplet Design wurde ja für die dritte Gen eine Absage erteilt und ich kann mir nicht vorstellen, dass man den Namen Matisse in die 4. Gen mitnehmen würde.

Bisher erhalten die APU s nur 8 3.0 Lanes auf dem 1 sten PCIe Slot , es ist ein komplett anderer Aufbau , ausserdem hat man das APU Design bereits für PS5 bzw XBox Nachfolger entwickelt , für die Desktop APU muss man es nur beschneiden
 
Taxxor schrieb:
den APUs mit Chiplet Design wurde ja für die dritte Gen eine Absage erteilt und ich kann mir nicht vorstellen, dass man den Namen Matisse in die 4. Gen mitnehmen würde.

Wobei die Frage ist, wie man Generation definiert.
Picasso ist da und werden mit Ryzen 3000 bezeichnet, ist aber eigentlich die zweite Generation auf Zen+. Das heißt, dass Renoir dann Ryzen 4000 wird.

Es ist eine gewagte These, aber Threadripper ist ja auch quasi nebenbei abgefallen, ohne zuvor auf Roadmaps aufgetaucht zu sein (ältere Roadmaps, als die weiter oben eingefügte). Damit ist es nicht ausgeschlossen, dass man ein Matisse statt eines zweiten CPU-Chiplets eine GPU verpasst, quasi als Big-APU und dann Desktop only. Das ganze vielleicht erst mit Navi-Grafik und noch vor Vermeer, mehr oder minder parallel zu Renoir.
Ergänzung ()

MK one schrieb:
das APU Design bereits für PS5 bzw XBox Nachfolger entwickelt

Da wäre ich aber vorsichtig. Custom-Chip ist nicht unbedingt mit der CPU/APU Linie gleichzusetzen. Das Speicherinterface ist ja meist auch anders. Aktuell bei den Konsolen sind es ja 8 Jaguar-Kerne mit Polaris-GPU und gemeinsamer GDDR-Speicher. Sehr gut möglich, dass ein ähnliches Speichersystem auch bei den kommenden Konsolen verwendet wird. Somit werden sie sich in mindestens einem Punkt von den "normalen" APUs unterscheiden. Wie genau der Aufbau dann aussieht, ist ja auch noch nicht bekannt.
 
Zuletzt bearbeitet:
waren wir es ab
ich denke AMD wird das Baukastensystem noch weiter ausbauen , Lisa Su hat ja schon gesagt das dem Chiplet Design die Zukunft gehören wird
 
MK one schrieb:
ich denke AMD wird das Baukastensystem noch weiter ausbauen

Das denke ich auch, es bietet eben viele Möglichkeiten. Ob es dann für kleine CPUs/APUs auch zutrifft wird sich mit der Zeit zeigen.

Deshalb bietet sich eigentlich Matisse auch gut an, da eine GPU zu verbauen. Man müsste nur ein GPU-Chiplet rausbringen. Den IF ist es ja im Prinzip egal, ob da nun CCX oder CUs dran hängen.
Eine Vega für Intels G-Prozessoren konnte man ja auch produzieren.
 
MK one schrieb:
st zwar keine Vega , aber meine von 480 auf 580 geflashte RX580 dürfte 11-12 W haben
Das hilft jetzt leider gar nicht um den Idle Strombedarf eines AMD-APU-Gesamtsystems zu bewerten.
Ozmog schrieb:
Beim Gesamtsystem sieht es nicht so rosig aus, dazu sehe ich den Chipsatz als Schwachstelle an.
Danke für den Link, wobei ich die Package-Power von den Intel-CPUs interessant Finde: https://www.heise.de/select/ct/2018/18/1535697703296311
Entweder heise hat falsch gemessen oder TomsHardware. Bei heise läuft das Board je nach Netzteil ohne Gbit-Netzwerk zwischen 4 und 8 Watt - Primärseitig am NT im Idle...

Und genau hier hat AMD meines Wissens nach nichts vergleichbares anzubieten. Klar ist das ein Spezialfall, zeigt aber klar auch noch vorhandene Schwächen auf - z.B. für viele Office-PCs.

Nichts desto trotz freue ich mich auf die Ryzen 3000 - damit kann dann vermutlich mein Core-i 2. Gen in Rente gehen.
 
  • Gefällt mir
Reaktionen: Nitschi66
Zur Implementierung von PCIe 4.0 auf "alten" Boards:

Volker schrieb:
Die Frage wird letztlich auch sein, ob es die Mainboardhersteller per BIOS/Firmware freischalten (wollen), denn neue Mainboards sollen schließlich auch verkauft werden.
Immer dieselbe Leier: Investition in bestehende Produkte führt in den Augen der Hersteller fast immer zum Ruin selbiger.

AMD hat mit dem 'Gesetz' "Ryzen 2000 auch für 300er-Chipsätze" gezeigt, einen anderen Weg gehen zu wollen als Intel. Vorausgesetzt die Verdrahtung ist kompatibel, sollte AMD den Mainboardfertigern daher auferlegen, Support für PCIe 4.0 zu bringen.

Vielleicht könnten die Hersteller dann auch mal lernen, dass Mainboards eine andere 'Lebenserwartung' als CPUs haben und langfristiger angeboten werden sollten und sich auch über einen längeren Zeitpunkt verkaufen lassen. Denn so lange CPUs mit einem Heatspreader versehen sind und nicht wieder wie die alten Athlons um die Jahrtausendwende mit nackigem Die verkauft werden, bleibt es wohl dabei, dass den meisten Leuten in x Jahren PC-Bau zwar mehrere Boards, aber keine CPU abraucht.
 
ITX-Fan schrieb:
Immer dieselbe Leier: Investition in bestehende Produkte führt in den Augen der Hersteller fast immer zum Ruin selbiger.

Naja, Service ist ein Punkt für Nachhaltigkeit.
Die Hersteller von CPU-Kühlern haben teils kostenlose Adapterkits für AM4 verschickt. Das sogar für vielleicht 50€ teure Produkte die praktisch eine Ewigkeit halten und kaum Obselezenz erfahren.

Da können die Mainboard-Hersteller ruhig BIOS-Updates bereitstellen, um die neuesten CPUs zu unterstützen. Die waren gerade am Anfang larmarschig genug und ich habe doch einen recht hohen Preis für mein erstes AM4-Board gezahlt. Einige Produktkategorien rund um AM4 werden immer noch nicht oder nur schlecht bedient. Wenn die dann keine Updates bereitstellen, wäre das eine Sauerei schlechthin und dann werde ich den jeweiligen Hersteller nach Möglichkeit meiden. Nur doof, wenn keiner eine vernünftige Produkt- und Servicepolitik hat...
 
mrhanky01 schrieb:
Selbstverständlich wusste ich das, aber wie du siehst kommt das Zeug nicht morgen raus sondern dauert noch.

Genau das ist das Problem an der Aussage von AMD. Es ist nur ein wir werden auch Raytracing bringen. Aber wann sprich welche Generation haben sie nicht gesagt. Ich bezweifle stark das Navi etwas davon haben wird. Für mich ist es nur eine allgemeine Aussage damit die Fans etwas zum Reden haben und nicht die Hoffnung verlieren das AMD am Ball bleiben will.
 
  • Gefällt mir
Reaktionen: mrhanky01 und kisser
ITX-Fan schrieb:
AMD hat mit dem 'Gesetz' "Ryzen 2000 auch für 300er-Chipsätze" gezeigt, einen anderen Weg gehen zu wollen als Intel.....

....sollte AMD den Mainboardfertigern daher auferlegen, Support für PCIe 4.0 zu bringen.

Also erstens geht AMD damit keinen anderen Weg als Intel (https://www.computerbase.de/2018-07/coffee-lake-8-kern-support-h310-chipsatz/) und zweitens ist der Ryzen2000 bis auf den Shrink identisch zum Ryzen1000. Das muss dann schon zwangsweise kompatibel sein.

Und drittens: willst du mehr für die Boards bezahlen, damit sie länger Support erhalten? Denn nur das ist die Alternative. Support ist teuer, teurer als die Hardware.
 
Das Problem mit den alten Boards dürfte auch sein, dass dort noch ältere Equalizerchips drauf sitzen, die kein pcie 4 können.
 
xexex schrieb:
Richtig! Wenn du viele große Dateien hin und her kopierst, ohne dass sie irgendwie durch die CPU bearbeitet werden müssen, profitierst du vom Durchsatz. Welcher Anwendungsfall wäre das? Mir fallen da fast keine ein!

Videoschnitt ist natürlich immer wieder gerne als Beispiel genommen, aber wie viele hier im Forum schneiden ständig riesige Videodateien und haben CPU technisch die Leistung, die notwendig ist um mal eben bei "schlappen" 4Gbit/s an den Flaschenhals einer PCIe 3.0 SSD zu kommen?

Ich glaube manche die hier anderen ständig irgendwelche Benchmarks vor die Nase führen, haben längst den Bezug zu Realität verloren. Ich kann an dieser Stelle nur immer wieder gerne auf den Test von CB hinweisen.
Anhang anzeigen 744611
https://www.computerbase.de/2017-11/intel-optane-ssd-900p-test/

Und mit jeder Steigerung der Datenrate wird der Vorteil noch geringer, weil die CPU dann längst zum Flaschenhals wird.
Wegen 0,6s zwischen der schnellsten PCIe SSD und der langsamsten SATA SSD bzw. 0,2s zwischen der 850 evo und der 960 Pro macht ihr nen Fass auf?


FCK-THIS schrieb:
Was ein schwachsinniger Beitrag :rolleyes:
Einzig die Raytracing Performance zu bashen, als ob man die Grafikkarte, wie man es bei der Konkurrenz nur kann, nicht wie gehabt normal nutzen könnte ... Aber selbstverständlich, einen anderen Punkt gibt es nicht, den man kritisieren könnte.

Dort wo beide Hersteller ähnliche Leistung anbieten, liegt das Preis-/Leistungsverhältnis nahezu gleichauf:

https://www.mindfactory.de/product_...Aktiv-PCIe-3-0-x16--Full-Retail-_1235216.html

https://www.mindfactory.de/product_...-OC--Aktiv-PCIe-3-0-x16--Retail-_1281991.html

Günstigste Vega 64: 439€
Günstigste RTX 2070: 479€

Beides auch laut Idealo.de die aktuell günstigsten Preise.

Die RTX 2070 bietet im Schnitt 10% mehr Leistung für etwas weniger als 10% Aufpreis.
Somit nahezu selbes Preis-/Leistungsverhältnis, die RTX 2070 liegt leicht im Vorteil, vor allem wenn man dazu den Stromverbrauch in Betracht zieht:
https://www.hardwareluxx.de/index.p...-radeon-rx-vega-64-nitro-im-test.html?start=4

„Out-of-the-Box“, wie es 99% der Käufer betreiben, verbraucht die Vega 64 im Vergleich zu einer GTX 1080 150W mehr. Rechnet man nun bei einem üblichen Spieler mit 5 Stunden die Woche bei 0,28€/kWh macht das im Jahr 10,92€ Unterschied im Betrieb. Jahr für Jahr wird das Preis-/Leistungsverhältnis der Vega 64 somit schlechter, auch bei „geringer“ Nutzung.

Raytracing kann man bei der RTX optional nutzen, muss man und wird man aber aktuell nicht. Raytracing musste früher oder später eingeführt werden, es muss immer erst Hardware eingeführt werden bevor Software dafür umgesetzt wird. Das war noch nie anderst. Das sieht AMD nun selbstverständlich auch so.
Für 100% der Käufer ist jedoch das Preis-/Leistungsverhältnis aktuell das einzig interessante und da schenken sich die Grafikkarten nicht viel.

Bei der Radeon 7 und der RTX 2080 sieht es nun ähnlich aus.
Die RTX 2080 bietet im Schnitt 7% mehr Leistung nach AMD:

Beim sporadischen Vergleich der von AMD publizierten FPS-Werte mit den von ComputerBase ermittelten Ergebnissen der GeForce RTX 2080 zeigt sich indes, dass die Leistung des Konkurrenzmodells um rund 7 Prozent verfehlt würde

Sämtliche Spiele wurden in UHD(3.840 × 2.160 Pixel) und mit maximierten Grafikeinstellungen wiedergegeben.

https://www.computerbase.de/2019-01/amd-radeon-7-benchmarks/

Da wir nur die Dollar Preise kennen, die beide bei 699$ starten, liegt auch hier das Preis-/Leistungsverhältnis nahezu gleichauf, mit 7% Vorsprung für die RTX 2080.
Die 16GB sind aktuell noch genau so irrelevant wie die Raytracing Performance. Einzig bei 4k würde es wohl in einigen Spielen mit 8GB der RTX 2080 knapp werden, da dies aktuell jedoch eine absolute Nische darstellt und die Karten zu über 99% für 1440p verwendet werden ist das wenig relevant.

Für die Produktion mag es sein, dass Raytracing, wie auch HBM höhere Kosten verursacht. Wie man sieht, macht das für den Endkunden jedoch keinen Unterschied. Dort wo AMD und Nvidia im Highend Segment ähnlich leistungsstarke Grafikkarten anbieten ist das Preis-/Leistungsverhältnis nahezu gleichauf mit aktuell einem leichten Vorteil für Nvidia.

Möchte man mehr Leistung als eine Radeon 7 oder eine RTX 2080 bleibt einem nur die RTX 2080 Ti übrig. Ob man bereit ist dafür das schlechtere Preis-/Leistungsverhältnis in Kauf zu nehmen muss jeder selbst abwegen, das obere Ende hat sich jedoch noch nie durch ein großartiges Preis-/Leistungsverhältnis ausgezeichnet, dort stellt sich auch selten die Frage, hier möchte man maximale Performance, was die RTX 2080 Ti aktuell als einzige Grafikkarte bietet.
18% mehr Leistung für 40% Aufpreis sind es hier. Fakt ist jedoch, dass AMD hier keine Alternative bietet und es somit keinen Vergleich gibt, somit kann man lediglich wie bereits getan die RTX 2070 mit der Vega 64 und die RTX 2080 mit der neuen Radeon 7 vergleichen.

In der Mittelklasse ist AMD mit der RX 580 aktuell klar besser aufgestellt im Vergleich zur GTX 1060, darum ging es aber wohl hier nicht.

Man sollte froh sein, dass neue Techniken ohne Beeinflussung des Preis-/Leistungsverhältnisses im Vergleich zur Konkurrent, eingeführt werden. Dass diese nicht von Anfang an nutzbar sind ist somit für alle Käufer völlig irrelevant, aber der erste Schritt ist getan. Wie bereits gesagt, Softwarehersteller finden erst einen Anreiz Software zu erstellen, wenn kompatible Hardware bereits auf dem Markt verfügbar ist.
Was für ein langer Beitrag und dann noch nicht einmal Daten für die von dir rausgesuchte RTX2070 geliefert mit denen du das Posting begründen könntest?
Das einzige was wir jetzt wissen ist wie damals (vor über einem Jahr) der Unterschied zwischen der Vega64 Nitro + und der Referenz bzw. irgendeiner Custom GTX1080 war um die es aber nicht ging.
Zudem sehe ich in dem Test keinen von dir erwähnten Durchschnittswert und lediglich bei den als besonders Geforce affinen Spielen bekannten Spielen ist die Karte nicht auf der Höhe der GTX1080.
Den Rest deute ich mal als Füllstoff weil der einzige Fakt die Daten der Vega64 Nitro+ und der Preis der beiden Karten und der Rest aufgeblasene Spekulation wäre.
Ergänzung ()

MK one schrieb:
Handbrake zb. skaliert eigentlich gut mit mehr Kernen
MP4= H264

Anhang anzeigen 744760

und H265

Anhang anzeigen 744761
https://www.tomshardware.com/reviews/amd-ryzen-threadripper-2-2990wx-2950x,5725-9.html

Das die Skylake X CPU so relativ schnell sind haben sie ihrem AVX512 zu verdanken
aber wie gesagt , beim Ryzen 3xxx wird sich die AVX Geschwindigkeit verdoppeln , ebenso die FPU Leistung
Nicht wirklich, mit vielen Kernen hat Handbrake so seine Probleme, vor allem bei H264, mit H265 schafft noch ein paar mehr auszulasten.
https://www.planet3dnow.de/cms/41197-amd-ryzen-threadripper-2990wx-im-planet-3dnow-review/11/
https://www.planet3dnow.de/cms/41197-amd-ryzen-threadripper-2990wx-im-planet-3dnow-review/21/

Mit sowas wie dem Threadripper 2990WX musst du offenbar schon 2-3 Filme parallel umwandeln um den mit H264 auszulasten.
 
Zuletzt bearbeitet von einem Moderator:
kisser schrieb:
Nur, dass der H310 Chipsatz ebenfalls noch recht neu ist. Wird der Nachfolger des 9900K darauf laufen? Und dessen Nachfolger auch?
Denn das ist das, was du bei AMD bekommst, auf dem B350 Chipsatz läuft Ryzen 1000, Ryzen 2000, Ryzen 3000 und aller Voraussicht nach 2020 dann auch Ryzen 4000.
kisser schrieb:
und zweitens ist der Ryzen2000 bis auf den Shrink identisch zum Ryzen1000. Das muss dann schon zwangsweise kompatibel sein.
So wie der 8700K auch nur ein 7700K mit 2 zusätzlichen Kernen ist und offiziell trotzdem nicht auf Z270 läuft? Angeblich wegen anderer Pin Belegung für die Stromversorgung(komisch, haben doch beide 95W Fantasie TDP...), wobei schon gezeigt wurde, dass auch die Pins des Z270 mehr als ausreichend dimensioniert sind, um selbst einen 9900K händeln zu können.
 
Zuletzt bearbeitet:
kisser schrieb:
Und drittens: willst du mehr für die Boards bezahlen, damit sie länger Support erhalten? Denn nur das ist die Alternative. Support ist teuer, teurer als die Hardware.

Ach Quatsch .... , Auf Sockel AM3 passten 4 oder 5 CPU s , auf Sockel AM3+ passten alle CPU s seit 2010 ? bis 2017 ... wieviel mögen das gewesen sein 10 - 15 oder mehr ?

Es ist lediglich eine Bios Anpassung notwendig , das kostet einen Programmierer eine Woche wenn es hoch kommt , das komplett neue Entwickeln für einen neuen Chipsatz bzw Boarddesign kostet da wesentlich mehr Zeit ....
und AMD Boards sind und waren nie wesentlich teurer als Intel Boards , meist sogar günstiger ...
 
Zurück
Oben