News AMD Raphael: Zen-4-CPU mit integrierter RDNA-2-GPU im Einsatz

Taxxor schrieb:
oder ob ich einfach 500€ für den X3D zahle
Genau so habe ich es gemacht. Mal schauen, vielleicht kann ich mit dieser CPU gleich DDR5 überspringen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Kai85
Klingt nach einem guten Ansatz. Die GPU muss ja in Grunde nur Office schaffen und bei Bedarf mal das ein oder andere Encoding beschleunigen.
Hier hatte AMD in der Vergangenheit immer das Problem, dass die APUs zuviel separaten Entwicklungsaufwand kosten und dadurch die aktuelle CPU-Technik dort immer erst Monate später Einzug gefunden hat. Da stand dann aber schon die nächste Generation in den Startlöchern und die APUs sind gefühlt dann wieder veraltet.
Der neue Ansatz bringt jetzt eigentlich alles mit: wenig siliziumverschwendung und auch für lowend(nongaming)/business-Geräte statt ab Start eine Lösung zur Verfügung.
Die Notgrafikargumentation hingegen ist jetzt nicht so entscheidend, dass man deshalb eine iGPU für alle brauchen würde. Das ist das nice-to-have
 
cr4zym4th schrieb:
Von mir aus können sie diese "integrierte Grafikeinheit" wie früher auch im Chipsatz/Direkt auf dem Mainboard verlöten, da es hier ja in erster Linie um Features und Videoausgänge geht. Das hätte den Vorteil, dass da nicht noch mehr Hitze unter der CPU produziert wird.
Das geht vielleicht gar nicht mehr. Die CPUs haben ja heute den kompletten Chipsatz integriert mit RAM-Controller, IO-Chip, Peripherie-Controller (USB, SATA, etc.), was man ja auch daran sieht, daß die einfachsten Chipsätze gar keine Funktionen mehr innehaben, sondern nur noch die Verbindung des SOC-Bereiches der CPU zu den jeweiligen Anschlüssen herstellen. Die einzige Möglichkeit einer Onboard-Grafik wäre, den Chip wie eine separate Grafikkarte an PCIe-Lanes zu koppeln. Aber deren Anzahl ist ja gerade bei den genannten Einsteiger-"Chipsätzen" begrenzt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, cr4zym4th und Raptor85
Hoffentlich gibts dann auchnoch richtige APUs mit deutlich besserer integrierter Grafik für den Desktop.
Zusammen mit DDR5 kann so ne APU schon ganz gut Leistung bringen.
 
Klingt ja alles sehr gut.

Ich glaube Zen 4 wird eine sehr gute Sache im Desktop.

Korrigiert mich, aber einen Hybrid-Ansatz in der Bildausgabe kann man mit den CPUs nicht fahren, oder?
Also alle anspruchslosen Grafiksachen (reine Bilddarstellung, Videos, simple Bildbearbeitung usw.) über die iGPU laufen lassen und die dedizierte GPU dann erst aktivieren, wenn sie wirklich gebraucht wird (vorher wäre sie im Tiefschlaf-Modus).

Die APUs waren bis jetzt ja immer etwas benachteiligt ggü. ihren Cousins ohne iGPU (kleinerer Cache, kein PICIe 4.0).
Das fällt hier jetzt weg und man kann CPU-seitig aus dem Vollen schöpfen, wenn es parallel nur simple Bildausgabe braucht.
Ergänzung ()

D0m1n4t0r schrieb:
Hoffentlich gibts dann auchnoch richtige APUs mit deutlich besserer integrierter Grafik für den Desktop.
Zusammen mit DDR5 kann so ne APU schon ganz gut Leistung bringen.
Soll es doch geben, oder nicht?

So ne schöne APU nit einigen CUs mehr als Raphael mit ordentlich Hochfrequenz-RAM (;)).
Wird sicherlich ne ganz brauchbare Lösung fürs 1080p Entry-Gaming.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Wobei mein Traum ja wäre, ne CPU mit ordentlich Level3 "3D Cache", integrierter Grafik wie eine APU, (so ab 16 CUs), dazu auf der CPU noch 4 GB HBM Speicher für die APU bzw. als Level 4 Cache und dann dem normalen DDR5 Speicher der dann auchnoch für die APU-Grafik genutzt werden kann.
Vorrangig wird die APU dann erstmal den HBM nutzen und wenn der voll ist den normalen DDR5 RAM.
 
Raptor85 schrieb:
Korrigiert mich, aber einen Hybrid-Ansatz in der Bildausgabe kann man mit den CPUs nicht fahren, oder?
Also alle anspruchslosen Grafiksachen (reine Bilddarstellung, Videos, simple Bildbearbeitung usw.) über die iGPU laufen lassen und die dedizierte GPU dann erst aktivieren, wenn sie wirklich gebraucht wird (vorher wäre sie im Tiefschlaf-Modus).
Du kannst in Windows für einzelne Apps forcieren, welche GPU sie nutzen sollen.
Ich hab leider nur ein Gerät mit iGPU und eines mit dGPU, aber keines mit beidem und kann es nicht selbst testen, aber theoretisch müssten an der Stelle ja dann beide zu sehen sein.

Wenn das der Fall ist, könnte man seinen Browser z.B. mit der iGPU belegen und damit würden Videos in diesem Browser dann von dieser bearbeitet werden.

Zusätzlich kannst du natürlich auch noch, wenn du mehrere Monitore hast, den sekundären ans Mainboard anschließen, dann läuft die Bildausgabe dafür auch über die iGPU.
 
  • Gefällt mir
Reaktionen: han123 und Onkel Föhn
Taxxor schrieb:
Du kannst in Windows für einzelne Apps forcieren, welche GPU sie nutzen sollen.
Ich hab leider nur ein Gerät mit iGPU und eines mit dGPU, aber keines mit beidem und kann es nicht selbst testen, aber theoretisch müssten an der Stelle ja dann beide zu sehen sein.
In Notebooks geht sowas, am idealsten ist es dort durch den Einsatz von MUX Switches gelöst. Dazu gibt es auch hier auf CB fundierte Artikel und Beiträge.

Im Desktop gibt es so etwas derzeit aber nicht. Vermutlich wäre es möglich, auf Mainboards solche MUX-Switches einzubauen, damit man den Monitor z.B. an die iGPU hängen kann, das Bildsignal dann aber bei Bedarf auch von der dGPU berechnet werden kann und zum iGPU Anschluss geroutet würde.

Da sehe ich aber einige Baustellen/Fragen, die man angehen müsste:

  • Signalwege, da die Strecken auf Desktop Mainboards doch größer sind, als in NBs. Was bedeutet das für die Latenz? Wie gehen Freesync/GSync damit um? etc.pp
  • wie kommt das Bildsignal zum MUX Switch? Das müsste man ja irgendwie am Displayausgang der Grafikkarte abgreifen. Kommt dann ein Revival solcher Kabel wie zu Voodoo 2 Zeiten? Oder es müsste über die PCI-E Verbindung rückgeführt werden. Oder ein internes Verbindungskabel? Klingt nach relativ viel Aufwand.
  • Standardisierung, damit es mit jedem CPU/GPU Anbieter klappt oder baut jeder wieder sein eigenes Ding?

Die Antworten kenne ich nicht. Ich wäre ein Fan davon, aber habe so meine Zweifel, dass sich das mal in den Desktop verirren wird. Allein schon, weil alle nur mehr Einheitsbrei beim MB-Design abliefern. Die Zeiten, in denen sich die Boardhersteller auch mal unkonventionelle Dinge getraut haben, sind irgendwie leider lange vorbei. (Da fallen mir z.B. MSI Memory Lover Boards etc. ein. Alles Schnee von gestern.)

Es gab mal etwas, das sich Lucid Virtu nannte und auf einigen Boards für Intel CPUs verbaut war. Im Grund war das so ein Ansatz. Da wurde das Bildsignal der dGPU glaube ich intern via PCI-Express zu den Displayports auf dem Mainboard geschickt. Da war extra ein Chip verbaut. Die Treiber waren aber nicht gut und da die dGPU nicht komplett abgeschaltet werden konnte, machte es auch nicht sehr viel Sinn.

Nvidia hatte so etwas auch mal in der Mache, nannte sich bei denen Synergy. Sollte deren Gegenstück im Desktop zu Optimus bei den Notebooks werden. Aber das wurde glaube ich auch nie released. Muss so um 2010 rum gewesen sein.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Na, wenn die IHS so am Ende aussieht, dann wird das rauspulen von Wärmeleitpaste echt ein spaß. Am besten dann ein Graphitpad nutzen, wird sonst ein ziemlicher Krampf... ^^
 
  • Gefällt mir
Reaktionen: Ned Flanders
Volker schrieb:
Und für 3 Wochen haben sie dann den 5800X3D gebracht? Denn der wäre dann instant tot mit einer Ankündigung.
Nicht zwingend. Nicht jeder wird sofort aufrüsten und denen, die noch auf den 4XX und 5XX Brettern bleiben, die ja noch ziemlich aktuell sind, bleibt der 5800X3D als letzter Gaming-Aufrüst-Prozzi erhalten.
Ergänzung ()

Volker schrieb:
Es sind trotzdem 500 Euro für acht Kerne, das ist teuer! Wenn die jetzt Zen 4 vorstellen, dann geh ich sicher auf keinen 8-Kerner für 500 Euro mehr nur weil der Gaming wie ein Alder Lake kann.
Das ist richtig, aber heißt nicht, dass es keine Raum für Preissenkungen mehr gäbe. Außerdem kann man seine Plattform weiternutzen, hat da dann zunächst keine Zusatzkosten für Board und RAM.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Das könnte ein guter Ersatz werden für den 3900x im Server.
Mit der igp sollte der deutlich sparsamer sein als d 1050ti im Server aktuell.
Leichter Overkill für das 2d- Bild zur Steuerung des Servers:)
 
AtomLord schrieb:
Na, wenn die IHS so am Ende aussieht, dann wird das rauspulen von Wärmeleitpaste echt ein spaß. Am besten dann ein Graphitpad nutzen, wird sonst ein ziemlicher Krampf... ^^
Vielleicht dient es auch als Motivation endlich mal nur so wenig WLP zu verwenden wie wirklich nötig ist 😄
 
  • Gefällt mir
Reaktionen: Ned Flanders
latiose88 schrieb:
@Drakrochma glaubst du echt die Leistung wird besser als ne 1050 ti sein und gleichzeitig sparsamer als ne gtx 1050 ti?
Er sagte doch, dass die 1050Ti Overkill ist für den Einsatzzweck, es muss doch einfach nur ein Bild ausgegeben werden und mit dem 3900X musste halt ne dGPU rein, die in dem Fall halst ne 1050Ti war.
Es geht nur darum, sparsamer zu sein.
 
  • Gefällt mir
Reaktionen: Drakrochma und Onkel Föhn
Moep89 schrieb:
Selbst die Vorstellung erst im Herbst? Hoffentlich sind kurz darauf auch ausreichende Stückzahlen verfügbar. Intel ist mit Alder Lake ja durchaus konkurrenzfähig und zeitlich deutlich voraus. Und Raptor Lake kommt ebenfalls bald. In einigen Segmenten ist Intel quasi konkurrenzlos.
Im ultramobilen Sektor. So unterhalb der 15W.

Sonst hat Intel nur bei den mobilen Power-/Workstation-Laptops die Nase vorn, woe Geld keine Rolle spielt.

Der 12900KS zeigt doch am besten, was bei Intel los ist. Brechstange "Netburst-Style", um einen Hauch vor dem 5800X3D zu bleiben, der trotzdem die FPS/Watt-Krone holt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Coeckchen
AtomLord schrieb:
Na, wenn die IHS so am Ende aussieht, dann wird das rauspulen von Wärmeleitpaste echt ein spaß. Am besten dann ein Graphitpad nutzen, wird sonst ein ziemlicher Krampf... ^^
Vielleicht einfach mal weniger WLP verwenden? So ein Streichholzkopf reicht eigentlich immer.
 
DiedMatrix schrieb:
Die Entwicklung einer neue CPU dauert (ab der Idee) eher so 4-5 Jahre.
Aktuell ja, wenn es eine komplett neue Architektur ist, d.h. eine "Revolution" wie Alder Lake oder Zen. "Evolutionen" wie die Nachfolgenden Zens oder Rocket Lake gehen schneller.
DiedMatrix schrieb:
Sprich es laufen ständig schon die Nachfolger parallel in ihren verschiedenen Entwicklungsschritten.
Das gilt dann erst ab ca. 1 jahr vor Marktfreigabe einer komplett neuen Architektur. Zu dem Zeitpunkt kommen die ersten tape-outs zur Verifikation und Fehleranalyse, es werden keine neuen Features mehr entwickelt. Nur noch Fehlerkorrektur und kleine Optimierungen.
Diesen Entwicklungsstand kann ein neues Team weiter entwickeln in einen Nachfolger.
DiedMatrix schrieb:
Als Zen1 rauskam, hat man schon an Zen2, Zen3 gearbeitet und vermutlich gerade mit Zen4 angefangen.
Nein, ganz sicher nicht an Zen4, und höchstens mit Zen3 gestartet. Aber ab ca. 1 Jahr vor Marktstart hat man mit Zen2 gestartet.
Bei AMD gibt es zwei Teams,die immer abwechselnd zeitversetzt an den jeweils neuen Generationen arbeiten.
 
LamaMitHut schrieb:
Warum nimmt man nicht einfach RDNA 3?
Siehst du irgendwo RDNA3 auf dem Markt? Dir ist bewusst, dass solche Chipentwicklungen Jahre dauern?

Die Frage ist auch anders sehr einfach zu beantworten: Weil es für den Verwendungszweck unnötig ist und selbst Vega nur wenig Nachteile hätte (aber nunmal ausrangiert wird).
Das ist eine iGPU für klassische Büro Computer, die bei AMD in den letzten Jahren immer eine separate GPU brauchten, wenn es "etwas mehr" sein CPU-Leistung sein sollte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
ETI1120 schrieb:
Ein Monopol hatte Intel dafür nicht, aber AMD musste für die Bürorechner ihre Mobilprozessoren anbieten. Und hier war eigentlich schon die Vega-iGPUs zu groß.
Jein. Für Bürorechner waren die APU Vega iGPUs nicht nur zu groß, sondern v.a. auch viel zu teuer. Bei den Dingern wird alles auf 0.1 Cent berechnet, und die Mobilprozessoren waren (teure) Perlen vor die Buchhalter mit den roten Stiften geworfen, weswegen man die so gut wie nie in Bürorechnern findet. Eine Intel i3 mit kleiner iGPU tat und tut es für Word, ein bisschen Excel und Powerpoint und etwas Webbrowser eben vollkommen und die sind viel billiger als die APUs von AMD es sein konnten. Deshalb denke ich schon, daß Intel hier quasi ein Monopol hatte. Mit modularen Zen 4 und 1-2 RDNA2 CUs dazu kann AMD das jetzt auch, und sogar besser und billiger.
 
Zurück
Oben