News Radeon Pro 5600M: MacBook Pro erhält unbekannte Navi-GPU mit HBM

HanneloreHorst schrieb:
iMac oder MBP mit RDNA2, davor kann man derzeit noch sehr gut auf ein Apple Produkt verzichten.
Da sich beim CPU Lieferanten eh nichts tun wird, vielleicht werden da die fallenden Preise ja mal weiter gegeben.
Nun gut, dafür das AMD mit nVidia und Intel mit AMD nicht mithalten kann, dafür kann Apple ja nichts, zwei mal aufs falsche Pferd gesetzt und den Kunden zahlen lassen.
Naja und den schwächelnden amerikanischen Markt wird man mit Euro-Preisen ausgleichen.
Schade, gute Produkte haben sie, kundenfreundliche Politik bleibt die Achillesverse von Apple.
Wie kannst du nur sowas sagen. Du hast doch einfach nur nicht genug Geld!
 
Zuletzt bearbeitet:
Ist hier die Frage inwieweit sich das Upgrade, auf die Akkulaufzeit auswirkt. Ich hätte gerne effektiver CPU's im MBP. Ich brauche keine Renderleistung im Zug oder unterwegs. Bin aber nicht abgeneigt, wenn man bei normalen Onlinearbeiten etc. nur alle 2 Tage laden müsste. Bin ich mal gespannt was die WWDC mitsich bringt. MiniLED und 10.Gen Intel oder AMD wäre ja ggf mal was.
 
@borizb

es ist ja nicht nur der verbrauch, sondern auch der platinen und kühleraufwand. es ist einfach die überlegene technologie. gddr6 ist budget. nvidia verbaut auf den hochwertigen karten auch hbm2. nur das "billigzeug" für gamer wird für mehr marge mit gddr6 bestückt - einfach weils billiger ist. nicht weils gleichwertig oder gar besser ist.

gddr6 braucht viel platz im gerät und auf der platine und einen extra anschluss am kühler. zudem muss man auf der platine vom vmem vrm leitungen zu den memory ICs legen und dann die datenleitungen zurück zum core.

hbm2 braucht vorallem bei großen kapazitäten viel viel viel viel weniger platz (memory ICs sowie memory interface), da die chips kleiner sind und gestackt werden können, hbm kommt auf einem package mit dem core, kann mit dem core gemeinsam über eine coldplate gekühlt werden, man spart sich die traces zu den gddr modulen und den aufwand für hohe bandbreiten (takt) die traces und das layout entsprechend zu optimieren, weil alles sowieso auf einem gemeinsamen interposer liegt.

wir hatten bei nvidia sterbenden gddr6, weil unter den chips die core power plane durchgelaufen ist. einige billige navi karten hatten so schlechte kühler für den gddr6, dass die stock schon out of spec liefen. die chips sitzen direkt zwischen core und vrm und werden von allen seiten aufgeheizt, und können aber nur sehr schlecht gekühlt werden, weil man die über wärmeleitpads an dünne plättchen anschließen muss. in den allerwenigsten fällen hängt der gddr6 über eine heatpipe am kühler.

für hbm2 braucht man nur eine einzige gute coldplate für core und speicher und der rest läuft über die kühlleistung des kühlers selber.

hbm selber kostet zwar mehr als gddr6, dafür spart man aber aufwand und platz auf der platine und beim kühler. und bei so vielen speichermodulen wie bei der kommenden 3090 wird man auch probleme mit vdrop bekommen - oder die chips mit mehreren VRMs befeuern müssen.
 
  • Gefällt mir
Reaktionen: peru3232
XTR³M³ schrieb:
Klar im dollarraum... Wer nur im inland kauft wird nix finden, oder zu horrenden preisen

Und da haben wir das Problem, selbst bei Amazon macht es kein Spaß Ware zurück zu senden wenn diese außerhalb der EU liegen.

Dann haben wir noch die Fragen bezüglich Zoll, Gewährleistung und Garantie plus eventuelle Sprachbarrieren.

Der Weg zu Hölle ist bekanntlich mit guten Absichten gepflastert MXM ist so eine gute Absicht. Schade
 
ghecko schrieb:
Pauschal hab ich nur gesagt dass ich nicht verstehe, warum hier RDNA mit HBM kombiniert wird, weil RDNA in Computeanwendungen, an ihrer 3D-Leistung gemessen eher das Schlusslicht bildet. Und ich nicht glaube, dass hierbei die Speicherbandbreite das Problem darstellt. Nvidia bekommt es schließlich auch mit GDDR hin.
Eine generelle Nicht-Eignung habe ich nirgends ausgesprochen.
Was hat das mit hinbekommen zu tun? AMD bekommt es auch mit GDDR6 hin, nennt sich Navi10.
Hier geht es um weniger Stromverbrauch und Platz und nicht um mehr Speicherbandbreite.


borizb schrieb:
Wenn das nah an den Fakten ist (Crucial gibt für 8Gb DDR4@1,35V 3W Verbrauch an), kann sich jeder
überlegen, ob die paar Watt weniger den Aufpreis rechtfertigen (+ weniger Leistung im Vergleich zu
GDDR6 mit 256Bit). Bei der verbauten GPU + Coffe Lake CPU ist das Energieargument für 5 Watt beim
Grafikspeicher hin oder her doch eh völlig Banane.
Nicht nur der Speicher ist sparsamer, sondern auch der Speichercontroller. Dort wird eine Menge gespart. Der IO-Takt ist ja viel geringer, die Leitungen kürzer.
 
Zuletzt bearbeitet:
borizb schrieb:
Energieeffizienter ok, aber GDDR6 bei der 2080 (448GB/s) oder 2080 Ti (616 GB/s) ist um Längen schneller,
von GDDR6X mal ganz abgesehen. Weiß man denn, wieviel weniger HBM2 bei gleicher Übertragungsrate zieht?
Ich meine das wäre im Verhältnis 1:4 für HBM, aber sind das mehr als 10-20W unterm Strich?
Wäre es da nicht sinnvoller, die CPU oder GPU entsprechend niedriger zu takten im Peak? Oder weniger CUs?

Gibt ein ganz interessantes Video von Gamers Nexus zu dem Thema.
Der Effizienzvorteil ist bei Controller mit Abstand am größen.
Spart auch Die Size.

 
Seiyaru2208 schrieb:
Und da haben wir das Problem, selbst bei Amazon macht es kein Spaß Ware zurück zu senden wenn diese außerhalb der EU liegen.

Dann haben wir noch die Fragen bezüglich Zoll, Gewährleistung und Garantie plus eventuelle Sprachbarrieren.

Der Weg zu Hölle ist bekanntlich mit guten Absichten gepflastert MXM ist so eine gute Absicht. Schade


hast nen jahr garantie aus übersee, nen MXM modul verschicken kostet <$10

sprachbarriere? also heutzutage sollte jeder des englischen mächtig sein, sorry to say that :)
 
Da Apple Käufer ihr Setup nicht so oft wechseln , ist doch so eine 5600m mit HBM
eine prima Karte .
Wie sehr sie sich von einer Standard 5600m unterscheidet, wäre nochmal interessant .
 
@Identify Die Akkulaufzeit kann bei Alltagsaufgaben nochmal deutlich verbessert werden (und auch die Temperatur + Lautstärke), mit dem Tool "Turbo Boost Switcher".

Dann läuft die CPU auf max 2,6 Ghz, was du im Alltag nicht mal ansatzweise merkst. Bleibt aber schön leise und kühl (ich wünschte, die Lüfter könnten sich wie beim Air auch noch deaktivieren).


Als Cinebench Vergleich:
Normal mit Turbo: 2550-2600~ Punkte im Multicore
Turbo Aus: 2000~ Punkte etwa (und Temperatur war glaube nie über 70° etwa, Lüfter halb so schnell wie mit Turbo).
Stromverbrauch mit Turbo war während Cinebench vom CPU Package etwa bei 61-63 Watt.
Ohne Turbo etwa 35~ Watt.
 
crank6868 schrieb:
Dafür ist das Ding ja auch nicht gebaut. Wobei man seit der 5500 schon auch mal ein paar Runde Zocken kann.
und was macht man normalerweise mit dem Mac Book? Rendern in Diashow? Professionelle CAD Programme in der Windows VM ohne Cuda Support? Es bleibt eine Kiste mit Stromspar CPU und die 5500M ist eine abgespeckte Mittelklasse GPU egal welche Speicher dran steckt. Ich bezweifle dass es viele Anwendungen gibt die von schnelleren Speicher profitieren ohne vorher durch die anderen Komponenten ausgebremst werden.
 
Hayda Ministral schrieb:
4. Gedanke: CrowdFunding anyone?

An Produkte von allen Herstellern zu kommen, die nicht von der Stange sind, ist nahezu unmöglich. Wenn du dann auch noch das Ganze, für alle, zu kleinem Preis verkaufen möchtest, hast du eine Chance von Null.

"Diese" 5600m geistert unter diversen Namen schon eine Weile durch die Gegend. Das sie tatsächlich jetzt auch verkauft wird, überrascht mich jedoch. Natürlich gibt es das dann bei Apple zu Fantasiepreisen.

https://www.notebookcheck.net/AMD-Radeon-R9-M295X.129043.0.html

↑ Für das Produkt mit MXM wäre ich damals zum Ende der Welt zu Fuß gegangen. Ich habe weder für Geld, noch für gute Worte, noch mit meinem guten Namen eine jemals in der Hand halten dürfen. Näher als "nur gucken, nicht anfassen" bin ich nie gekommen.

Geld spielt (wie fast immer eigentlich) bei solchen Dingen eine stark untergeordnete Rolle.

mfg
 
Seiyaru2208 schrieb:
Das Problem bei der Sache ist /war das selbst wenn du die Schnittstelle hattest / hast kaum Karten auf den Markt verfügbar waren.

Afair war MXM nicht dafür gedacht das Du als Endkunde so ein Modul kaufst oder wechselst. MXM sollte es dem Hersteller des Laptops erlauben ein vorgefertigtes Modul einzusetzen um dessen Funktion er sich folglich keine Gedanken machen muss. Afair, wie gesagt.
Ergänzung ()

[wege]mini schrieb:
An Produkte von allen Herstellern zu kommen, die nicht von der Stange sind, ist nahezu unmöglich. Wenn du dann auch noch das Ganze, für alle, zu kleinem Preis verkaufen möchtest, hast du eine Chance von Null.

Ich hatte meinen Gedanken nicht ausformuliert. Crowdfunding funktioniert ja nicht nur bei Hobby-Entwicklern und Startups sondern CF könnte als Instrument auch von Firmen wie MSI oder Gigabyte genutzt werden.
Könnte..sollte...wäre. Schöner Traum. :-)
 
  • Gefällt mir
Reaktionen: [wege]mini
Hayda Ministral schrieb:
Schöner Traum. :-)

CF bringt halt Geld ohne Risiko. Geld spielt hier aber keine Rolle.

Warum daher CF?

mfg

p.s.

Wenn du es kaufen darfst, hat sich die Frage nach dem Preis schon erledigt. Du musst den Preis nehmen, der auf dem Zettel steht. Die Tatsache, dass dir jemand sagt, was es zu kaufen gibt ist schon bemerkenswert.
 
[wege]mini schrieb:
CF bringt halt Geld ohne Risiko. Geld spielt hier aber keine Rolle.

Ich habe den Verdacht dass wir von verschiedenen Sachen reden. Ich redete davon, dass es per Crowdfunding (theoretisch!) möglich wäre eine solche Grafiklösung (TDP 75W, HBM+Vega) als PCIe-Steckkarte vor zu finanzieren und so das finanzielle Risiko vom Hersteller weg zu nehmen. Genügend Vorbesteller vorausgesetzt könne man eine Karte abseits des Mainstream erhalten die es sonst nicht gäbe weil bisher kein Hersteller glaubt dass es dafür einen ausreichend großen Markt gibt.

Wovon redest Du? "frage nach dem Preis schon erledigt" und "musst den Preis nehmen, der auf dem Zettel steht" klingt nicht nach meinem Szenario.
 
Vielleicht ein Upgrade damit es nicht so abstinkt gegen die quadro rtx 5000?
Selbst ein aktueller Mac Pro bekommt keine flüssige 8k Videoschnitt hin. Und das war eigentlich immer Apples Steckenpferd
 
Hayda Ministral schrieb:

Das dieser Markt, von dem du redest, selbstverständlich vorhanden ist. Dieser Markt würde aber in andere Märkte zu stark eingreifen, da er den Preis für alle anderen versauen würde.

Warum glaubst du, AMD, Intel, Sony, IBM oder sonst irgend wer, würde dir so ein Produkt für irgend einen (für dich noch sinnvollen Preis) verkaufen?

So wird ein Schuh daraus.

mfg
 
Hayda Ministral schrieb:
Deine Vorstellungen davon wie Marktwirtschaft

Die Frage ist halt immer, ob du Käufer oder Verkäufer bist. Wir reden hier nicht von Äpfeln oder Birnen, von denen immer zu viele da sind.

Hier gibt es eine begrenzte Anzahl von echten "high-end" Chips und da muss man selektieren, wem man was verkauft, da dieser jemand ja damit auch noch einmal Geld verdienen will.

Wenn man ein wirklich gutes Produkt hat, sucht man den Käufer selber aus und man kann diesem Käufer damit sogar noch einen Gefallen machen. :)

Geld spielt da nur eine kleine Rolle....alle verdienen ordentlich, bis das Ganze bei uns ankommt.

mfg
 
borizb schrieb:
Energieeffizienter ok, aber GDDR6 bei der 2080 (448GB/s) oder 2080 Ti (616 GB/s) ist um Längen schneller,
von GDDR6X mal ganz abgesehen.

Du mal wieder....

Eine mobile Grafikeinheit mit einer Topklasse Grafikeinheit vergleichen...

Eine 2080Ti nimmt sich bereits ca. 40W, alleine für den GPU Speicher.
Das ist für viele Notebooks bereits das gesamte Powerbudget. (GPU+VRAM+CPU+CHIPSET+RAM)

Du siehst also wie sinnlos es ist, mobile Grafikeinheiten mit Desktop Grafikeinheiten zu vergleichen.

Und die 616Gb/s ist nicht mal so schnell.
Eine Radeon VII schafft 1TB/s mit HBM2.
 
Zurück
Oben