Notiz Ryzen 3000: Work Tool macht CCX-Overclocking einfach

VelleX

Rear Admiral
Dabei seit
Dez. 2005
Beiträge
5.493
Hat Roman schon vor knapp einer Woche vorgestellt
Das hier ist übrigens eine scheinbar modifizierte oder andere Version vom Tool.
Diese hier ist nur für AMD, und es lässt sich auch die VID ändern.
Die Version die der8auer in seinem Video verlinkt hatte, war sowohl für Intel HEDT als auch AMD, und es lies sich keine VID einstellen.
 

RYZ3N

Community-Redakteur
Ersteller dieses Themas
Teammitglied
Dabei seit
Mai 2018
Beiträge
8.712
@RYZ3N
Könnt ihr den "Bitte beachten"-Hinweis vielleicht nach ganz oben in der News verschieben? Dieses Tool ist für absolut Eingefleischte und selbst für die ist der Nutzen eher fraglich. Besonders das "Overclocking einfach" suggeriert, dass wenig Probleme damit einhergehen, dabei kann man hier mal ganz schnell seine CPU braten.
Der Hinweis ist zwar bereits seit gestern im Beitrag, ich schaue aber gleich noch einmal wie man gesondert darauf hinweisen kann.

@RYZ3N kann den Artikel gerade nicht bearbeiten, sein PC startet aus "unbekannten" Gründen nicht mehr :p
Ich kann dich beruhigen, mein System startet nach wie vor problemlos und dass obwohl ich das Tool bereits ausgiebig getestet haben. ;)

Die Version die der8auer in seinem Video verlinkt hatte, war sowohl für Intel HEDT als auch AMD, und es lies sich keine VID einstellen.
Die VID-Funktion ist erst mit der neusten Version möglich.
 

McLovin14

Lieutenant
Dabei seit
Aug. 2013
Beiträge
610
wenn man sich mal bissl umschaut, wie krass schlecht der zweite CCD teilweise ist, wirds einem übel. die guten CCDs vom 3900X können bis zu 4,5-4,6 allcore - und der zweite oft nur 4,2 bis 4,3. das ist 3600 niveau oder drunter. das hat in so einer cpu nichts zu suchen. es ist ja nicht nur der takt, sondern auch die nötige spannung. ist halt bitter, wenn die hälfte der cpu 4,5 ghz @1,3v machen würde, man aber bei 4,3 ghz @1,4v hängen bleibt, weil die größte grütze auch noch irgendwo unter kommen muss.
Wo gibt's denn nähere Infos zu der Thematik? Das würde mich nämlich schon interessieren.
 

Piter73

Lt. Junior Grade
Dabei seit
Okt. 2013
Beiträge
395
sowas sollte es im bios geben.

wenn amd schon absolutes trash silizium für den zweiten CCD für die teuerste am4 cpu nehmen muss, könnte man wenigstens einen per CCX oder per CCD multiplier freischalten. was bringt mir ein allcore multi, wenn die hälfte aller cores nicht ansatzweise den selben takt schaffen.
Trash-Silizium? Tests gelesen, ist die Leistung ok oder nicht? :rolleyes:
 

KCX

Commander
Dabei seit
Aug. 2007
Beiträge
2.591
Ich verstehe ja duskstalker ein wenig. Aber auch wiederum nicht. Wenn ein Kern die 4,6 (4,59) erreicht und er den Baseclock von 3,8 hält, hat AMD sein Versprechen gehalten. Alles andere ist Silizium Lotterie wie sonst auch. Des Weiteren sollte man sich nicht wegen 100Mhz mehr oder weniger daran aufhängen. Die Leistung vom 3900X ist doch gut und mehr als ausreichend. Auch den Preis finde ich nicht übertrieben. Immerhin ist gerade erst Launch und die Preise noch dementsprechend. Niemand wird gezwungen direkt zum Start zu kaufen. Genauso wie beim 9900K der mit 699€ gestartet ist. Hier sehe ich übrigens die Thematik gleich oder ähnlich. Intel mit seinem Thermal Throttling at stock is doch nix besser bzw. glänzt auch nicht wirklich. Ich bleib bei der Bestellung vom R9.
ps. meine Quelle im Großhandel meinte, dass Freitag angeblich neue eintreffen :D. Drückt uns die Daumen
 

teufelernie

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.499
ich denke da an die sockel 7 cpus bis zum athlon, va. den c300a. Da ist das heute doch Homöopathie...

Ohja. Das Verhältnis damals blieb unübertroffen.
Sockel A war ja noch ganz nett mit nem Duron 650 auf 1150MHz, aber damals der K6-2/200(mit ner Busclk von 66) auf nem Sockel 7 mit VIA auf 291,5MHz (bei 83,5MHz Busclk) aufgedreht war unerreicht. :king:
 
Zuletzt bearbeitet:

duskstalker

Commodore
Dabei seit
Jan. 2012
Beiträge
4.554
@KCX

amd schrammt ganz knapp an dem vorbei, was man versprochen hat. hier kann man ein auge zudrücken, weil die cpus an sich wirklich beeindruckend sind. aber wenn man das mal ganz nüchtern betrachtet, finde ich hier kritik trotzdem berechtigt. man schlängelt sich hier schon eher durch und abseits vom übertriebenen max boost ist man doch sehr zurückhaltend.

1. der angegebene 4,6 ghz boost wird von fast keinem 3900X erreicht. man sieht hier auch spannungen, die weit über 1,45v hinausgehen. ich werde das gefühl nicht los, dass man hier "überambitioniert" an die sache rangegangen ist.

entweder hat man sich auf 4,6 ghz festgelegt, weil das im marketing besser kommt, und man haut jetzt extreme spannungen auf die cpu um den takt irgendwie zu schaffen und es reicht teilweise trotz 1,5V nicht oder man hat die cpus mit besseren chips validiert und kommt jetzt wegen der niedrigen siliziumqualität aus der retailversion nicht mehr an den takt ran. es gibt keine langzeiterfahrung mit 7nm und diesen hohen spannungen.

beides ist nicht sonderlich erfreulich. die wahrheit liegt vermutlich irgendwo in der mitte.

dazu noch das hier:


robert hallock malt hier ganz unverfroren 4,75 ghz als PBO takt auf die tafel. das ist irreführung. keine ryzen cpu kommt ohne flüssigstickstoff auf diesen takt.

2. der preis. gegen intel steht amd ganz klar als die bessere wahl da - aber:

der IO die für den chipsatz kostet boardhersteller im EK $30-40, d.h. amd kostet das ding noch weniger. dazu kommen zwei chiplets, die gerüchteweise etwa bei $60-80 liegen. oder eher noch weniger. und dann kommt noch dazu, dass ryzen die schlechten chiplets bekommt, die generell schon einmal weniger wert sind. die chiplets, die in epyc zum einsatz kommen, werden quasi vergolded, wenn man sich hier mal den mm² preis anschaut. soweit keine beanstandung - das ist erstmal nur daten sammeln.

ein 3900X kostet amd grob geschätzt also $150 bis $220 und die wollen $500 dafür haben. ja, gegen intel ist man das bessere angebot, ABER bei der marge (die sich amd durchaus verdient hat) will ich bei einer 530€ cpu zwei gute chiplets und nicht ein gutes und eines von der resterampe. beim 3950X verschärft sich das problem noch zusätzlich, denn der ist genau das selbe wie der 3900X, nur ohne deaktivierte kerne und 220€ aufpreis.

aus der sicht von amd absolut nachvollziehbar und eigentlich grandios gelöst. aber hier kann man ruhig auch mal den standpunkt eines verbrauchers vertreten, der das hinterher kauft und benutzt. wenn ich einen sack marmorkiesel kaufe, will ich nicht 50% dreck drin haben. "aber der steinbruch muss doch den dreck auch wegbekommen", aber genau für das gibts säcke mit dreck drin, wo auch "dreck" drauf steht.

die situation mit den boards und den uefi updates ist auch eine tragödie. man hatte doch jetzt genug zeit, um das ganze vorzubereiten. bei zen1 war das ganze ja noch absolut nachvollziehbar. aber wieso läuft hier bei release nix anständig? zen2 silizium gibts schon seit letztem jahr. wie kann man zum release am 07.07.19 immer noch unfertige uefis auf den neuen boards ausliefern? von den alten boards und dem kopfwehthema "msi" mal ganz zu schweigen. und hier häufen sich die aussagen, dass das hauptsächlich an AMD hängt, die viel zu spät samples an die boardhersteller rausgegeben haben (vermutlich um leaks zu vermeiden) und das durcheinander mit der blackbox AGESA.

wer hier ein "schönes" board haben will, bspw mit postcode, spielt roulette mit mindestens 300€ einsatz. bisher weiß ja noch niemand, wie gut die boards wirklich sind, weil durch die bank noch beta status vorherrscht. und gerade bei gigabyte kann man sich nicht wirklich drauf verlassen, dass das zukünftig besser wird - gigabyte arbeitet hier erfahrungsgemäß ja eher in die andere richtung. und bei der durchweg vermeintlich guten qualität der boards ab 300€ hängt halt alles an der qualität vom uefi.

amd macht hier selbstbewusst auf dicke hose aber für die aufgerufenen preise für cpu und mainboards sind mir das ein paar ungereimtheiten an relativ schmerzhaften stellen zu viel. kaum hat man im cpu geschäft fuß gefasst, fängt das melken an - und am meisten trifft es genau die, die amd überhaupt erst in diese situation gebracht haben. die enthusiasten, die bei zen1 eiskalt bei release gekauft und sich durch die sehr steinigen ersten 6 monate gebissen haben.
ich will hier gewiss nichts schlecht reden; der 3600 ist für den preis in absolut jeder beziehung eine top cpu - aber der fisch stinkt ja bekanntlich vom kopf her. der 3700X ist noch gut, aber der 3800X ist reine chipletverschwendung. die hätte man auch gut in 3900X investieren können.

"we love XY" ist der lieblingssatz von lisa - wer sowas sagt, kann für die hardware-spinner, die ganz klar die zielgruppe für so eine extreme cpu (12/16 kerner) sind, auch zwei gute chiplets verlöten und den binning ausschuss irgendwo anders unterbringen, als gerade in diesen cpus.

bei all den kernen und pcie 4.0 darf man nicht vergessen, dass das hier immernoch mainstream ist. die threadripper boards, mit quad channel ram und 64 pcie lanes, kosten weniger. der 2920X kostet derzeit fast 200€ weniger als der 3900X und war zu release nur 100€ teurer. da stimmt irgendwie das verhältnis nicht.

parallel bei den GPUs passiert das selbe in grün (literally hihihi).

die 5700XT ist an sich eine hervorragende gpu - aber die ist für jeden, der nicht nur benchmark balken anschaut und den vergleich zu den überteuerten nvidia karten anstellt, offensichtlich ebenfalls zu teuer - aus konsumentensicht.

polaris 10 ist 232mm² mit 36CU und kostet mit 8gb $240 mrsp.

navi ist 250mm² mit 40 CU und kostet mit 8gb $400/450/500 mrsp. (5700 XT nach der anpassung, vor der anpassung, "geburtstagsedition" vor der anpassung). wer hier jetzt wen getrollt hat, ist mal sekundär. der kern ist die preiserhöhung um 100% verglichen mit polaris - das muss man sich erst einmal trauen. die 5700 hätte auch um die $270-290 kosten können und die 5700 XT $320-340. das wären faire preise gewesen, imo.

und dann wird die 5700 noch künstlich im oc headroom kastriert. hier hat sich amd von nvidia eine scheibe zu viel abgeschnitten.

das soll jetzt niemanden vom kauf von amd produkten abhalten - die sind in jedem fall noch gesünder für den eigenen geldbeutel und den markt insgesamt als die konkurrenz. das gibt amd aber keine immunität gegenüber kritik.

und noch eine gute nachricht für die 3900X käufer - ich habe von einem großen deutschen retailer auch gehört, dass am 26.07 eine große lieferung kommt und die soll möglicherweise sogar ausreichend groß sein, um von da an sämtliche nachfrage "ab lager" bedienen zu können.
 
Zuletzt bearbeitet:

Cyberbernd

Lieutenant
Dabei seit
Sep. 2002
Beiträge
742
hi zusammen

****

ich will hier gewiss nichts schlecht reden; der 3600 ist für den preis in absolut jeder beziehung eine top cpu - aber der fisch stinkt ja bekanntlich vom kopf her. der 3700X ist noch gut, aber der 3800X ist reine chipletverschwendung. die hätte man auch gut in 3900X investieren können.
****
JUHU !!! :daumen::jumpin:

DU bist mein Held ! g,,,,,

Genau so sieht es aus !

Es sind wirklich dolle CPUs geworden.

Aber den 3800X und vor allem die X 570 Boards hätte sich AMD sparen können.

3600 (X)...3700(X)..auf X470 oder B450 läuft !

Einbauen glücklich sein ! Alles gut.

Aber die teuren X570 OC Boards die in verbindung der Resteverwertung des Ryzen absolut garnix bringen...hätten sie sich sparen können.

Absolut kein mehrwert ! Leider ! Betrifft mich auch....bin selber Bastler und habe mich auf Ryzen 2 gefreut.

Aber zurzeit habe ich kein plan was ich hier machen ...geschweige kaufen soll....weiterhin nur abwarten.

Gruß Bernd
 

Glyphus

Cadet 3rd Year
Dabei seit
Aug. 2017
Beiträge
50
Jetzt mal von den Marketinggeblubber und box advertising abgesehen, empfinde ich es als ziemliches 1st World problem. Leute auf Reddit reden von "garbage chiplet" wenn all core nur 4,2GHz und von "Golden sample" wenn 4,4 geschafft wird. das sind weniger als 5% zwischen top und flop. Ich bin erstaunt, dass der 7nm Prozess so homogene reproduzierbare Ergebnisse liefert.
 

duskstalker

Commodore
Dabei seit
Jan. 2012
Beiträge
4.554
@Glyphus

der takt alleine ist halt auch nur die halbe wahrheit. 4,4 ghz bei 1,3v oder weniger sind was anderes als 4,4 bei 1,4v, vorallem bei der konzentrierten hitze.

zudem scheint sich das auch noch negativ auf den IF teiler auszuwirken, aber das ist noch nicht vollends bestätigt. zumindest takten 1 chiplet ryzen hier besser.
 

G3cko

Lieutenant
Dabei seit
Feb. 2006
Beiträge
896
Das manuelle Übertakten lohnt sich heute nur noch bei den kleinen Chips, welche Serienmäßig weiter vom Maximum entfernt sind.
OC lohnt sich nur noch bei den ganz großen CPUs. Ein 9900k ist doch von der Chipfläche ein Celeron. 2/3 bei den Mainstream-CPUs aka kleiner Sockel macht doch die iGPU aus.

Mit dem Wettbewerb gibt's auch mehr Kerne. Die Verlustleistung ist für den Hersteller nach oben limitiert. Also viele Kerne, geringer Takt = Spielraum für OC.

Nimm einen 5960x da sind 50% OC über Basistakt immer drin.

Je mehr Wettbewerb, desto mehr OC. Intel hat doch aufgrund des fehlenden Wettbewerbs OC beschränkt. Erst gab's wenige k-Modelle statt FSB. Und dann wurde der Takt soweit angehoben, dass man es auch sein lassen konnte. Wie man den 4970k als OC Wunder herstellerseitig gelobt hat... Alles unter 15% ist doch lächerlich.
 

KCX

Commander
Dabei seit
Aug. 2007
Beiträge
2.591
@duskstalker ich gebe dir da ja recht. Haben wir auch schon x mal hier besprochen. AMD hätte viele Dinge besser machen müssen. Das Video von AMD war großer Mist... denke da sind sich alle einig. Aber ganz ehrlich.. was habt ihr von AMD erwartet? Als ich mich letztes Jahr dazu entschieden habe auf AMD 7nm zu wechsel, war mir sehr wohl bewusst, was da auf mich zukommt. Beta Bios / Beta Treiber und "gebastel"/Probleme ohne Ende. War das bei AMD jemals anders? kleine Beispiele.: Ich kann mich noch daran erinnern wo, ich AMD Treiber für deren GPUs nach Release über den Windows Geräte Manager installieren musste und das Catalyst Control Center nicht funktionierte bzw. nochmehr Probleme bereitet hat. Von den X Runtimes die man erstmal installieren musste, bevor da was lief, fange ich gar nicht erst an. Die Lüfter von deren GPUs waren schon immer großer Mist und unerträglich. Hat sich da an den Thematiken bis heute was dran geändert? Nein... Wer AMD kauft, weiß was auf ihn zukommt - erst recht nach Release. Das war so, ist so und wird wahrscheinlich auch immer so bleiben. Einer der vielen Gründe wieso ich AMD auch den Rücken gekehrt habe. Klar bastel ich auch gern und stelle X Settings ein aber konnte man sowas wirklich empfehlen? mMn nein... AMD trägt immer noch die Hauptschuld an ihrem Ruf. Es war so sicher wie das Armen in der Kirche, das PCIE4 und generell 7nm neue Probleme mit sich bringen wird und dass das Ganze erstmal nicht rund laufen wird. Wie gesagt... hatte ich mich schon drauf eingestellt.

Speziell zum R9.. Klar hat mich das auch ein wenig enttäuscht. Ich hab mir da auch mehr erhofft als kleiner OC Fan. Auch das war mir aber quasi bewusst, wenn ich direkt nach Rease kaufe und das 7nm Silizium noch nicht reif ist. Aber was ist denn die Alternative im Mainstream zum nicht "so tollen" R9, wenn man nicht in zwei Jahren neu kaufen will? Der 9900K mit seinen 100°C die man wegkühlen muss.. mMn sicherlich nicht, auch wenn ich kurz drüber nachgedacht habe.

Ja der R9 ist nicht perfekt.. aber mMn aktuell das "geringere Übel", wenn man in die Leistungsregionen will.

Wie gesagt, deine Argumente sind nicht von der Hand zuweisen aber teilweise auch ein Wunschdenken. AMD ist kein Wohlfahrtverein, sondern ein Börsennotiertes Unternehmen. Hier wird nix verschenkt, sondern es geht nur alleine um eine Sache: die Rendite am Ende des Jahres bzw. Aktionäre zu befriedigen und nicht den OC Fan XYZ.

Bin auf jeden gespannt, wie sich das Thema Bios und Boost etc. noch entwickelt. Denke aber die Boardhersteller warten noch auf das neue AGESA bevor sich da was bewegt. Das Bios von meinem ist auch noch Beta... ROG STRIX X570-E GAMING Beta Version BIOS: 7010 😢

Hoffen wir das es für uns und AMD in Zukunft besser wird (auch wenn ich nicht dran glaube😅).

Grüße KCX
 

Glyphus

Cadet 3rd Year
Dabei seit
Aug. 2017
Beiträge
50
@Glyphus
der takt alleine ist halt auch nur die halbe wahrheit. 4,4 ghz bei 1,3v oder weniger sind was anderes als 4,4 bei 1,4v, vorallem bei der konzentrierten hitze.
Ich rede jetzt erstmal nur von PB bzw PBO. Was die Leute mit wieviel Spannung/ welchem Board aus den CPUs prügeln ist teilweise schwer nachzuvollziehen. Auch Stabilitätsmäßig.

Zur Zeit scheint PBO extended nicht viel zu machen. Die besagten Unterschiede zwischen golden sample und garbage sind demnach alle FIT konform bei ~1,325V entstanden.

@Glyphus
zudem scheint sich das auch noch negativ auf den IF teiler auszuwirken, aber das ist noch nicht vollends bestätigt. zumindest takten 1 chiplet ryzen hier besser.
Das habe ich heute auch gelesen. Wäre schade, wenn man für die guten Latenzen von 3800er RAM am Ende 100-200 MHz weniger auf dem Chip hat. Vielleicht kann man das mit SOC voltage stabilisieren. Insgesamt finde ich das Bastelfeeling wesentlich spannender als noch bei Zen+
 

Wechhe

Rear Admiral
Dabei seit
Aug. 2002
Beiträge
5.137
Ich kann die Argumente alle nachvollziehen. @duskstalker, endlich mal eine AMD Kritik abseits von Trollen und Fanboy Gelaber, da du hier echte Argumente bringst und nicht alles schwarz/weiß malst.

Aber ist das hier wirklich der richtige Thread für das Thema? Hier soll es ja um das Tool gehen und nicht um Zen2 allgmein, oder?
 

teufelernie

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.499
Interessant, aber ehrlich gesagt wird mir sowas langsam zu Komplex.
Bustakt, Multi, Vcore, ggf noch ein PCI-Teiler, Boost clock& Voltage, vereinzelt RAM Settings = OK.

Aber das Tool hier wird dann wohl auch im Cpu-Bereich die BBQ Session eröffnen für viele, die nicht schlau genug sind es nicht zu benutzen.

Der Hinweis ist ulkig und nötig aber ein: gehörst du zu den 2% die verstehen was sie da machen? Nein?/Dann Finger weg, sonst bbq.

Eröffnet aber ulkige Möglichkeiten für ne Malware. Oo
 

Haldi

Rear Admiral
Dabei seit
Feb. 2009
Beiträge
5.816
die einzige chance für besseres silizium ist meiner meinung nach generell besserer yield / bessere qualität von tsmc oder zen 3, wo desktop und server getrennt wird - und so auch bessere qualität für den desktop übrig bleibt.
Oder aber die Ambition von AMD den Längsten zu haben, und mit dem 3950X genügend Performance gegenüber Intel zu haben.

Aber naja... ich denke immernoch das der 3950X zwei bessere Chiplets bekommt.
Alleine schon wegen dem Stromverbrauch.
105W TDP sind 142W Package Power Tracking,

803332

Leider hat die Tabelle keine Core Frequenzen dazu... Theoretisch müssten der ja nun bei 3.8Ghz sein auf 24 Threads.
Ich bezweifle stark das mit 3.5Ghz und 32Threads das da unter 142W bleibt.


Welchen grund gäbte es sonst den 3950X 3 Monaten nach hinten zu verschieben, wenn nicht genügend Chips zu binnen und zu sammeln?
 

duskstalker

Commodore
Dabei seit
Jan. 2012
Beiträge
4.554
warum bringt nvidia die 2080 super später?

länger im gespräch bleiben. den markt beobachten. schauen was intel macht. mal die angel auswerfen.

das hat nicht zwingend was damit zu tun, dass es nicht genügend gute chiplets gibt. aber kann natürlich schon auch sein.

das ganze lineup an sich ist komisch. der 3800X ist bspw. komplett sinnlos. der 1800X hat wenigstens höhere taktraten und dadurch messbar bessere performance erreicht. wieso zwei X skus und kein non-x 8 kerner? wieso 3800x und 3700x jeweils für 8 kerner und den 12 und 16 kerner drückt man auf 3900x und 3950x?

wohin mit threadripper? 3960 70 80 90? 3999?

bei dem ryzen 3000 launch steckt irgendein marketing firlefanz dahinter. mit nachvollziehbaren mustern oder gesundem menschenverstand hat das wenig zu tun.
 

Transistor 22

Lt. Commander
Dabei seit
März 2018
Beiträge
1.281
das ganze lineup an sich ist komisch. der 3800X ist bspw. komplett sinnlos. der 1800X hat wenigstens höhere taktraten und dadurch messbar bessere performance erreicht. wieso zwei X skus und kein non-x 8 kerner? wieso 3800x und 3700x jeweils für 8 kerner und den 12 und 16 kerner drückt man auf 3900x und 3950x?

wohin mit threadripper? 3960 70 80 90? 3999?
Der Ryzen 7 3700X ersetzt vermutlich den Ryzen 7 2700, da beide 65W TDP haben. Ich vermute das es Marketing Gründe hat das es nicht Ryzen 7 3700 (Statt 3700X) und Ryzen 7 3700X (Statt 3800X) hat. Der X war auch schon bei Ryzen 2000 für Leute den P/L egal ist oder die keine Benchmarks anschauen, der Ryzen 5 2600X hatte für 50€ Aufpreis 2% mehr Spieleleistung als der Ryzen 5 2600.
Ich vermute das beim Ryzen 9 3950X auch der Name suggerieren sollte das er besser als der i9 9900K ist.
Ich vermute das Threadripper erst ab 24 Kernen losgehen wird, da der Threadripper 1900X auch ein Ladenhueter war, da er ggue. dem Ryzen 7 1800X mehr kostete und kaum Vorteile bot. Ich vermute
24 Kerne Threadripper 3960X
32 Kerne Threadripper 3980X
48 Kerne Threadripper 3990X
Ich vermute das es keinen 64 Kern Threadripper geben wird, da Epyc sonst kaum Vorteile haette.
 

RAZORLIGHT

Lieutenant
Dabei seit
Dez. 2012
Beiträge
740
Würden alle so denken, hätten wir bestimmte Marktsituation garnicht, toll geschrieben!
Rein aus Konsumentensicht.
Bezieht man natürlich noch die Sicht eines Unternehmens ein sieht das Ganze anders aus, aber wenn wir mal ehrlich sind, warum mit einem Unternehmen (insert Name XY) Mitleid haben, das einem eiskalt ohne mit der Wimper zu zucken das Geld aus der Tasche ziehen will.
Denn im Endeffekt bekommen wir Konsumenten nur "Abfall" CPUs, denn alle guten Chiplets wandern zu Epic, da die Marge dort um ein vielfaches höher ist.
 
Zuletzt bearbeitet:

guggi4

Lt. Commander
Dabei seit
Sep. 2013
Beiträge
1.041
@duskstalker
Bei aller berechtigten Kritik, das war schon teilweise etwas polemisch und stark vereinfacht.
Preis für den 3900 einfach nur die 3 Chips? Vom Band bei tsmc bis in deinen PC ist es noch ein langer Weg, binning, packaging (das Routing um wieder auf am4 zu passen soll ziemlich komplex sein), transporte, Händler die auch ihren Teil am Gewinn haben wollen. Selbst dann ist das immer noch nicht der Gewinn, der am Ende vom Quartal verkündet wird, die aktuelle CPU muss ja die Entwicklung der zukünftigen CPU finanzieren.
GPU DIE Size und speichergröße:
Einen 230mm2 Chip im ausoptimierten 14nm Prozess kann man wohl preislich kaum mit einem sogar etwas größeren Chip in brandneuen 7nm vergleichen.
8gb ist auch != 8gb, alter und sogar für den speicherstandard relativ langsamer gddr5 wird kaum das selbe wie neuer gddr6 kosten. Die Platine ist auch ziemlich hochwertig bestückt im Vergleich zu einer 200€ brot und butter karte
Auf mehr hab ich jetzt gerade am Handy keine Lust :D
 
Top