News Factorio Benchmarks: Intels neue CPUs verbessern sich nur minimal

Ach, wenn dir Gegenargumente nicht passen, stellst du einfach etwas ohne weitere Erklärung als Fakt hin und erklärst damit die Diskussion für beendet?

Du hast mir in der Diskussion bisher nur unterstellt, ich würde nicht verstehen, dass es um die freien Kerne für Hintergrundanwendungen geht, obwogl ich genau das davor erklärt habe und irgendwelche Vergleiche reingeworfen, die überhaupt nicht passen.

Beispiel, wo ein 8-Kerne für Spiele auf einem System mit den gängigen Hintergrundanwendungen nicht ausreicht, hast du bisher auch nicht angeführt. Stattdessen stellst du jetzt "Kernskalierung" in den Raum, ohne es irgendwie zu erklären. Welches Spiel skaliert denn mit 8 oder mehr Kernen, so dass nichts mehr für andere Tasks übrig bleibt? Fast alle Spiele skalieren maximal bis 4 Kerne und vielleicht noch bis 6. Dann hast du immer noch 2-4 Kerne übrig, die sich um Hintergrundtasks kümmern können, ohne die Spieleleistung zu beeinflussen.
 
  • Gefällt mir
Reaktionen: danyundsahne
Atma schrieb:
Und täglich grüßt das Foren-Murmeltier

Nun dreht sich die Argumentation der harten Fanbyos wieder:

Erste Ryzen - AMD Boys, mehr KERNE sind die Zukunft, IPC uns SC Leistung nicht so wichtig!! Intel Boys, IPC und SC Leistung sind wichtig, mehr Kerne braucht niemand (4 Kerne reichen gelaber)!!!

Nun sind die Intel Boys bei: mehr Kerne sind total wichtig und so.!!! und die AMD Boys brauchen die Kerne auf einmal nimma, nicht mal für Spiele und nur noch Cache ist wichtig!

Ich freue mich schon auf das Fanboy Gelaber, wenn Intel auch StapelCache bringt und AMD mal weniger im Idle verbraucht als Intel!
 
  • Gefällt mir
Reaktionen: Gsonz, Kalsarikännit, Kai85 und 5 andere
Xedos99 schrieb:
Wenn AMD es schaffen würde ,einen DDR 5 Takt von 7800 MHz zu unterstützen
Also wenn ein Overclocker dir als Quelle reicht, sind im max wohl bis zu 8000 MHz drin....
https://www.golem.de/news/ddr5-8000-neue-amd-firmware-schafft-enormen-speichertakt-2307-176017.html
Ergänzung ()

Knuddelbearli schrieb:
Würde den Test gerne mit Broadwell-DT sehen
Das müsste ein 4 Kerner sein, wird der von dem Spiel - wenn es so CPU lastig ist - überhaupt noch unterstüzt?
Neuere Spiele starten ja manchmal erst auf 6 Kernern richtig.
Ergänzung ()

ArrakisSand schrieb:
Ich könnte mir gut vorstellen das der kommende 8950x3d gleich mit zwei 64MB 3D V-Cache Chiplets kommen wird (Total 192MB L3 Cache).
Ok, dann erklärst du AMD auch noch wie man den Takt = die Hitze unter dem Cache unter Kontrolle bringt, damit der Takt nich abkackt.......
Genau DAS war doch der Grund für das geteilte Design und ich habe noch nichts gelesen, das man das unter Kontrolle hätte.
Sonst hat man wieder einen Taktunterschied von mehreren hundert MHz zum Modell ohne Cache.

Das wäre dann eine in Anwendungen schwächere hardvore Gamercpu, wenn die es zahlen wollen.
Doppelter Cache kostet wohl auch ein schönes Stück Aufrpreis.
 
Zuletzt bearbeitet:
Tornavida schrieb:
bitte, lasst sie doch. Tangiert mich Zero.

Mich eigentlich auch aber ich versteh das halt nicht wirklich, ich habe über die Jahre schon alles verbaut gehabt was es so gibt an Firmen... nur weil eine, mal ne Zeit lang ein Produkt hat, was ggf. nicht in meine Eissatzszenario passt aber bei anderen schon, muss ich die anderen doch nicht bekehren?

Hab jetzt 2x AMD verbaut (davor 2x Intel), mag aber auch meine Intel PCs auf Arbeit (ca. 500) und hab da ne ganze Riege alter Intel CPUs aufm Monitorsockel liegen, die ich immer mal wieder, mit Bewunderung und in Erinnerungen schwelgend, anschaue.

Wer z.B. gerne 6 Ghz+ sehen möchte kann sich bei AMD aufn Kopf stellen und bekommt sie trotzdem nicht, genau so sieht es dann mit dem 3DCache und z.B. diesem Spiel hier aus, da kann eine Intel CPU dann nicht vergleichbar liefern...

Leben und leben lassen und sich eher darüber freuen, dass es überhaupt noch andere PC "Verrückte" gibt...
 
  • Gefällt mir
Reaktionen: Butterhützchen
Apocalypse schrieb:
Das stimmt absolut und in diesen Ausnahmen wirkt dann eben die Konkurrenz egal ob aus eigenem Haus oder auch von Intel als wären sie einige Generationen hinten dran. Da macht es dann halt einen gewaltigen Unterschied, beim Rest der Spiele liegt man im Grunde auf dem gleichen Level und die Wahl der CPU ist eigentlich egal.

Wer also nur ein einziges dieser Nischen Spiele mag, kommt eigentlich am 3D Cache nicht vorbei, erst recht nicht wo Intel ja nun auch an der Cache Schraube drehen wird und wir wohl bald mehr Spiele sehen werden die das auch ausnutzen wollen.
Und selbst wenn man eine CPU nur für ein Spiel kaufen würde, sollten doch die restlichen Spiele nicht so schlecht laufen, das man sich da gross einen Kopf drum machen muss.

Erinnert mich irgendwie an die Debatte mit RT. AMD ist zwar beim Rastern immer wieder schneller, aber RT liegt denen halt nicht.
Aber da die Games die reines Rastern benötigen ja oft auch etwas älter sind, sollte die Power von NV auch beim reinen Rastern ausreichen.

Und so wird es eben auch beim Cache sein, da wo er genutz wird hat man einen guten Vorteil,
aber bei den anderenGames ist man - wenn auch langsamer als Intel - doch bestimmt schnell genug
selbst mit Cache reduziertem Takt, denke ich um imme rnoch komfortabel zu zocken.

Immerhin befinden wir uns oft genug im Bereich von mehreren hundert FPS bei CPU Tests.......
 
Bierliebhaber schrieb:
Meine Güte, manchen scheint es ja ganz schön an die Nieren zu gehen, wenn ihr Lieblingsprodukt mal nicht so wie gewünscht abschneidet... :D

Factorio ist ein ziemlich beliebtes Spiel, und die Überschrift absolut korrekt. Wo hier Clickbait sein soll muss mir mal jemand erklären.
Sehe ich ebenso. Witzig, wie von unrelevant bis clickbait einfach alles dabei ist. Dabei ist der Benchmark weder Clickbait, noch AMD optimiert.
Manche Leute, sollten sich echt im Forum abmelden und etwas eigenes machen.

Aber die 4% bei 40W, die finde ich spannender. Heißt also im Umkehrschluss, der 14900K wird den X3D schlagen, aber mit einer Katastrophalen Energiebilianz. Aber wir lernen hier ebenso immer wieder, AMD Energiebilanz ist etwas anderes als Intel oder NVs Energiebilanz.
Ich hole schon mal Popcorn für den großen CPU Test
 
  • Gefällt mir
Reaktionen: danyundsahne
Supie schrieb:
Immerhin befinden wir uns oft genug im Bereich von mehreren hundert FPS bei CPU Tests.......
gerade bei den Games die vom Cache Profitieren oder auch denen die Pathtracing Nutzen, hat man aber halt nicht hunderte von FPS.

Also passt der Vergleich imho tatsächlich ganz gut, mit einem kleinen, aber sehr feinen Unterschied. Wenn die GPU zu langsam ist, kann man das Spiel in der Regel sehr einfach immer noch sehr flott laufen lassen, wenn man nur an den Reglern etwas dreht. Wenn die CPU zu langsam ist, dann schaut man halt blöd und braucht meist einfach eine neue CPU.
 
Och ich hatte noch nie im leben intel cpus und Lebe noch nur immer amd.
 
Das einzig interessante an diesem Ergebnis ist doch der Vergleich Raptor gegen Raptor.
Dieser Spielebench hat etwas den Schein von Super Pi. Nur eben diesmal für AMD.
 
Supie schrieb:
Ok, dann erklärst du AMD auch noch wie man den Takt = die Hitze unter dem Cache unter Kontrolle bringt, damit der Takt nich abkackt.......
Du kannst unter 99,9% Wahrscheinlichkeit davon ausgehen, sobald ein 12T CCU wirtschaftlich sinnvoll ist und AMD die 11,1W pro Core noch skalieren kann, kommen solche 3D Caches unter Garantie.

Wenn Intels Cove nicht ~20W pro Kerne verbrauchen würde (hier skaliert nämlich nichts wirklich seit ADL), würde Intel eine 6C12T, Doppel Ringbus Einheit entwickeln und bauen. (die 10er Serie hat ja gezeigt, dass es geht prinzipiell)
Leider bietet Mesh nicht den nötigen Speed und hier ist AMDs Ansatz eben besser.. Konsequenterweise wird 3D Cache auch bei Intel Einzug finden, hier bedarf es dann aber mehr als bissl an Cove rumzuwerkeln.
Doppel Cache CPU bringen am Ende nichts, und ich sehe, die Mischung aus Zen und Zen C am Zukunftssichersten. Anders als Intel sind die 4C Core ja keine Atom, sondern vollwertige CPU einheiten. Sollte ARM mit AMDs Altem CMT Ansatz Erfolg haben, und das werden sie, werden beide Hersteller ggf eh umplanen müssen. Die Skalierbarkeit der Kerne bei gleichzeitiger besser Energieeffizienz ist immer wichtiger. Und hier fährt Intel eben nicht mal auf dem selben Planeten, wie AMD, ARM und Apple mit.

Und jeder, der den Factoriobench nicht verstanden hat, möge ins Github gehen und es sich durchlesen.
Man testet am Ende CPU mit CPU Lastigen Benches.. Es ist mit egal, ob die CPU bei NFS im GPU Limit liegt, es ist mir nicht egal, ob dies de Fall bei Stellaris oder eben Factorio ist.
Und Tatsache dürfte der 14700K hier das einzige Modell sein, was sich vom Vorgänger wirklich absetzen kann.

Am Ende geht es um Exakt das hier. Leider fehlt hier immer noch 7700X vs 7800X3D

https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/
Der Test zeigt dann auch Eindrucksvoll, dass viele hier nicht verstanden haben, was die X3D so spannend macht und erschreckend, wie mancher die Realität auf Grund des schlechteren Abschneidens seines Lieblingsproduktes dann ausblenden möchte!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Supie schrieb:
Ok, dann erklärst du AMD auch noch wie man den Takt = die Hitze unter dem Cache unter Kontrolle bringt, damit der Takt nich abkackt.......
Genau DAS war doch der Grund für das geteilte Design und ich habe noch nichts gelesen, das man das unter Kontrolle hätte.
Sonst hat man wieder einen Taktunterschied von mehreren hundert MHz zum Modell ohne Cache.

Das wäre dann eine in Anwendungen schwächere hardvore Gamercpu, wenn die es zahlen wollen.
Doppelter Cache kostet wohl auch ein schönes Stück Aufrpreis.
Ich glaube die Kosten des doppelten Cache sind vernachlässigbar. Auch die Kosten für das zusätzliche packaging sollten überschaubar sein.

Die Fläche konnte bereits von 41mm2 (Gen. 1, 5800X3D) auf 36mm2 (Gen. 2 z.B. 7950X3D) reduziert werden.
Die reinen Produktionskosten unter der Annahme das ein 300mm Wafer bei TSMC (in N7)
ca. 10'000$ kostet, was wohl nicht allzu weit von der Realität entfernt sein sollte, sollten zu vernachlässigen sein. Denn wie viel Prämienaufschlag sind wohl manche Kunden bereit zu bezahlen, wenn sie am Ende
den Top Dog den heiligen Gral der Gaming CPU's in den Händen halten dürfen?

Es mag schon sein, dass eine solche CPU wenn es nur um das reine Spielevergüngen geht, aufgrund der mangelnden Kernskalierung am Ende nur 5-10% in Games schneller ist als ein z.B. 8800X3D mit nur einem Chiplet. Aber 5-10% sind auch gleich einmal, eine ganze Generation wenn man einen Blick zur Konkurrenz wirft.

Die CPU richtet sich natürlich vornehmlich an Gamer und sollte auch als das vermarktete werden, was allerdings nicht heißt das sie in Anwendungen schlecht abschneiden wird. Denn wenn die Prognosen für Zen5 nur halbwegs zutreffen sollten. Wird dieser auch in Anwendungen ein wahres Beast werden.

Wenn ich AMD wäre würde ich daher das Produktportfolio am oberen Ende um eines erweitern in etwa folgendermaßen:
  • 8950X mit jeweils hohem Takt auf beiden Chiplets (spezialisiert auf Anwendungen)
  • 8950X3D(1X hybrid edition) wie gehabt beim 7950X3D mit hohem Takt auf einem Chiplet und reduziertem Takt auf dem anderen.
  • 8950X3D(2X gaming edition) mit reduziertem Takt auf beiden Chiplets (das Nonplusultra spezialisiert auf Spiele)

10000 / 1569 = 6.4$ pro 7nm, 36mm2 3D-V-Cache Chiplet.
1697362978520.png

Auch könnte ich mir gut vorstellen, dass 3D V-chache der 3nd Gen. nochmals mehr Bandbreite z.B. 3 TB/s anstatt 2.5 TB/s hat und die Transistoren nochmals dichter gepackt werden und sich so die Fläche und die damit verbundenen Kosten nochmals reduzieren lassen. Auch ein Umstieg von TSMC N7 auf N6 könnte ich mir vorstellen.

Kleine Ergänzung:
2nd Gen.3d V-Cache verfügt über eine Bandbreite von bis zu 2.5 TB/s. Das ist eine Verbesserung von 0,5 TB/s gegenüber dem 5800X3D-Cache-Chip-Design.

1697361955269.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Rockstar85
Das ganze ist sowas von lächerlich...

Ja, es ist ein Cherrypicking - Szenario. Aber es gibt genug die das Spiel zocken, und es wird auch in Zukunft noch Games geben, die stark von dem Cache profitieren. In dieser Disziplin deklassiert selbst die letzte Generation von AMD alles, was Intel bis late 2024 zu bieten hat. Und wenn Intel eine vergleichbare CPU bringen wird, dann wird das ganze wahrscheinlich kosten.

Aber natürlich ist es voll wichtig, welchen Takt die 3D - CPU in synthetischen stresstest erreichen. Redet euch das nur ein.
 
Zuletzt bearbeitet:
ArrakisSand schrieb:
Ich glaube die Kosten des doppelten Cache sind vernachlässigbar. Auch die Kosten für das zusätzliche packaging sollten überschaubar sein.
Habe ich hier mit einem Wort gessagt, das ich an den Selbstkostenpreis des Herstellers denke?
Schau doch mal was die Karten von NVIDIA mit mehr Speicher im 1 zu 1 Vergleich kosten...........

DA gibts doch die 4060 mit 8 und einmal mit 16 GB. Ohne es selber nach geschaut zu haben, das Geheule wegen des Zitat: "riesigen Aufpreises" war doch sofort da........
Und du denkst AMD macht weiter auf Samariter?
Aber ich persönlich denke, das grössere Problem sind die Termeraturen, und der deswegen geringere Takt.
Auf jeden Fall haben sie deswegen gesagt, das es nur einen Teil des 7950x 3D mit Cache gibt.

Einmal Takt - einmal Cache.
 
  • Gefällt mir
Reaktionen: Eee-PC
Habe ich hier mit einem Wort gessagt, das ich an den Selbstkostenpreis des Herstellers denke?
Schau doch mal was die Karten von NVIDIA mit mehr Speicher im 1 zu 1 Vergleich kosten...........

DA gibts doch die 4060 mit 8 und einmal mit 16 GB. Ohne es selber nach geschaut zu haben, das Geheule wegen des Zitat: "riesigen Aufpreises" war doch sofort da........
Und du denkst AMD macht weiter auf Samariter?
Aber ich persönlich denke, das grössere Problem sind die Termeraturen, und der deswegen geringere Takt.
Auf jeden Fall haben sie deswegen gesagt, das es nur einen Teil des 7950x 3D mit Cache gibt.

Einmal Takt - einmal Cache.

Gefällt mir Zitat Zitieren
Ich habe ja damit auch nicht gemeint das AMD etwas zu verschenken hätte, ganz im Gegenteil diesen würden sie sich natürlich vergolden lassen. Es ging mir einfach darum aufzuzeigen das es für AMD rein generell kein Problem wäre, eine solche CPU auf den Markt zu bringen und damit zugleich auch einen großen Profit zu machen, da kostengünstig in der Herstellung und kaum Mehraufwand damit verbunden wäre.

Ob so eine CPU auf den Markt kommt, oder nicht hängt alleine davon ab, ob sich am Ende genügend Käufer für eine solche finden lassen bzw. wie groß der Leistungsgewinn verglichen mit der hybriden Variante am Ende wäre um den Aufpreis zu rechtfertigen.
Wie gesagt 5-10% bei Games sollten es am Ende schon werden damit ein signifikanter Unterschied vorhanden ist um einen solchen Premiumaufschlag zu rechtfertigen.

Beim 7950X3D haben sie sich noch, Aufgrund der mangelnden Kernskalierung bei Spielen und der Takteinbussen gegen eine solche Option entschieden, aber dass muss ja voraussichtlich Ende nächsten Jahres nicht so bleiben. Zum einten schreitet die Kernskalierung in Spielen voran (wenn auch nur sehr langsam) und zum anderen ist nicht auszuschließen das sie das Problem mit der Spannung un der damit einhergehenden Wärmeentwicklung angehen konnten und wir vielleicht das nächste Mal etwas höhere Taktraten erwarten können.

Und ein 8950X3D (2x) ist auch nicht mit einer 4060 zu vergleichen, bei dieser CPU handelt es sich um den counterpart der 4090 und ist daher als absolutes Premium Produkt für Enthusiasten zu bezeichnen, weswegen die Leute auch nicht so Preissensitiv darauf reagieren dürften. Einem richtigen Enthusiasten mit tiefer Brieftaschen dürfte es am Ende egal sein, ob er 100€ mehr für die Beste Gaming CPU der Welt ausgibt.
Am Ende ist es ja auch nichts anderes, als es z.B. eine Imaginäre 16 GB Variante der 4090 im Unterschied zu einer regulären 24GB Karte wäre.
In einem Benchmark wäre diese vielleicht im Durchschnitt auch nur 2-5% schneller (wenn überhaupt) aber trotzdem können die 24GB im Ausnahmefall richtig reinhauen und zukunftsfähiger ist eine solche Karte auch. Daher sind auch viele Enthusiasten bereit größere Preisaufschläge dafür hinzunehmen.
Bei einem 8950X3D(2x) wäre es am Ende auch nichts anderes.

Ich hatte ja bereits erwähnt, dass mit dieser Variante die reguläre Variante wie sie beim 7950X3D vorzufinden ist, deshalb nicht gestrichen würde, sondern weiterhin wie gehabt verkauft wird. Der (3Dx2) wäre lediglich eine zusätzliche Option an der Spitze der Top CPU's.

Hier noch ein paar positive Beispiele bezüglich der Kernskalierung (>16 Threads) von 2022 dass dürfte in den kommenden Jahren noch etwas besser werden. Wenn auch nur langsam.
1697384097031.png
1697384126583.png

1697384258910.png
1697384306150.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
ArrakisSand schrieb:
Beim 7950X3D haben sie sich noch, Aufgrund der mangelnden Kernskalierung bei Spielen und der Takteinbussen gegen eine solche Option entschieden, aber dass muss ja voraussichtlich Ende nächsten Jahres nicht so bleiben.
Ich muss schon ziemlich undeutlich schreiben......es hat Hardwaregründe warum der 7950x3D nicht mit kompletten Cache auf den Markt kam.....

Zum einen - die Häfte der Kerne die keinen erweiterten Speicher hat, taktet höher. Somit ist dieser Teil der CPU für Anwendungen besser geeignet, als der Teil mit (erweitertem) Cache, weil der Cacheteil ("Chiplet" für verbessernde Klugsch....) schon allein durch die niedrigere Taktrate vom normalen non 3D geschlagen wird.
Der 7950x3D wurde als "einer legende Wollmilchsau" konzipiert, die in Games Energie spart (und das hat sie definitiv) und in Anwendungen trotzdem bis zu 16 Threads voll mit dem non 3D mithalten kann!

Und wenn man will das diese unterschiedlichen DIEs alle Threads kombinieren ist das ineffizient, weil die Daten dann den Umweg über das Bussystem nehmen müssen, zum Abgleich und zur Zusammenarbeit.
Es gibt, soweit ich weiss noch keinen Weg den AMD einschlägt aus den zwei 8 Kernern einen 16 Kern DIE ohne Bussystem (heisst glaube ich "IF") zu fertigen, das würde dann zumindest diesen Flaschenhals entfernen.

Und das ist der Grund warum der Shedduler in Windows bestmöglich versucht, alle Aufgaben von einem
Programm in einem DIE zu halten.

Wie gesagt, wenn AMD das Problem löst, das sich unter dem 3D Cache die Hitze staut, und diese CPU somit gleich hoch wie der non 3D takten kann, könnte ich mir so eine CPU vorstellen, aber voher? In Anwendungen würde AMD vor der Lösung dieses Problems an Boden verlieren! Fragt euch doch selber erstmal ob die das wohl überhaupt wollen können? Und wieviele Spiele lasten zum jetzigen Zeitpunkt überhaupt mehr als 16 Threads komplett aus, so das es überhaupt einen Bedarf für solche eine riesen Spielercpu gibt?
Anwendungen profitieren nämlich meist nicht so sehr von dem Cache.

Und ja, mir ist klar, dass das einen non 3D obsolet machen, und somit die gesammten Preise anheben würde....
Das dürfte dann für Budget orientierte Anwender wiederum ein Grund zum meckern sein. Wie man es macht, macht man es verkehrt, war schon immer so.
 
Supie schrieb:
Und ja, mir ist klar, dass das einen non 3D obsolet machen, und somit die gesammten Preise anheben würde....
Das dürfte dann für Budget orientierte Anwender wiederum ein Grund zum meckern sein. Wie man es macht, macht man es verkehrt, war schon immer so.
Glaube nicht, dass es non 3D Modell komplett obsolet machen würde. Immerhin gibt es vom aktuellen 8-Kerner ja auch ein Modell ohne 3D-Cache, obwohl AMD dort alle Kerne mit 3D-Cache versehen kann und die 6-Kerner gibt es gar nicht erst als X3D Variante. Selbst wenn AMD also einen 16-Kerner komplett mit 3D-Cache ausstatten kann, werden sie weiterhin zweigleistig fahren und Modelle ohne 3D-Cache anbieten.

Zumal die Budget-Käufer auch nicht zum 16-Kerner greifen, sondern eher einen günstigen 6- bis 8-Kerner nehmen (mit oder ohne 3D-Cache).
 
iron_monkey schrieb:
Wer z.B. gerne 6 Ghz+ sehen möchte kann sich bei AMD aufn Kopf stellen und bekommt sie trotzdem nicht, genau so sieht es dann mit dem 3DCache und z.B. diesem Spiel hier aus, da kann eine Intel CPU dann nicht vergleichbar liefern...
Die Taktschraube ist halt Intels aktuell einziger Hebelpunkt um überhaupt noch mitzukommen. Da wird halt alles getan ohne Rücksicht auf Verluste um den Takt, die einzige Stellschraube die man noch hat, hochdrehen zu können.

Erinnert euch an die EE von Intel auf Prescottbasis, oder AMD mit den Bulldozern, die CPUs waren reine Heizplatten.
iron_monkey schrieb:
Leben und leben lassen und sich eher darüber freuen, dass es überhaupt noch andere PC "Verrückte" gibt...
Eben das Blatt wird sich auch irgendwann wieder wenden, Intel arbeitet ja drann, aber der Effekt wird noch 1-2 Jahre auf sich warten lassen, in der Zeit hat AMD halt freie Bahn.

Man kann nur hoffen das AMD in der Zeit nicht den selben Fehler wie Intel macht.
Rockstar85 schrieb:
Aber die 4% bei 40W, die finde ich spannender. Heißt also im Umkehrschluss, der 14900K wird den X3D schlagen, aber mit einer Katastrophalen Energiebilianz. Aber wir lernen hier ebenso immer wieder, AMD Energiebilanz ist etwas anderes als Intel oder NVs Energiebilanz.
Eigentlich nicht :D
Rockstar85 schrieb:
Konsequenterweise wird 3D Cache auch bei Intel Einzug finden
Ist ja schon zwangsläufig so, wo soll man noch hin, wobei ich jedes mal lachen muss wenn es um 3D bei sowas geht und die einfach meinen das sie jetzt Chips stapeln.
Rockstar85 schrieb:
Doppel Cache CPU bringen am Ende nichts, und ich sehe, die Mischung aus Zen und Zen C am Zukunftssichersten.
Wenn man ihn daneben anbringt könnte man die Hitzeabgabe vielleicht etwas besser streuen.
Supie schrieb:
Und wieviele Spiele lasten zum jetzigen Zeitpunkt überhaupt mehr als 16 Threads komplett aus, so das es überhaupt einen Bedarf für solche eine riesen Spielercpu gibt?
Anwendungen profitieren nämlich meist nicht so sehr von dem Cache.
16 fast gar keins, bei den meisten kann man froh sein wenn sie mit 6-8 umgehen können. Es wird sich ja immer noch zu sehr an den Konsolen orientiert und da sind 8C(16T) ja aktuell das Maximum. Ich weiß auch gar nicht in wie weit man Spiele denn überhaupt parallelisieren kann. Die Diskussion gabs ja schon bei den Dualcore und dann Quadcores. Zu viele Prozesse hängen halt voneinander ab als das man sie so stark trennen könnte.
 
  • Gefällt mir
Reaktionen: iron_monkey
sikarr schrieb:
Ich sag nur: Nvidia kann ruhig mehr Energie verbrauchen, denn Nvidia ist ja besser xD
 
Zuletzt bearbeitet:
Zurück
Oben