Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Ryzen 9 9950X3D im Test: Kompromisslos schnell
- Ersteller Volker
- Erstellt am
- Zum Test: AMD Ryzen 9 9950X3D im Test: Kompromisslos schnell
Nochmal, was hat meine 3090 damit zu tun, welche CPU ich in meinem SFF-Case verbaue?ThirdLife schrieb:Deine Worte, nicht meine.
Die GPU muss so oder so gekühlt werden, seit Jahren problemlos.
MSFS2024 ist schon ein Schwergewicht, unhörbar kühlen geht auf 10L nicht mehr.
Warum sollte ich da nochmal knapp 30W extra haben wollen? Vor allem: für 0 Benefit (Edit: schau dir dazu meinen Screenshot mit den FPS an).
mehr ist besser:
weniger ist besser:
Mein kurzer Test/Eindruck für @IchBins237 bezog sich auf den MSFS 2024 - alle anderen Spiele im Test interessieren mich nicht, weil ich sie nicht (oder zumindest nicht auf dem PC) spiele.
CB2077, Ghost of Tsushima etc. spiele ich (bequem auf der Couch) auf einer PS5 Pro.
Zuletzt bearbeitet:
guru_meditation
Cadet 4th Year
- Registriert
- Feb. 2008
- Beiträge
- 126
Und genau deswegen ist deine persönliche Erfahrung nur anekdotisch, hat aber keine generelle Aussagekraft. Wie ich bereits geschrieben habe, gibt es genau dafür breite Testparcours.mscn schrieb:Mein kurzer Test/Eindruck für @IchBins237 bezog sich auf den MSFS 2024 - alle anderen Spiele im Test interessieren mich nicht, weil ich sie nicht (oder zumindest nicht auf dem PC) spiele.
Es reicht jetzt auch wirklich mit dir und den anderen Trollen hier im Thread. Willst du unbedingt den Block?
Ich habe eine Frage von @ThirdLife beantwortet, die er zu meinem Beitrag für @IchBins237 gestellt hat.guru_meditation schrieb:Und genau deswegen ist deine persönliche Erfahrung nur anekdotisch
Das mag für dich anekdotisch sein, war für den Adressaten aber scheinbar hilfreich (siehe hier).
Nochmal für dich: es wurde explizit nach dem MSFS 2024 gefragt und das habe ich dargestellt.
?guru_meditation schrieb:Es reicht jetzt auch wirklich mit dir und den anderen Trollen hier im Thread.
Ich bitte darum - dann muss ich solch nutzlose Beiträge nicht mehr sehen.guru_meditation schrieb:Willst du unbedingt den Block?
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.844
Und die CPU muss nicht so oder so gekühlt werden ? Kann man den Rechner auch ohne betreiben ?mscn schrieb:Nochmal, was hat meine 3090 damit zu tun, welche CPU ich in meinem SFF-Case verbaue?
Die GPU muss so oder so gekühlt werden, seit Jahren problemlos.
Und genau das wird hier dir und manch Anderem eben angelastet, es wird ein komplettes Zerrbild der Realität erschaffen. Eine 450W GPU im Case ist ok, Begründung "muss so oder so gekühlt werden" wenn eine AMD CPU zur Debatte steht, dann geht das aber nicht weil "warum 30W extra" ? Ja warum keine 4080 mit UV und 200W weniger ???mscn schrieb:MSFS2024 ist schon ein Schwergewicht, unhörbar kühlen geht auf 10L nicht mehr.
Warum sollte ich da nochmal knapp 30W extra haben wollen? Vor allem: für 0 Benefit (Edit: schau dir dazu meinen Screenshot mit den FPS an).
Obwohl du eine 3090 im Rechner hast willst du solche Knüller dann in hässlich spielen ? Versteh ich jetzt nicht so wirklich.mscn schrieb:CB2077, Ghost of Tsushima etc. spiele ich (bequem auf der Couch) auf einer PS5 Pro.
Doch aber das thermische Budget ist durch mein Gehäuse begrenzt.ThirdLife schrieb:Und die CPU muss nicht so oder so gekühlt werden ?
Im SFF Bereich machen 30W mehr oder weniger tatsächlich einen großen Unterschied (Gehäuse >15L sind nicht SFF) und bei der CPU kann ich sie definitiv "einsparen", während meine 3090 mit UV halt zieht, was sie zieht (und das seit Jahren ausreichend gut funktioniert). Ich habe die 3090 primär für die Arbeit (CUDA, AI also VRAM) und weil ich damals das Schnellste wollte, was (physisch) in das A4H2O passt.
Für den MSFS2024 gilt das, was hier im Benchmark ermittelt wurde - ich erfinde keine Zahlen oder "Tatsachen", ich verwende die Grafiken aus dem Test. Was gibt es da "anzulasten"? Was soll das für ein "Zerrbild der Realität" sein? Ist das nicht alles ein bisschen zuviel Drama?ThirdLife schrieb:Und genau das wird hier dir und manch Anderem eben angelastet, es wird ein komplettes Zerrbild der Realität erschaffen.
Eine 450W GPU zieht keine 450W, schon gar nicht dauerhaft und das weißt du sicher auch.ThirdLife schrieb:Eine 450W GPU im Case ist ok, Begründung "muss so oder so gekühlt werden"
In meinem Arbeitsalltag ist die 3090 nicht zu hören (ROG Strix OC, gute Kühlung, kein Spulenfiepen).
Beim Spielen wird sie natürlich präsenter und erwärmt das Coolant der CPU direkt mit (warme Luft oben raus durch die 240mm AiO). Da die 240mm mit dem 285k (oder einem 7950X3D) buchstäblich noch "Luft" nach oben hat, kein Problem.
Eine CPU, die nun grundsätzlich mehr Strom verbraucht (wir reden hier über >20%), muss besser gekühlt werden.
Das heißt: schnellere Lüfter und das bedeutet: mehr Geräuschemissionen.
Für mich das wichtig, weil ich mit dem Teil arbeite und außer Musik NICHTS hören möchte, wenn es nicht nötig ist und beim Spielen nicht mehr Lärm brauche, als ich ihn schon habe.
Ich kaufe die Spiele meist für alle Plattformen (Steam, Sony, Nintendo und früher auch XBOX).ThirdLife schrieb:Obwohl du eine 3090 im Rechner hast willst du solche Knüller dann in hässlich spielen ?
Gespielt wird auf 1-2 PCs, der PS5 Pro und/oder einem MSI Claw 8 (auf dem eigentl nur der MSFS und D4) oder ROG Allly Z1E.
Ja sicher, die grafische Qualität ist ein Unterschied, aber mir ist Bequemlichkeit (PS5 Pro) oder "überall Spielen" (Claw 8) manchmal eben wichtiger. Das PS Portal hat zuviel Latenz. Das Steamdeck ist sicher auch nicht wegen seiner Leistung so beliebt (und so hässlich ist das auf der PS5 Pro nun auch nicht, da sind die FPS schneller ein Problem, als Eye-Candy).
Nintendo Switch und PS5 verkaufen sich millionenfach (und die spielen vermutlich nicht alle Minesweeper): Die Grafik/FPS/Frametimes sind wohl eher etwas, was nur in unserer Bubble eine solche Rolle spielt.
CadillacFan77
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.386
Das Problem ist ja, dass der 285K sich "eigenartig" verhält und nicht konsistent abliefert. In jedem Test kommt das zur Sprache.IchBins237 schrieb:Aber welches Testergebnis für den FS ist jetzt richtig? Stehen 40% weniger Anwendungsleistung des 9800X3D zum 285K nun 8% oder 30% Mehrleistung im FS gegenüber?
Das wäre für mich schonmal ein negativer Punkt. In Anbetracht dessen, und es eben im Schnitt leicht bessere Alternativen von AMD gibt (ob jetzt 9800X3D oder 9950X3D muss jeder selbst wissen), macht es imho keinen Sinn auf den 285K zu hoffen. Preislich ist es kaum ein Unterschied, insbesondere wenn man die Platformkosten mit RAM und auch Mobo einrechnet.
Zudem kommt Zen6 auch noch auf AM5, da hat mal also einen Upgradepfad. Der nächste Intel kommt zwar auch nochmal auf So1851, aber wohl mit einem neuen Chipset wie schon seit immer bei Intel.
Zudem scheint auch der 9950X3D mit CoreOptimizer ziemlich gut zu tunen sein, deutlich mehr Performance bei weniger Verbrauch als Stock kann man einfach mitnehmen. Die Optimierung mal auszutarieren 1-2h lohnt sich. Dann wird der Unterschied nochmal grösser.
- Registriert
- Okt. 2023
- Beiträge
- 4.346
Warum geht es nun plötzlich um deinen 7950X3D? Konsistent sind deine Beiträge nicht.ThirdLife schrieb:Also ich sehe ggü. meinem 7950X3D eine Mehrleistung von rund 25-26% allein in Anwendungen, Games muss ich jetzt erstmal noch für mich testen.
Du hattest mich oben zitiert und jetzt Themawechsel, oder was?
Und? Was tut das zur Sache?ThirdLife schrieb:Gekostet hat mich der 7950X3D damals 660 CHF, der 9950X3D jetzt 749 CHF. Das sind 13,5% Aufpreis für 25%+ Performance und auch nur weil ich den 7000er damals nicht zum Launch gekauft habe direkt, den 9000er jetzt aber schon sonst wär der Aufpreis nochmals geringer.
Warum soll es Cherrypicking sein ein Ergebnis auszuschließen, indem man bei Intel auch mit einer App (ähnlich Gamebar) die Kerne anpinnen kann?ThirdLife schrieb:Dass du Cherry-Picking betreibst. Ich kann auch jedes Ergebnis ausschliessen in dem Intel positiv dasteht und zum Ergebnis "AMD ist 80% besser" kommen.
Damit AMD 80% vorne ist, musst du schon alle Spiele bis auf 3 rausklicken. Ich denke du hast nicht verstanden was Cherrypicking bedeutet. Das wäre nämlich eins. Bei so lächerlichen Vorwürfen kann ich dich ab sofort nicht mehr ernst nehmen.
Habe ich doch, sind dann 3%, mit Threads anpinnen. Hier der Download. Gamebar kannste auch draufknallen.ThirdLife schrieb:Wenn du wirklich realistische Ergebnisse haben willst müssen wir hier sämtliche Tests und Seiten mit ALLEN Werten einbeziehen und nicht nur Werte die dir gut in den Kram passen.
https://bitsum.com/
Ich schaue nur Tests die CPU lastig sind, da sind Computerbase/PCGH konsistent.
Wenn jemand ein uraltes Tombraider oder CS2 bencht und dann 500 FPS misst, ja dann hat das keine Relevanz.
LamaMitHut
Captain
- Registriert
- Nov. 2013
- Beiträge
- 3.389
Is schon irgendwo traurig, dass das "Premium" Produkt von intel mit Hardware von 2020 kombiniert wird. XD
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.844
Sagt mir ja was ich an Mehrleistung erwarten kann. Und da ich die Werte dort ja für mich kenne kann ichs prima den Werten hier gegenüberstellen und auch mit einer breiteren Menge an Games die andere mit dem 7000er getestet haben.Quidproquo77 schrieb:Warum geht es nun plötzlich um deinen 7950X3D? Konsistent sind deine Beiträge nicht.
Ein 285K ist bei 577 Steinen aktuell, ein 9950X3D bei 693 (in CH). 20% Aufpreis also während du natürlich dein 42000er CL1 Memory für den Intel geschenkt kriegst genauso wie den Boardwechsel bei der nächsten CPU und darum ist Intel hier GANZ KLAR überlegen.🤣Quidproquo77 schrieb:Und? Was tut das zur Sache?
PCGHW kommt im Mittel über alle Anwendungen + Games auf 10-18% Vorsprung. Das tut durchaus was zur Sache bei einer Kaufentscheidung. Ist im Endeffekt aber alles gleichermaßen witzlos wie über 10-20W im Idle zu debattiern. 100 oder 120fps merkt keine Sau. 30 oder 36 wohl auch nicht.
In deinen Screenshots nimmst du nicht nur EIN Game raus sondern mehrere. Auch interessant ist, dass andere Seiten, Tester, Besitzer zu ganz anderen Ergebnissen im FS kommen, das wird dann aber schon hier gefeiert und alles andere als Ausreisser definiert.Quidproquo77 schrieb:Warum soll es Cherrypicking sein ein Ergebnis auszuschließen, indem man bei Intel auch mit einer App (ähnlich Gamebar) die Kerne anpinnen kann?Ohne sind es 7%.
Machen wir doch mal meinen persönlichen Schnitt an Games von denen die ich zocke bei PCGHW:
BG3 70%
DA Veilguard 9%
Frostpunk 2 31%
Hogwarts 38%
Manor Lords 63%
Starfield 19%
Anno 1800 26%
CP2077 12%
Sind im Mittel 33,5% bei 20% Aufpreis. Kann man so machen. Ich bin sicher, andersrum wäre das bei Intel eine Instant-Kaufempfehlung, hier ist das auf einmal ein "müssen wir drüber reden...idle und so und wenn man dies und jenes weglässt....".
Du wählst aus, was dir gefällt und lässt weg was dir nicht passt. Das ist DIE Definition von Cherry-Picking. Für die persönliche Kaufentscheidung sicher relevant aber halt nicht um generelle Aussagen zu treffen.Quidproquo77 schrieb:Damit AMD 80% vorne ist, musst du schon alle Spiele bis auf 3 rausklicken. Ich denke du hast nicht verstanden was Cherrypicking bedeutet. Das wäre nämlich eins.
So gehts mir mit deiner zurechtgebastelten Realität schon länger. Aber ich versteh dich, hätte ich mir einen 285K geholt und werd jetzt links wie rechts penetriert in nahezu jeder Situation und hätte keinen Upgradepfad und ne Menge Geld versenkt wär ich auch so drauf.Quidproquo77 schrieb:Bei so lächerlichen Vorwürfen kann ich dich ab sofort nicht mehr ernst nehmen.
Geh ich konform, aber dann darf man auf einmal eine ganze Menge alter Benchmarks nicht mehr nehmen (CPU-Z anyone??) oder doch, weil Intel darin abrockt ? Passt das dann wieder ins Weltbild ?Quidproquo77 schrieb:Wenn jemand ein uraltes Tombraider oder CS2 bencht und dann 500 FPS misst, ja dann hat das keine Relevanz.
- Registriert
- Okt. 2023
- Beiträge
- 4.346
Stimmt ja nicht. Kannst auch gar nichts rausnehmen, es gibt keinen deutlichen Vorsprung. Und Kerne Anpinnen kann man in Homeworld auch beim Intel.ThirdLife schrieb:In deinen Screenshots nimmst du nicht nur EIN Game raus sondern mehrere
Du verdrehst meine Äußerungen, hat keinen Sinn. Ich habe nie gesagt kauf pauschal den Intel, ich sage lediglich, es ist ein relativ kleiner Vorsprung, an dem du dich jetzt hochziehst. Sowas hat es bei 9070XT und 5070Ti bei fast niemandem im kompletten Forum gegeben. Bei AMD vs. Intel ist es plötzlich eine Sportart.ThirdLife schrieb:Ich bin sicher, andersrum wäre das bei Intel eine Instant-Kaufempfehlung, hier ist das auf einmal ein "müssen wir drüber reden...idle und so und wenn man dies und jenes weglässt....".
Quatsch, aber was soll man machen.ThirdLife schrieb:Du wählst aus, was dir gefällt und lässt weg was dir nicht passt.
Ich kann es nicht nachvollziehen. Das sind ein paar wenige Prozent in diesem Test über Apps und Spiele mit den wichtigen Frametimes. Bei PCGH mit 6-10% in Spielen dasselbe. Mir wäre das peinlich.ThirdLife schrieb:Aber ich versteh dich, hätte ich mir einen 285K geholt und werd jetzt links wie rechts penetriert in nahezu jeder Situation und hätte keinen Upgradepfad und ne Menge Geld versenkt wär ich auch so drauf.
Zuletzt bearbeitet:
Der_Unbekannte
Lieutenant
- Registriert
- Jan. 2017
- Beiträge
- 596
@Quidproquo77
Das Hauptproblem ist halt einfach folgendes:
Von den Fanboys der Intel Fraktion wurde bisher immer hervorgehoben, das Intel das Maß aller Dinge ist, obwohl es seit Jahren nur wenige Prozent waren ( 2700X gegen 9900K, 3900X gegen 10900K, usw.).
Da wurde über alles andere weggesehen. Stromverbrauch, Sicherheitslücken, alles egal.
Und jetzt, wo AMD Intel in allen Belangen aussticht, wird das bei Core Ultra auf einmal gedreht.
Als Hinweis: Für 5 Prozent mehr haben Leute wie du vorher zum 10900K gegriffen, statt zu einem günstigeren, effizienteren 3900X zu greifen.
Und jetzt ist es auf einmal etwas ganz anderes. Nur um AMD nicht kaufen zu müssen.
Das ist es, was den Leuten hier sauer aufstößt.
Wenn du Bock auf Intel hast, aufgrund von persönlicher Präferenz, dann steh offen dazu und verpacke es nicht in irgendwelche Argumente.
Das Hauptproblem ist halt einfach folgendes:
Von den Fanboys der Intel Fraktion wurde bisher immer hervorgehoben, das Intel das Maß aller Dinge ist, obwohl es seit Jahren nur wenige Prozent waren ( 2700X gegen 9900K, 3900X gegen 10900K, usw.).
Da wurde über alles andere weggesehen. Stromverbrauch, Sicherheitslücken, alles egal.
Und jetzt, wo AMD Intel in allen Belangen aussticht, wird das bei Core Ultra auf einmal gedreht.
Als Hinweis: Für 5 Prozent mehr haben Leute wie du vorher zum 10900K gegriffen, statt zu einem günstigeren, effizienteren 3900X zu greifen.
Und jetzt ist es auf einmal etwas ganz anderes. Nur um AMD nicht kaufen zu müssen.
Das ist es, was den Leuten hier sauer aufstößt.
Wenn du Bock auf Intel hast, aufgrund von persönlicher Präferenz, dann steh offen dazu und verpacke es nicht in irgendwelche Argumente.
Zuletzt bearbeitet:
Ich stimme dir zu in dem Punkt, dass seitens Intel die jährlichen 5%-Vollpreis-Refreshes wie eine Sensation gefeiert wurden. Und wir wissen alle, was daraus wurde.Der_Unbekannte schrieb:Wenn du Bock auf Intel hast, aufgrund von persönlicher Preferenz, dann steh offen dazu und verpacke es nicht in irgendwelche Argumente.
Ich finde es enttäuschend, dass man sich mit dem X3D-Zusatz nicht deutlicher (Ausnahme bleibt der 9800X3D, der ist direkt aus dem Karton heraus schon ohne Konkurrenz) vom Intel-Pendant abgrenzen kann, der ohne den größeren Cache auskommen muss (Intel hält das nicht für profitabel, also gibt es das nur für die XEONs).
Wie geht es also weiter? Nächste Gen noch mehr Verbrauch für erneute, fiktive 5%?
Ich bin ehrlich: mir fehlt das (Architektur-)Wissen um zu beurteilen, was aus dem aktuellen Design noch herausgeholt werden kann.
Insofern sehe ich AMD hier aktuell auf dem alten Intel-Pfad "alter Wein in neuen Schläuchen" - denn, wie Intel seinerzeit, bemüht auch AMD nun offensichtlich die Leistungsaufnahme, um noch ein paar % extra herauszukitzeln.
Während man über Intel heute den Kopf schüttelt, wird AMD dafür beklatscht.
Ja, ich habe "Bock auf Intel" - aber vor allem aufgrund von Neugier, der Mainboardauswahl (ITX mit TB4, bis zu 128GB RAM mit viel OC Potential und 5Gbit Ethernet) und weil es zum Kaufzeitpunkt (ab August bis Oktober 2024) schlicht noch keinen 9950X3D gab.
Und weil mir (mit dem Wissen heute) der Vorsprung einfach nicht groß genug ist, um Mehrkosten, Mehrverbrauch und die mäßige Boardauswahl zu rechtfertigen. Es gibt nur genau 3 ITX-Boards, die wenigstens 1x USB4 haben https://geizhals.de/?cat=mbam5&xf=19828_1~4400_Mini-ITX - und das erst ab 300€ aufwärts. Ich gehöre offensichtlich nicht zur Zielgruppe.
Inwiefern mir das die Kritik an AMD verbietet, erschließt sich mir nicht (und genau für diese wird man hier angegangen).
Schaunwermal - ich meine, bei der Vorstellung der 9000er im Sommer gelesen zu haben, AMD habe große Teile der Architektur auf links gedreht und etliches der hierdurch möglichen Verbesserungen käme in Zen6.mscn schrieb:Insofern sehe ich AMD hier aktuell auf dem alten Intel-Pfad "alter Wein in neuen Schläuchen" - denn, wie Intel seinerzeit, bemüht auch AMD nun offensichtlich die Leistungsaufnahme, um noch ein paar % extra herauszukitzeln.
Das wäre dann eher das Gegenteil von 'altem Wein in neuen Schläuchen' - aber das sehen wir dann frühestens mit der nächsten Generation.
Wo ich AMDs Politik eher zum Kotzen finde, ist bei den Chipsätzen: identisch gleiche Promontory 21, jetzt mit dem 800er-Label statt einer 600er-Bezeichnung - was soll der Quatsch?
Ist ja nicht so, als gäbe es da keine deutlichen Verbesserungsmöglichkeiten...
Hatsune_Miku
Rear Admiral
- Registriert
- Juli 2012
- Beiträge
- 5.943
ThirdLife
Captain
- Registriert
- Aug. 2019
- Beiträge
- 3.844
Nicht deutlicher abgrenzen ? Es gibt eine Menge Titel wo wir von +20-50% reden. Wie deutlich muss man sich denn in deinen Augen abgrenzen ? 500% ? 800% ?mscn schrieb:Ich finde es enttäuschend, dass man sich mit dem X3D-Zusatz nicht deutlicher (Ausnahme bleibt der 9800X3D, der ist direkt aus dem Karton heraus schon ohne Konkurrenz) vom Intel-Pendant abgrenzen kann, der ohne den größeren Cache auskommen muss (Intel hält das nicht für profitabel, also gibt es das nur für die XEONs).
Davon abgesehen nutzt Intel vielleicht kein dickes L3 Cache Chiplet dafür packen sie aber aber 140% mehr L1 Cache pro Core und 200% mehr L2 per Core, sowie nochmals 4MB mehr L3 ggü. dem regulären 9950X.
Am Cache spart Intel hier nicht, dürfte eher teurer so sein für Intel wenn man das in N3 fertigen muss als am Ende wie AMD ein günstiges L3-Chiplet zu stacken.
Insofern siehts eher so aus: AMD holt mehr aus weniger und das auch noch auf einer günstigeren Node mit N4.
Eher nicht, dürfte ja ein Shrink auf N3 drinliegen. Ich schätze mal -15% Saft +15% Performance. Der Weg hier für AMD ist relativ klar, evtl. ein neuer Memory Controller + anderes Packaging (IDLEEEEEE !!!!). Spannender dürfte es eigentlich bei Intel werden. Kriegen sie 18A gerissen oder reisst es sie ? Wenn ja, wie gut wird das ?mscn schrieb:Wie geht es also weiter? Nächste Gen noch mehr Verbrauch für erneute, fiktive 5%?
Mach doch du mal einen CBR23/24-Run und dann vergleichen wir Scores und Leistungsaufnahme. Und wehe dein Score ist nicht massiv höher und die Leistungsaufnahme enorm tiefer. Dann muss ich nämlich an dein obiges "nicht genug abgrenzen" Argument erinnern. Wir bedenken: Intel fährt hier kostenmässig einen deutlich größeren Aufwand mit N3 als AMD - da sollte man sich doch schon "deutlich abgrenzen" können sonst wär das sehr enttäuschend (ums in deinen Worten auszudrücken).mscn schrieb:Insofern sehe ich AMD hier aktuell auf dem alten Intel-Pfad "alter Wein in neuen Schläuchen" - denn, wie Intel seinerzeit, bemüht auch AMD nun offensichtlich die Leistungsaufnahme, um noch ein paar % extra herauszukitzeln.
Der Unterschied ist, dass ich in Games jetzt halt 80-100W ziehe, ein 14900K im Mittel aber immer noch 40-50% mehr und ein 285K auch nicht groß weniger als der 9000er.mscn schrieb:Während man über Intel heute den Kopf schüttelt, wird AMD dafür beklatscht.
Und wenn dir das nicht gefällt darfst du das natürlich selbst gern entsprechend tweaken.
OC-Potential ? Nachdem du einen 9950X3D wegen potentiellen 20-30W Mehrverbrauch ablehnst ist aber auf einmal OC beim 285K eine Option ???? Hahahahahahaha. 😂😂😂😂mscn schrieb:Ja, ich habe "Bock auf Intel" - aber vor allem aufgrund von Neugier, der Mainboardauswahl (ITX mit TB4, bis zu 128GB RAM mit viel OC Potential und 5Gbit Ethernet) und weil es zum Kaufzeitpunkt (ab August bis Oktober 2024) schlicht noch keinen 9950X3D gab.
Einzig valider Punkt. Mehrkosten evtl. bei deiner persönlichen Boardauswahl - wäre bei mir definitiv andersrum.mscn schrieb:Und weil mir (mit dem Wissen heute) der Vorsprung einfach nicht groß genug ist, um Mehrkosten, Mehrverbrauch und die mäßige Boardauswahl zu rechtfertigen. Es gibt nur genau 3 ITX-Boards, die wenigstens 1x USB4 haben https://geizhals.de/?cat=mbam5&xf=19828_1~4400_Mini-ITX - und das erst ab 300€ aufwärts. Ich gehöre offensichtlich nicht zur Zielgruppe.
Nein, man wird angegangen für Gebabbel. Und genau das betreibst du hier halt leider mit deinem "20W mehr verkraftet mein Gehäuse nicht, aber OC beim Intel voll geiloooo"-Gerede.mscn schrieb:Inwiefern mir das die Kritik an AMD verbietet, erschließt sich mir nicht (und genau für diese wird man hier angegangen).
Zuletzt bearbeitet:
Snoopy69
Commodore
- Registriert
- März 2004
- Beiträge
- 4.388
Meiner auch, aber k.A. wieviele Batches unterwegs sindHatsune_Miku schrieb:da isser, ist sogar nen sehr frischer 2504 also 4 woche 2025. Temperaturen sind trotz guten 100W mehr ein Traum und angenehm kühl. Zugegeben das Case ist aktuell offen und die GPU ist nicht verbaut. Jetzt gehts an optimieren, allen voran ram
Ähnliche Themen
- Antworten
- 273
- Aufrufe
- 25.028
- Antworten
- 162
- Aufrufe
- 19.954
- Antworten
- 13
- Aufrufe
- 3.064
- Antworten
- 59
- Aufrufe
- 7.852
- Antworten
- 72
- Aufrufe
- 7.829