Notiz Fokus auf Gaming: AMD spricht am 8. Oktober ab 18 Uhr über Ryzen 5000

Bulletchief schrieb:
Kann die 5xxx Serie eigtl schon DDR 5?

Nein wie auch? DDR5 hat doch nicht einmal die Server im Enterprise erreicht.

Aktuell befinden sich DDR5-Samples mit 4.800 bis 6.400 MT/s, sprich bis zu DDR4-6400 bei den Partnern der DRAM-Produzenten und werden wohl mit Zen 4 und Ryzen 6000 sowie Alder Lake-S in 2021/22 im Desktop Einzug halten.

Bulletchief schrieb:
Und wo ist die 4xxx?

Gibt es schon in Form von Renoir U, H und G, bis hoch zum 4900X, weshalb die Nomenklatur erschöpft ist.

Langsuan schrieb:
Ist aber noch nicht 100% bestätigt, dass es die Woche mit 5xxx weiter geht.

Doch das ist safe, denn a) ist mit Renoir hoch bis zum 4900X ist die Nomenklatur erschöpft und kein Platz mehr da für Ryzen und Ryzen Threadripper und b) sind die Engineering Samples doch recht eindeutig was das angeht.

Bulletchief schrieb:
wenn man damit im Gros der Spiele trotzdem hinter dem stromfressenden alten Intel mit der Technologie vom Uropa sitzt... 🤷🏻‍♂️

Was zum einen sehr unwahrscheinlich ist, denn selbst wenn wir ganz konservativ rechnen und Zen 3 „nur“ 10% IPC und 100 bis 200 MHz im Vergleich zulegt, dann ist Ryzen 5000 auch in Sachen Gaming vorne.

Zum anderen ist das aber gar nicht der Kern der Sache um den es geht. Wenn es tatsächlich so sein sollte und ein 10900K mit OC@5,2 GHz und schnellem RAM in 720p noch immer vor einem (sagen wir mal) 5900X stehen sollte, dann ist das auch in Ordnung und dann soll doch derjenige der dieses Use Case fährt, auch auch bitte zum 10900K greifen. Ich sehe da überhaupt kein Problem.

Problematisch ist vielmehr, dass hier wieder versucht wird Szenarien zu kreieren, nachdem ein Ryzen 5000 eine Enttäuschung ist, wenn er dies, das oder sonst was nicht erreicht.

Das gilt aber nicht nur für den AMD-Hate sondern im gleichen Maße für den Intel-Hate. Was willst du mit „Technologie von Utopia“ sagen? Hast du mal den folgenden sehr lesenswerten Beitrag von @Volker gelesen?

https://www.computerbase.de/2020-08/intel-10-nm-superfin-enhanced/

Da ist nix mit Utopia. Ja Intel hat bei 10 nm echt Federn gelassen, aber sie wären nicht die ersten bei denen mal eine Node in die Hose ging oder gar eine oder mehrere CPU-Generationen.

Schau dir mal das Bulldozer-Desaster an, dass sich AMD-Fanboys noch Jahre später mit „ja aber die 8 Module sind gut gealtert“ schönreden.

Auch Bulldozer war nicht so schlecht wie er geschrieben wurde, aber weit weg davon eine guten CPU-Generation zu sein.

Intel ist mit der Utopia-Technologie noch immer wettbewerbsfähig, aufgrund der hohen Taktkeule die sie fahren müssen, da Zen 2 schon mehr IPC hat und Zen 3 noch einmal nachlegt, aber natürlich nicht mehr effizient.

Wer absolut High-End kauft, also z.B. 10900K und RTX 3090, den interessiert das aber nicht und das ist legitim.

Wir sitzen hier aber nur in einer kleinen Blase und deshalb ist es beispielsweise auch ein Fakt, dass beispielsweise ein 3700X mit 8C/16T bei 65W TDP, guter Spieleleistung und sehr guter Anwendungsleistung bei überragender Effizienz, zu einem Preis von 269 Euro in 9 von 10 Fällen die bessere Wahl ist. Denn sie lässt sich mit DDR4-3600 bis 3800 und einem synchronen IF auch noch optimieren und sitzt ganz einfach auf der moderneren Plattform.

Wer sich mal das Budget von Intel hinsichtlich R&D anschaut, der weiß dass die spätestens 2022 wieder mit bei der Musik dabei sein werden, das ist so sicher wie das Amen in der Kirche.

Was die Leistung betrifft, kämpfen AMD und Intel das erste Mal seit Jahren auf Augenhöhe, das erste Mal seit den Tagen des Athlon 64 könnte AMD bei Spielen die 1. Wahl sein und Intel dazu zwinge wie damals beim Core 2 Duo (Conroe) mal wieder richtig liefern zu müssen.

Obwohl wir als Konsumenten aktuell die mit Abstand beste Situation haben, lese ich zu 90% AMD vs. Intel Fanboy Kriege, was völlig absurd ist.

Zen 3, Zen 4, Alder Lake-S, Meteor Lake-S, DDR5, da kommt so viel geiles Zeug und hier gehts nur noch um Fanboy Kriege. Echt traurig und es fehlt nicht mehr viel, dann hat man halt auch keinen Bock mehr mitzureden.

Leben und leben lassen!

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: guru_meditation, Labberlippe, Gr3yh0und und 26 andere
Krautmaster schrieb:
Aber nicht hier im Forum. Oder wie viele betreiben ihren i9 / Ryzen mit 2666er Ram ^^

Für die Basisline ist der CB Parcour da, wenn man wissen will wo man aber mit wenig Aufwand hinkommt -> Community Bench
ich erwarte wie immer auch CB Benchmarks mit XMP Profil. Das gehört einfach dazu, erst recht wenn schon der Hersteller selbst zum Beispiel 3600er CL16 als Sweetspot für Preis/Performance angibt.

Mal davon ab würde ich annehmen das im DIY Bereich 0.x% der Nutzer den RAM wirklich nach Spec nutzen und dann 2400er oder 2600er RAM einkaufen. Das macht wenig Sinn, ob es jetzt 3200er, 3600er, 3733er oder 4000er ist, das sei mal dahin gestellt und auch die Timings dürften reichlich variieren.
Ergänzung ()

SV3N schrieb:
An deiner Stelle würde ich auf Ryzen 6000 und Zen 4 mit DDR5 warten. Ein 3700X reicht doch in wirklich allen Bereichen voll und ganz aus.
Sag doch sowas nicht, am Ende finde ich keinen Vorwand meinen 4790k in Rente zu schicken ;-)

Esenel schrieb:
Wenn Verbrauch ein Thema in Spielen und Anwendungen ist, solltest du einen 10900K einem 3900X vorziehen.
Ich verstehe nicht woher immer dieser Irrglaube kommt, dass Intel mehr Strom verbraucht....
Von Intel Boards die den Intel ab Werk bis an die Kotzgrenze übertakten um bei einem Test besser da zustehen. Dann läuft der Intel auch nimmer so sparsam und der kurze stromfresser Max Boost liegt dafür permanent an.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Mcr-King
Für gewöhnlich sollten [und werden] Herstellervorgaben [also DDR4-2666 und DDR4-3200] sowie XMPs mit DDR4-3200 und DDR4-3600 getestet. Dazu noch DDR4-3600 CL16 mit optimierten Timings.

DDR4-3800 mit IF [FCLK] von 1.900 MHz bei AMD oder DDR4-4000+ bei Intel werden abseits unserer Forenbubble nicht einmal im niedrigen Prozent- sondern eher im Promillebereich genutzt.

Sowas lässt sich dann auch problemlos innerhalb der Community evaluieren.

Apocalypse schrieb:
Sag doch sowas nicht, am Ende finde ich keinen Vorwand meinen 4790k in Rente zu schicken ;-)

Also den Homie hättest du aber in der Zwischenzeit in der Tat mal austauschen können. :D

Esenel schrieb:
Ich verstehe nicht woher immer dieser Irrglaube kommt, dass Intel mehr Strom verbraucht....

Das liegt wohl an Aussagen aus dem Test der Ryzen 3000 Serie wie z.B.:

Noch viel beeindruckender ist die mit Zen 2 gestiegene Energieeffizienz beim AMD Ryzen 7 3700X mit ebenfalls 65 Watt TDP.

Über 15 Prozent mehr Leistung liefert der Prozessor gegenüber dem Vorgänger Ryzen 7 2700X in Apps ohne AVX und Spielen im CPU-Limit, und das System nimmt unter Vollast trotzdem 23 Prozent weniger elektrische Leistung auf.

Der in Multi-Core-Apps vergleichbar schnelle Core i9-9900K genehmigt sich auf seiner Plattform unter Vollast im Test knapp 40 Prozent mehr Strom.


Und zudem Grafiken wie dies:

0EA3C133-F779-4308-9A58-7568BBA5A326.jpeg

Und bei einer kleinen 6C/12T CPU mit 4 GHz wie dem 10400F gehe ich in Sachen Effizienz ja gerne noch mit, aber das ein 10900K@Default effizienter sein soll als ein 3700X@Default mit 65W TDP?

Ja das ist dann eine Exklusiv-Erkenntnis der Kollegen, aber ggf. hat man da PBO und sonstiges auf höchster Stufe aktiv.

Ist auch egal. Ob man als Spieler einen 10900K oder 3900X kauft, hängt doch nie von der Effizienz oder den Stromkosten ab.

Wer einen 10900K für 540 Euro, im übrigen doppelt so teuer wie ein 3700X für 270 Euro kauft, den interessiert doch die Effizienz nicht die Bohne.

Wie viele Jahre will man dann „effizient“ sein, damit man den doppelten Preis wieder reinholt?

Die Problematik der bis zur Unkenntlichkeit aufgedrehten Mainboards, für die Intel nichts kann, mal ganz außen vorgelassen.

Der 10900K den PCGH in seiner „Effizienzliste“, existiert doch in dieser Form gar nicht. Der 10900K läuft doch in der Regel nie @Default bei 125w, auch das wissen wir.

Liebe Grüße
Sven
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Qyxes, m2020, Smartbomb und 2 andere
SV3N schrieb:
Zen 3, Zen 4, Alder Lake-S, Meteor Lake-S, DDR5, da kommt so viel geiles Zeug und hier gehts nur noch um Fanboy Kriege. Echt traurig und es fehlt nicht mehr viel, dann hat man halt auch keinen Bock mehr mitzureden.

Leben und leben lassen!
Top Beitrag, gut zusammengefasst!
 
  • Gefällt mir
Reaktionen: Smartbomb, Mcr-King und Onkel Föhn
SV3N schrieb:
Und zudem Grafiken wie dies:

[IMG]https://www.computerbase.de/forum/attachments/0ea3c133-f779-4308-9a58-7568bba5a326-jpeg.975381/[/IMG]
Und bei einer kleinen 6C/12T CPU mit 4 GHz wie dem 10400F gehe ich in Sachen Effizienz ja gerne noch mit, aber das ein 10900K@Default effizienter sein soll als ein 3700X@Default mit 65W TDP?

Ich stimme dir zu, dass Leute eh nicht nach Effizienz kaufen, aber die verlinkte Grafik irritiert mich schon.

So etwas undurchsichtiges und aus dem Kontext gerissenes habe ich schon lange nicht mehr gesehen.

Da wird - leider wie oft - nur der Vebrauch bei Volllast angezeigt, aber nicht der Verbrauch für jede Spalte. Für Leute, die das nicht merken, wird dadurch suggeriert das z. B. ein 3900X (ich nehm den, da ich da sicher sein kann, dass es nicht stimmt) 109% des Verbrauchs vom 2700X für alle Szenarien hat, inklusive Spiele.

Und das es nicht für Spiele gilt, muss ich glaube ich nicht noch weiter erklären. Der 3900X verbraucht nicht ~63% mehr für ~5% mehr FPS bei 4k als der 3600. Totaler Unsinn.

Aber nun gut:

Wie viel ist 109% Verbrauch? Gute Frage, auch das muss man erst einmal Googlen, da die PPT des 2700X nirgendwo in der Grafik zu sehen ist. Hab den PPT Wert nicht gefunden, nur den TDP von 105W. Wenn das so wie beim 3800X oder 3900X ist, dann sind das maximal ~142W PPT.

Also kommen wir schon mal zum ersten Problem: nämlich das der 3900X 109% des 2700X vebrauchen soll bei derselben PPT. Also entweder lief PBO oder die 2700X war nicht komplett ausgelastet, sonst wäre der 3900X über den 142W gelandet (1.09 * 142W = 154W), was ohne PBO absolut nicht möglich ist.

Gehen wir von der besseren Alternative aus: der 2700X war nicht ausgelastet, der 3900X aber schon. Im Rückschluss ergäbe das 142W/1.09 = 130W als Verbrauch für den 2700X.

Aber stimmt das? Können wir ja mal mit dem 3600 und 3700X gegentesten.

130W * 0.66 = 85.6W für den 3600
130W * 0.77 = 100W für den 3700X

Beides sind 88W PPT CPUs, also stimmt auch hier was nicht mit dem 3700X. Wenigstens ist der Wert für den 3600 plausibel.

Also, wie gesagt: die Grafik ist so für mich komplett unbrauchbar. Wird aber dann wahrscheinlich im nächsten Thread wieder unkritisch so verlinkt von jemanden der diesen Thread nur überflogen hat und ohne Kontext*, der auch schon hier gefehlt hat.

(Und damit meine ich nicht dich, @Sven. Aber du bist doch schon länger hier und weißt wie gerne Sachen aus dem Kontext gerissen werden. Aus "Hier ist ein Benchmark von meinem 10900K bei 5.5 GHz und 5000 MHz RAM der zeigt, das er 30% schneller bei diesem Spiel als die beste AMD CPU ist" wird schnell "Alle stock 10900K's sind 30% schneller als AMD CPUs in allen Spielen" wird "Intel ist 30% schneller als AMD".

*Genauso wie die Prime95 Verbrauchs-Balken, die überhaupts nicht mit Spieleverbrauch zu tun haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Esenel, Krautmaster und eine weitere Person
SV3N schrieb:
Das liegt wohl an Aussagen aus dem Test der Ryzen 3000 Serie wie z.B.:

Glaube es ging eher um den Verbrauch "in Game", nicht Vollast, und auch unter der Annahme dass er zb auf seine TDP oder etwas darüber Limitiert wird. Das long Power Limit bei Intel greift in erster Linie wirklich bei Vollast, weniger in Games.
Im Endeffekt dürfte da 7nm natürlich immer noch besser da stehen, aber im Spiel selbst sollte dieser Unterschied neben Verbrauchern wie der GPU eher vernachlässigbar sein und die laaange Idle Zeit spielt für den Alltagsverbrauch ja vermutlich ne größere Rolle als "Vollast 100%"

Long Story Short, wer seine CPU zum Gamen nutzt, da is es meiner Meinung nach ziemlich Wurst ob die nun auf 50 oder 80W Realverbrauch beim Zocken kommt. Da machen +-5W idle mehr Unterschied.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich überlege seit gut 1,5 Monaten umzubauen
CPu board ram stand schon sicher, Netzteil verschiebe ich da kaum bessere Technik gegen mein Derzeitiges abseits von der Bauart.
Die hevc Leistung vs meiner cpu habe ich durch foren threads herausgefunden. mehr oder minder.
mein wert bsp file war mit crf20 handbrake 24fps und r7 3700x 42fps r9 3900x 52fps 720p video
wenn nicht jetzt nochmal +15% daraufrechne komme ich auf r7 5800x 48fps und r9 5900x 59fps
Letztere wäre quasi nee Verdreifachung
Sieht man davon ab das das video in Echtzeit also 24fps war und die meisten filme /serien bei mir in 720p mit etwas um die 50fps rendern oder 30fps
Wäre das alleine schon das warten wert

Was gaming Leistung angeht kam ich zum Schluss ich kann muss aber nicht, ein gpu wechsel wäre Sinnvoller
aber wie der Markt so will.
Keine Verfügbarkeit der ampere gpu = keine Preisanpassungen am markt folge alles verzögert sich bis es irgendwann Mitte nov Anfang dez endlich zum Abverkauf von turing und navi10 kommt.
Danke Einkaufsbots

Da ich derzeit sowieso aufgrund eines Providerwechsels meine webdav verliere muss ich einiges auf bluray bringen hier alleine würde ich deutlich an zeit sparen wenn das rendern halb so lange dauern wird.

Laptop wechsel steht irgendwann nächstes Jahr an mein oller mullin von 2015 packt es nicht mehr.
da warte ich auch auf endlich renoir kommt.

Nebenbei ich warte sehnlichst auf rtx3060 mit 4352shader das wäre ideal für max 299€
Und ein super vergleich zu rtx2080ti
Den ich glaube schon das weniger shader die ampere Architektur erst richtig leuchten lässt.
amd konter könnte deutlich effizientere gpu sein aber erst Anfang 2021 kommen, zu spät für mich

Im übrigen treiber Fehler gibt es immer nach ner neuen gpu Serie
Das ist bei amd und nvidia identisch manche sind gravierender wie der pcie slot specs Missachtung oder der vram Verlötungsbug von turing.
Das ampere bei 2ghz quasi ab werk am limit OC ist lässt sich simple lösen durch nen vbios oder sekundär per treiber.
Das ist aber fixbar ohne rma
Die beiden anderen musste rma angewendet werden.
Oder von damals 9x00gtx Serie bug das die gpu nicht mehr in den idle ging bzw nicht Hochtaktete. rma oder man schaltete die Stromsparfunktion aus per vbios


Die unzählige bugs im treiber die zu bsod führten bei wddm wechsel.
Woran windows update nicht unschuldig ist.

Was erwarte ich von lisa
Nun ryzen 5000 Serie Vorstellung release Termin Bekanntgabe und preise
meine Vermutung ist
r7 5800x ~379€ +15% ipc und deutlich verbesserte gaming Leistung (hier muss man aber sagen das dafür eine high end gpu nötig wird)
r9 5900x ~499€
r9 5950x ~799€
Den amd wird diesmal die krone bekommen in singlethread und multithread Leistung
eventuell wird man die navi10 preise senken
Und paar benchmarks vorstellen.
vermutlich blender und cb20.
paar game benchmarks

Das meiste wird aber mobile sein laptops und notebooks convertible
GPu wird nur angeteast eventuell wird es am 28.10 zum hardlaunch kommen
Was eine gpu Vorstellung der rdna2 arch nicht ausschließt.
mehr erwarte ich nicht von der Veranstaltung am donnerstag.
 
@ Verbrauch Gaming

Igor hat das ja ganz gut ermittelt
1601878300866.png


wer höhere Auflösungen als FHD nutzt wirds aber weniger da GPU Limit
1601878379305.png



Edit. Da lag ich mit meiner Schätzung 50 zu 80W in Game nicht so brutal weit daneben. Es sind aber wohl eher 60 zu 80W.
Der 10900k ist bei Igor auch nicht ausgebremst, sieht man gut am Umstand dass er auch da 250W brauchen darf je nach Test.

Außerdem darf man nicht vergessen dass bei dem etwas höheren Verbrauch @ Gaming auch etwas mehr Performance bei rüber kommt. Gegenüber der GPU mit 300W+ usw sind so ne CPU im Gaming aber wie gesagt eher vernachlässigbar.

Abschließend habe ich die unzähligen Leistungsaufnahmemessungen noch einmal zusammengefasst und den Werten des Ryzen 9 3900X gegenübergestellt. Was Intel wirklich im Griff hat und woran AMD bei den großen Desktop-CPUs noch arbeiten muss, ist die Leistungsaufnahme im Idle. Hier liegen wirklich Welten dazwischen. Auch im normalen Konstruktions- oder Zeichenalltag hat der i9-10900K deutlich die Nase vorn und dieser Vorsprung endet erst, wenn man anfängt zu spielen. Und es kehrt sich umso stärker zum Rückstand um, je mehr Kerne wirklich ausgelastet werden.
https://www.igorslab.de/intel-core-...echen-des-letzten-14-nm-boliden-seiner-art/8/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Smartbomb und Esenel
Jetzt machen die Ökoterroristen schon das Forum hier unsicher...

Werde auch auf einen 5900x wechseln vermutlich. GPU mal sehen. Kommt drauf an was AMD bietet.
 
ich hoffe schwer dass AMD bei TR mal denselben guten Turbo und die selbe hohe Game Leistung hinbekommen wie bei den kleinen AM4 CPUs. Wobei ich mich stand jetzt wirklich nicht zum Aufrüsten der CPU genötigt fühle. Mein SLX bremst mich dahingehend nie aus und wenn ich Volllast fahre limitiere ich die CPU etwas dass sie nicht so brutal ineffizient wird.
Denke Worst Case is meine aktuelle CPU Gaming Performance etwa wie bei Zen2. Die IPC SLX / Zen2 is auch vergleichbar.
 
IgorsLAB schrieb:
Und es kehrt sich umso stärker zum Rückstand um, je mehr Kerne wirklich ausgelastet werden.

Man sollte schon davon ausgehen, dass bei einer 10-, 12- oder 16-Kern-CPU auch entsprechend viele Kerne ausgelastet werden, sonst hat man sich womöglich auch einfach die falsche CPU gekauft.

Unter dem Strich bleibt Zen 2 die effizientere Architektur und hier ging es bei CPUs von bis zu 540 Euro (10900K) und High-End-GPUs auch nicht um Stromkosten oder Verbrauchswerte, sondern einzig um das Thema Effizienz.

Aber warten wir mal das Release von Zen 3 und Rocket Lake-S und dann schauen wir uns das Thema nochmal im Detail an.

Krautmaster schrieb:
Denke Worst Case is meine aktuelle CPU Gaming Performance etwa wie bei Zen2. Die IPC SLX / Zen2 is auch vergleichbar.

In Sachen Gaming-Leistung könnte das noch in etwa hinkommen, kompensiert durch höheren Takt. Bei der IPC eher wenig. Da liegt Zen 2 vorne.

Limitieren wird auch bei deinem SLX-Setup in den entsprechenden Settings wohl eher die GPU.

Die Diskussion um die beste Gaming-CPU ist ab gewissen Settings eh hinfällig. Dennoch kauft man ja beim Neukauf in der Regel das modernste und effizienteste, das ist jeweilige Budget die beste Leistung bietet.

In gewissen Use Cases ist das dann halt auch ein 10900K und das ist auch vollkommen in Ordnung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
@Krautmaster
Aber genau das ist das Problem an Igors Grafik.
Die wird sich angesehen und gesagt der Intel verbraucht mehr.
Der Denksport er könne dabei auch schneller sein, wird halt oft ausgelassen.
Daher ist der Effizienzindex auf PCGH sehr charmant.

Apocalypse schrieb:
Von Intel Boards die den Intel ab Werk bis an die Kotzgrenze übertakten um bei einem Test besser da zustehen. Dann läuft der Intel auch nimmer so sparsam und der kurze stromfresser Max Boost liegt dafür permanent an.

Kaufst ein Asus Board, da wirst am Anfang gefragt. Dann ist alles gut und hast eh das bessere Board.
 
@SV3N

absolut. Aber man kann sich ja auch den Luxus viele Kerne gönnen um selten mal deren Leistung abzurufen. Ich fahre ja auch selten 300 auf der Autobahn, kann es aber sofern ichs will. (ok das aktuelle Auto gibt das nicht her :D)
Es kommt im Monat vielleicht 10 Stunden vor, dass ich größere HEVC Exports (CPU) fahre, da komme ich mit den 18C auf die Kosten und könnte nebenher noch ohne größere Einbußen zocken.

All Over wird mein Verbrauch aber eher durch Idle und Light Load bestimmt. Denke das wird bei den meisten so sein.

Und es ging ja beim ganzen Thread hier um die "Gaming Leistung" die AMD mit 5000er als Krone einsacken will. Für mich steht da außer Frage dass man das mit noch reiferen 7nm was die Effizienz angeht locker einsacken wird. Aber ich würde behauten die Effizienz der CPU is beim Gamen wie gesagt relativ Wurst, da scheißt Intel ja auch drauf und ballert lieber 5,X Ghz auf die Kerne.

Jemand der viel Rendert zB, der tut sich mit AMD einen viel größeren Gefallen was Effizienz angeht. Da lohnt sich der Blick darauf.
Ergänzung ()

SV3N schrieb:
Bei der IPC eher wenig. Da liegt Zen 2 vorne.
SLX vs Zen2, really? So klar kam das bisher nicht raus. Also ja, Skylake vs Zen2 ja, aber SLX?

Edit. OK ausgehend von Cinebench 20 ist dem wohl so etwas. AMDs Paradedisziplin. Mich würde da Mal interessieren ob es in anderen Real World Szenarien so viel ist, zB 12C 4 GHz SLX vs den 3900x bei ebenso 4 GHz :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Esenel
Krautmaster schrieb:
absolut. Aber man kann sich ja auch den Luxus viele Kerne gönnen um selten mal deren Leistung abzurufen.

Das ist vollkommen richtig und in unserer „Forenbubble“ sicher sogar die Regel. Ich wage mal zu behaupten, dass hier 2/3 der Anwender ihre 12, 16, 20 oder gar 32 Thread im Alltag selten bis nie ausnutzen.

Das interessiert aber draußen in der echten Welt eher niemanden.

Genau wie die Defaultwerte eines 10900K niemanden interessieren, denn eine solche Enthusiasten-CPU läuft in der Regel immer mit OC, ein 3900X oder 3950X eher weniger, da diese das auch weniger hergeben.

Esenel schrieb:
Der Denksport er könne dabei auch schneller sein, wird halt oft ausgelassen.

Weil er das in der Regel in diesen Szenarien auch nicht ist.

720p spielt niemand, 1080p betreibt niemand mit 10900K@Default und wenn man mit High-FPS und 10900@5,2 GHz unterwegs ist, dann ist man zwar verflixt schnell aber eben nicht mehr effizient unterwegs.

Was Workstation-Szenarien angeht müssen wir das ganze ja erst gar nicht vertiefen, denn da ist ab 12C/24T eh langsam Schicht im Schacht und der 10900K auch keine besonders gefragte Workstation-CPU.

Weiter oben ist die Angelegenheit eh klar, denn im reguläre HEDT-Segment ist Intel ja quasi, bedingt durch die aktuelle Architektur, nicht mehr in der Diskussion.

Ein 10900K hat ohne Frage seine Einsatzgebiete und rasiert in solch speziellen Fällen auch jede aktuell erhältliche CPU, seine Stärken liegen aber nicht in seiner beispiellosen Effizienz.

Das ist ja im Übrigen auch der Grund weshalb ich hier den 3700X und nicht den 3900X oder gar 3950X (oder die XT-CPUs) aufgeführt hatte.

Full HD, 1080 (Ti), 2070 (Super) und der 3700X hat die selben FPS wie die anderen aufgeführten Kandidaten, ist aber effizienter und kostet 269 Euro.

Foren-Spezial-Use-Cases wie du und ich sie fahren sind dabei nicht relevant.
 
  • Gefällt mir
Reaktionen: guru_meditation, Heschel, Smartbomb und 3 andere
syfsyn schrieb:
Nebenbei ich warte sehnlichst auf rtx3060 mit 4352shader das wäre ideal für max 299€
3080 699€ (und mehr)
3070 599€ (und mehr)
3060 299€ (und mehr?) entweder das wird eine " richtig lahme Krücke" oder eher weit teurer als von die erhofft. zwischen den beiden (3060 und 3070) wird / kann es kaum eine 300€ Lücke geben
 
Das eigentliche Portfolio von Nvidia sieht bei entsprechender Verfügbarkeit ja eher folgendes Preisgefüge vor:

3090 Ti: ab 1.499,— Euro
3080/20GB: ab 899,— Euro
3080/10GB: 699,— Euro
3070/16GB: 599,— Euro
3070/8GB: ab 499,— Euro
3060 Ti/8GB: ab 399,— Euro
3060/6GB: ab 299,— Euro Euro


Wobei man wohl bei empfehlenswerten Custom Designs (ohne die aktuelle Nichtverfügbarkeit zu berücksichtigen) rund 100 Euro Aufpreis einrechnen kann.

Das Bild wird sich aber erst nach der Vorstellung der RX 6000 Serie und einer Entspannung der Liefersituation Anfang 2021 festigen.

Wer nicht unbedingt muss, sollte aktuell keine Grafikkarte kaufen.
 
  • Gefällt mir
Reaktionen: Unnu und Smartbomb
SV3N schrieb:
3070/8GB: ab 499,— Euro
Hab ich das falsch in Erinnerung? falls ja, ziehe ich meinen Einwand natürlich zurück (auch wenn dann die Lücken zwischen 3080, 3070 und 3060 erstmal gross sein werden, bis dann die Karten mit mehr VRAM da sind, um eine 100€ Staffelung zu gewährleisten)
 
catch 22 schrieb:
Hab ich das falsch in Erinnerung?

Also die 3070 FE mit 8 GB besitzt einen UVP von 499 Euro. Wie es darunter aussieht/aussehen wird, bleibt natürlich noch Spekulation.
 
Es wäre ja super wenn DDR4-2666 JEDEC (CL19?) und DDR4-3200 JEDEC (CL22) mit ins Test einzubeziehen damit wir auch sehen, wie groß der Unterschied sein könnte im Vergleich zu DDR4-3600 im XMP-Profil oder mit optimierten Timings.

Ich bin der Einzige, der Computer innerhalb der Spezifikation laufen zu lassen. Overclocking interessiert mich nicht.

EDIT: Für RTX 3070 16 GB... ich schätze so um die 50 Euro (549 Euro) mehr. Das ist noch Spekulation. Wir warten mal ab.
 
SV3N schrieb:
Weil er das in der Regel in diesen Szenarien auch nicht ist.

720p spielt niemand, 1080p betreibt niemand mit 10900K@Default und wenn man mit High-FPS und 10900@5,2 GHz unterwegs ist, dann ist man zwar verflixt schnell aber eben nicht mehr effizient unterwegs.

Was Workstation-Szenarien angeht müssen wir das ganze ja erst gar nicht vertiefen, denn da ist ab 12C/24T eh langsam Schicht im Schacht und der 10900K auch keine besonders gefragte Workstation-CPU.

Weiter oben ist die Angelegenheit eh klar, denn im reguläre HEDT-Segment ist Intel ja quasi, bedingt durch die aktuelle Architektur, nicht mehr in der Diskussion.

Ein 10900K hat ohne Frage seine Einsatzgebiete und rasiert in solch speziellen Fällen auch jede aktuell erhältliche CPU, seine Stärken liegen aber nicht in seiner beispiellosen Effizienz.

Full HD, 1080 (Ti), 2070 (Super) und der 3700X hat die selben FPS wie die anderen aufgeführten Kandidaten, ist aber effizienter und kostet 269 Euro.

Du schmeisst hier gerade 5 Themen in einen Topf.
Um das ging es doch gar nicht.

Es ging einzig um das Thema "Spiele Krone" und dabei kam wie immer auf dass der 10900K säuft und ineffizient sei.
Dies hat PCGH über mehrere Spiele und (auch Anwendungen) widerlegt.
In ihrem Effizienzindex den ich mir durch @Volker auch wünschen würde.

Denn der Leistungsaufnahmetest Prime AVX hat einerseits null Aussagegehalt und ist dann eher Zeitverschwendung beim Testen ;-)

Und natürlich geht es dabei um Stock vergleiche.
Denn außerhalb davon gibt es ja unendlich viele Konstellationen wie eine CPU konfiguriert ist.

Also, da wir nun wieder bei Stock und dem 10900K gegen 3900X/3950X sind und alles andere darum mal auslassen, weil es zu viele Themen sind, sieht man dass der 10900K in Spielen effizienter als beide CPUs ist.

(Und in Anwendungen gemittelt mit dem 3900X gleich auf ist, aber dem 3950X natürlich unterlegen.
Dass heißt für spezielle Anwendungen scheint der 10900K wesentlich effizienter als der 3900X zu arbeiten, da wir ja wissen, dass er in Renderingaufgaben gern ein oder zwei Schluck zu viel nimmt.
)

Deshalb auch die bitte an @Volker für den kommenden Ryzen Test.
Nimmt doch bitte die gemittelten Verbrauchswerte von Spielen aus CX, sowie Verbrauchsmessungen von Anwendungen und erstellt euren eigenen Effizienzindex.
Denn der Prime AVX Max Verbrauch sagt halt nichts aus.

Und @SV3N :
Alle anderen Themen um OC/UV, HEDT, Auflösung oder sogar die verwendete Grafikkarte kann ja dann gern zusätzliche Artikel füllen.
Aber hat mit dem Stock Vergleich nichts zu tun.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Zurück
Oben