News Intel Raptor Lake Refresh: i9-14900K, i7-14700K und i5-14600K für 17. Oktober erwartet

danyundsahne schrieb:
Da hättest dir schon vor Monaten nen 13er Intel kaufen können, mehr bekommst mit der 14er Gen auch net.
Beim i7 (grundsätzlich die vernünftigste Entscheidung, sofern man das Mehr an MC-Leistung nicht benötigt) sind es immerhin gleich 19% (!) MC-Leistung, dabei lag man vorher bereits 50% vor dem 7800X3D in Cinebench.
danyundsahne schrieb:
Oder du wartest extra darauf 15% mehr für die gleiche Leistung bezahlen zu können...mh
https://www.techspot.com/news/99934-intel-14th-gen-raptor-lake-refresh-cpus-cost.html
Naja, Gerüchte … Handelspreise warten wir mal ab, war ja bei der 13. Gen. ähnlich.
danyundsahne schrieb:
Ansonsten würde ich eher ein 7800X3D nehmen, vermutlich wird dieser genauso vor der 14th Intel Gen im Gaming bleiben
Aktuell 3% vor dem 13700K bei der Rohleistung eines i5-13500 …super Empfehlung :p
danyundsahne schrieb:
(und nur 1/3 des Verbrauches haben)
In Spielen? Nein, sind 1,x Cent die Stunde Differenz bei 500€ UVP siehe mein letzter Kommentar.
danyundsahne schrieb:
und ein potentieller Zen5(X3D), den du noch auf AM5 verwenden kannst, wird sicher auch deutlich schneller als der EOL 14th Intel.
Und der nächste Intel wird wieder schneller … aber wer wechselt jährlich die CPU?
danyundsahne schrieb:
Wüsste nicht, warum man zum aktuellen Zeitpunkt auf eine auslaufende Plattform setzt als Neukauf.
Da man nicht jährlich die CPU tauscht?

Wenn wir ehrlich sind war das doch nur beim Aufholen bei AM4 der Fall - hier konnte man von Ryzen 1000/2000 auf 3000/5000 upgraden und hat einiges an Mehrleistung in Spielen erhalten.
Der 8700K bot diese Leistung allerdings auch schon 2017, sprich man war hinterher diesen Leistungsdefizit aufzuholen.
 
MalWiederIch schrieb:
Nicht weniger interessant als die aktuellen 8 Kerne der Konkurrenz für 500€ UVP
https://geizhals.de/amd-ryzen-7-7800x3d-100-100000910wof-a2872148.html
MalWiederIch schrieb:
oder den spannenden Einstieg in AM5 mit dem 300€ UVP 6-Kerner 7600X :rolleyes:
https://geizhals.de/amd-ryzen-5-7600x-100-100000593wof-a2801237.html
https://geizhals.de/amd-ryzen-5-7600-100-100001015box-a2871174.html

Du schlägst pauschal auch erstmal überall 100€ drauf um die CPUs schlecht zu reden oder?? :D Interessant

MalWiederIch schrieb:
Ja, im Spiele Gesamtrating liegt der 7800X3D 3% vor einem 13700K - bietet jedoch gleich 50% (!) weniger Leistung laut dem üblichsten Benchmark seit Jahrzehnten (Cinebench), gleichauf mit einem i5-13500 für 200€ …dazu lag er die meiste Zeit 10-15% preislich über dem 13700K + AM5 Mehrkosten
Wo siehst du so viel Mehrkosten bei einem AM5 Board zu einem DDR5 Intel Board?
MalWiederIch schrieb:
und deutlich geringeren DDR5 Takt, wodurch sich das Bild (DDR5-5600 wurde im Test verwendet …) selbstverständlich auch nochmal ändert, von den 3% bleiben dann vermutlich nicht mehr viel,
Die CPUs werden eben mit vom Hersteller freigebenen RAM Takt getestet.
Und wie du vermutlich weißt, gibt es bei AM5 nun auch die Möglcihkeit DDR5 7200 locker zu fahren.
Man muss sich halt informieren ;)
MalWiederIch schrieb:
auch wenn es schon kaum nennenswert ist - 32GB DDR5-7200 sind für knapp über 100€ zu haben …
genau, siehe oben. Auf AMD Plattformen und Intel Plattformen aktuell nutzbar. Somit gleichstand
MalWiederIch schrieb:
AM4 war noch wirklich interessant, AM5 aber wirklich eher zum Gähnen wenn man nicht gleich zum 7950X3D greift, der
...
MalWiederIch schrieb:
7800X3D mit der Leistung eines i5-13500 ist preis-/leistungstechnisch für 500€ eine Katastrophe.
siehe oben, 390€ ;)
Ergänzung ()

MalWiederIch schrieb:
Aktuell 3% vor dem 13700K bei der Rohleistung eines i5-13500 …super Empfehlung :p
Also entweder du vergleichst den 13700k mit dem 7800X3D, oder den 13500 mit dem 7800X3D....aber nicht Mischen. Die kosten auch komplett unterschiedlich....

Der 13500 ist im Gaming lahm gegen den 7800X3D, der 7800X3D ist mehr als 40% schneller als der 13500:
https://www.computerbase.de/2023-02/intel-core-i5-13500-test/#abschnitt_leistung_in_spielen_720p

Und der 7800X3D ist im Schnitt 11% schneller als der 13700K ;)
https://www.computerbase.de/2023-04...t_spiele_in_720p_ganzer_parcours_weniger_cpus

Also schön bei den Fakten bleiben bitte :)
 
Zuletzt bearbeitet:
danyundsahne schrieb:
Der Begriff UVP ist dir geläufig? Bis vor wenigen Tagen lag der 7800X3D bei 460€, der 13700K(F) bei knapp über 400€.
danyundsahne schrieb:
Wo siehst du so viel Mehrkosten bei einem AM5 Board zu einem DDR5 Intel Board?
Das X670E Master war damals knapp 60€ teurer als das Z790 Master. War ebenfalls am Abwegen zwischen 7000X3D und 13. Gen.
danyundsahne schrieb:
Die CPUs werden eben mit vom Hersteller freigebenen RAM Takt getestet.
Bei CB ja. Betreiben tut das in der Realität so keiner. Und da war zwischen Realität und Test eben eine stärkere Differenz bei Intel als bei AMD.
danyundsahne schrieb:
Und wie du vermutlich weißt, gibt es bei AM5 nun auch die Möglcihkeit DDR5 7200 locker zu fahren.
Die es damals und eben für nun 1 Jahr nicht gab? Aber gut dass man da nachgezogen hat!
danyundsahne schrieb:
Man muss sich halt informieren ;)
Schwachsinn, mit einer Glaskugel? :p
Woher hätte man das in der Vergangenheit wissen sollen?
danyundsahne schrieb:
genau, siehe oben. Auf AMD Plattformen und Intel Plattformen aktuell nutzbar. Somit gleichstand

...

siehe oben, 390€ ;)
Naja wie schon gesagt nun nach einem halben Jahr ging der Preis plötzlich runter, eben vermutlich wegen der kommenden 14. Generation - zeitlich zumindest sehr passend, der 13700K ist ja ebenfalls die letzten Tage mit dem Preis runter.
400€ wäre mir dennoch zu viel für die Leistung eines i5-13500 und nur 3% Vorsprung in Spielen.
Wie gesagt die 40W Abwärme fallen neben einer der CPU entsprechenden 300W+ GPU nicht auf, die 1,x Cent die Stunde müsste ich mit der Lupe auf der Stromrechnung suchen …
Für mich wäre wenn dann der 7950X3D oder ein nicht vermurkster 7900X3D etwas gewesen, aber 800€ UVP (für dich: unverbindliche Preisempfehlung, die bis auf weiteres einige Monate auch im Handel galt)?

danyundsahne schrieb:
Also entweder du vergleichst den 13700k mit dem 7800X3D, oder den 13500 mit dem 7800X3D....aber nicht Mischen. Die kosten auch komplett unterschiedlich....
War das so schwer zu verstehen? :confused_alt:

i5-13500 und 7800X3D sind in Cinebench gleichauf, die Rohleistung ist ähnlich - und du hast es erfasst dennoch kostet der 7800X3D das Doppelte.
500€ UVP für einen 8-Kerner sind 2023 zu viel, das waren sie bereits in der Vergangenheit. Aber manche haben hier Doppelstandards obwohl es nur dämliches Silizium ist :rolleyes:

danyundsahne schrieb:
Und der 7800X3D ist im Schnitt 11% schneller als der 13700K ;)
https://www.computerbase.de/2023-04...t_spiele_in_720p_ganzer_parcours_weniger_cpus

Also schön bei den Fakten bleiben bitte :)
Du sprichst von 11% und zitierst 3%.
Kann ich somit nur zurückgeben :p
Lediglich im kleinen Parkour (du hast den gesamten verlinkt) sind es vermutlich mehr, hier werden aber auch prozentual mehr Spiele getestet die davon profitieren ( Flight Sim etc.) wurde ja auch im Test genannt.
 
Zuletzt bearbeitet:
|SoulReaver| schrieb:
Kann man so nicht sagen. Wenn man Geduld gehabt hat wie ich ist der Sprung von 8700K zum 14700k ordentlich. Wenn man natürlich jedes Jahr kauft, weil man sonst nicht mehr schlafen leben kann sieht es so auch ja. Wobei ich jetzt keinen 14700KF sehe. Das wäre mir am Liebsten.
Der Griff zu einem guten AMD System wäre aber deutlich sinnvoller.
Da hätte man keine Jahre drauf warten müssen, die gibt es schon lange genug.
Spätestens ab der 3000er Serie waren Preis, Leistung und Verbrauch den anscheinend immer schlechter werdenden Intelgenerationen ab Gen 9 Hochhaus äh haushoch überlegen.
Der bis zu einem 3fachem Verbrauch bei Intel lässt sich einfach nicht mehr wegdiskutieren oder schönreden.
 
BxBender schrieb:
Der Griff zu einem guten AMD System wäre aber deutlich sinnvoller.
Von einem 8700K? Erst der 3800X war 2 Jahre später gleichauf mit dem 8700K in Spielen.
Selbst heute ist man mit einem 8700K viel besser aufgestellt, als mit einem Ryzen aus demselben Jahr (2017).
BxBender schrieb:
Da hätte man keine Jahre drauf warten müssen, die gibt es schon lange genug.
Spätestens ab der 3000er Serie waren Preis, Leistung und Verbrauch den anscheinend immer schlechter werdenden Intelgenerationen ab Gen 9 Hochhaus äh haushoch überlegen.
Spätestens also? :p
Jedenfalls können wir froh sein, dass es solch einen Preis- und Technologiekampf gibt. Das würde es weder in einem Intel- noch AMD Monopol geben.
BxBender schrieb:
Der bis zu einem 3fachem Verbrauch bei Intel lässt sich einfach nicht mehr wegdiskutieren oder schönreden.
Wie hier bei manchen aus 20% mehr unter Volllast der „3fachem“ Verbrauch wird, werde ich nie verstehen, wir brauchen eine Bildungsreform!

IMG_0930.jpeg

Die Stromrechnung wird man in dem Fall auch nicht selbst bezahlen, ansonsten wüsste man wie wenig relevant 1,x Cent die Stunde beim Spielen auf 2.000€+ Hardware ist :p
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Sprich 60W oder 1,68 Cent die Stunde.

MalWiederIch schrieb:
knapp 40W mehr oder 1,12 Cent die Stunde.

Der Preis für den Strom ist mir egal. Ich will nicht unnötig Strom verschwenden. Das ist eine Frage des Prinzips der Umwelt zuliebe. Zudem halte ich nichts von Intels Ansatz.

MalWiederIch schrieb:
Was bleibt ist die Abwärme …

Die Abwärme geht einher mit Lautstärke und benötigter Kühlung. Ich will kühl, leise und das möglichst in einem kleinen Formfaktor.

Also nein, Intel hat derzeit nichts interessantes oder spannendes im Angebot. Das ist noch immer überzüchteter Mist, mit dem sie brachial versuchen der überlegenen Konkurrenz gerade mal so Paroli zu bieten.
 
MalWiederIch schrieb:
War das so schwer zu verstehen? :confused_alt:
Ja weil du mit deiner Aussage suggierst, dass der 7800X3D nur 3% schneller ist als ein 13500....was halt absolut nicht stimmt. Es sind 40% im Schnitt. Siehe mein Test zum CPU Test.
MalWiederIch schrieb:
i5-13500 und 7800X3D sind in Cinebench gleichauf, die Rohleistung ist ähnlich - und du hast es erfasst dennoch kostet der 7800X3D das Doppelte.
Ja du sprichst von Rohleistung, aber selbst da ist der 13500 ca. 10% langsamer...auch in meinem CB Test Link zu sehen.
MalWiederIch schrieb:
Du sprichst von 11% und zitierst 3%.
Ja weil wie du es formulierst, es eben falsch rüber kommt...du sprichst davon dass der 7800X3D nur 3% schneller ist als der 13700k.
Zitat CB:
"3 Prozent platziert sich der 7800X3D im Durchschnitt über alle 14 getesteten Spiele vor dem 13900K, der wiederum nur einen Prozentpunkt hinter dem KS liegt (siehe unten im reduzierten Parcours)"

Hier gehts um den 13900K und NICHT den 13700K wie du es eben versuchst zu erklären...ganz einfach.

Laut dem CB Test sind eben gute 11%:
https://www.computerbase.de/2023-04...spiele_in_720p_reduzierter_parcours_alle_cpus


1694520133416.png

MalWiederIch schrieb:
Kann ich somit nur zurückgeben :p
Ich weiß nicht was du mir zurückgeben willst, ich mache dich ja nur anhand der CB Tests auf die Fakten aufmerksam.
MalWiederIch schrieb:
Lediglich im kleinen Parkour (du hast den gesamten verlinkt) sind es vermutlich mehr, hier werden aber auch prozentual mehr Spiele getestet die davon profitieren ( Flight Sim etc.) wurde ja auch im Test genannt.
Ja, wenn man einzelne Games betrachten kann es extrem schwanken, das ist klar.

Fakt ist aber auch, der 7800X3d ist bei wesentlich weniger Verbrauch im Gaming dennoch im Schnitt schneller. Die Ausreißer betrachten wir nicht, da kann der eine eben mal gute 20% und mehr schneller sein.
Schnitt ist aber Schnitt.
Und dass er in Anwendungen nicht mit dem 13700K mithalten kann ist auch klar, aber die wenigsten Gamer brauchen halt 20Kerne...und die, die sie brauchen, nehmen halt den 13700k. Fertig
 
danyundsahne schrieb:
Ja du sprichst von Rohleistung, aber selbst da ist der 13500 ca. 10% langsamer...auch in meinem CB Test Link zu sehen.
Nein, der i5-13500 ist im Anwendungsrating vor dem 7800X3D, siehe 7800X3D Test:
IMG_0931.jpeg


https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_anwendungsbenchmarks
danyundsahne schrieb:
Ja weil wie du es formulierst, es eben falsch rüber kommt...du sprichst davon dass der 7800X3D nur 3% schneller ist als der 13700k.
Zitat CB:
"3 Prozent platziert sich der 7800X3D im Durchschnitt über alle 14 getesteten Spiele vor dem 13900K, der wiederum nur einen Prozentpunkt hinter dem KS liegt (siehe unten im reduzierten Parcours)"
Und? Der 13900K hat die identischen 8 P-Cores, von E-Cores profitierst du in Spielen nur bei der Shaderkompilierung - vor wenigen Jahren noch hat man die K Prozessoren zum Übertakten gekauft - siehe und staune das ist auch heute noch möglich, sogar für den DAU mit „1-Click-OC“.
Ansonsten sind es eben 5-6% wenn man warum auch immer die 2-3% verschenken will.
Immer noch nicht wirklich das Argument verglichen mit 50% weniger Rohleistung zum 13700K bzw. nun 70% (?) zum 14700K.
danyundsahne schrieb:
Hier gehts um den 13900K und NICHT den 13700K wie du es eben versuchst zu erklären...ganz einfach.

Laut dem CB Test sind eben gute 11%:
https://www.computerbase.de/2023-04...spiele_in_720p_reduzierter_parcours_alle_cpus


Anhang anzeigen 1397169

Ich weiß nicht was du mir zurückgeben willst, ich mache dich ja nur anhand der CB Tests auf die Fakten aufmerksam.

Überliest du einfach was du nicht lesen willst? :p

Nochmal:
Du hast vorher den gesamten Parkour verlinkt, dort sind es 3%. Nur im reduzierten Parkour von dem du jetzt sprichst sind es 11% - hier sind allerdings im Vergleich zu gesamten Parkour mehr Spiele die vom Cache profitieren.
Für eine Gesamteinschätzung ist der gesamte Parkour da, schreibt CB ja selbst - dementsprechend 3%.
Mit einem Klick (Gigabyte 1-Click OC) lässt sich der 13700K doch mit derselben Taktrate betreiben und ist somit gleich schnell wie der 13900K - klar beim X3D ist kein OC möglich.
danyundsahne schrieb:
Ja, wenn man einzelne Games betrachten kann es extrem schwanken, das ist klar.
Extrem. Hauptsächlich profitieren selbstverständlich Spiele die den Cache nutzen können, der Rest ist etwas unterhalb der Ryzen 7000 durch den geringeren Takt. Diese extremen Ausreiser (Flight Sim als Beispiel) stören die Vergleichbarkeit eines Spieleratings, siehe Differenz reduzierter Parkour und gesamter Parkour.

danyundsahne schrieb:
Fakt ist aber auch, der 7800X3d ist bei wesentlich weniger Verbrauch im Gaming dennoch im Schnitt schneller.
Was in 1,x. Cent die Stunde resultiert. Aber klar, prozentual klingen diese 20% unter Volllast viel.
Wenn ich die CPU für die zur größten Teil der Zeit übliche 500€ gekauft habe, was interessiert mich das? Wie lange benötige ich um so viel zu sparen, bis ich die damals 60€ Mehrkosten gegenüber einem 13700K drin habe?
Das ist doch sinnfrei bei einem 2.000€+ System von 1,x Cent die Stunde Ersparnis zu reden :p
danyundsahne schrieb:
Die Ausreißer betrachten wir nicht, da kann der eine eben mal gute 20% und mehr schneller sein.
Das ist das Problem, ich Spiele nicht alle Spiele - niemand tut das.
danyundsahne schrieb:
Schnitt ist aber Schnitt.
Korrekt, nur hat dieser speziell bei den X3D Prozessoren für einen persönlich wenig Aussagekraft :rolleyes:
danyundsahne schrieb:
Und dass er in Anwendungen nicht mit dem 13700K mithalten kann ist auch klar, aber die wenigsten Gamer brauchen halt 20Kerne...und die, die sie brauchen, nehmen halt den 13700k. Fertig
Wir kommen langsam auf einen Nenner …
Es bemerken nur eben auch die wenigsten Gamer einen Unterschied von 3% im CPU Limit :p
Da nehme ich lieber 8 zusätzliche Kerne für eben geringere Kosten.
Ergänzung ()

MaverickM schrieb:
Der Preis für den Strom ist mir egal. Ich will nicht unnötig Strom verschwenden. Das ist eine Frage des Prinzips der Umwelt zuliebe.
Inwiefern schützt du die Umwelt durch den Kauf einer neuen CPU? Das ist ja mal sowas von scheinheilig :lol:
Schon einmal informiert welche Strommengen bei der Produktion einer solchen CPU fliesen?
MaverickM schrieb:
Zudem halte ich nichts von Intels Ansatz.
Bestimmt mit vernünftigen Gründen :rolleyes:
MaverickM schrieb:
Die Abwärme geht einher mit Lautstärke und benötigter Kühlung. Ich will kühl, leise und das möglichst in einem kleinen Formfaktor.
Es benötigt eben nicht jeder ein ITX-System auf 3L, das ist eine Nische (der Nische).
Welcher Kühler hat denn ein Problem 100W beim Gaming leise zu kühlen?
Im Raum merke ich die 40W neben der entsprechenden 4090 sowieso nicht.
Bzw. wer holt sich solch einen Brüllwürfel für Rendering etc.?
MaverickM schrieb:
Also nein, Intel hat derzeit nichts interessantes oder spannendes im Angebot.
Für dich und deine Nische, da verstehe ich es ja auch voll und ganz.
MaverickM schrieb:
Das ist noch immer überzüchteter Mist, mit dem sie brachial versuchen der überlegenen Konkurrenz gerade mal so Paroli zu bieten.
Fehlt noch die „Brechstange“ damit das ganze ins Bild passt, aber danke heute noch nicht so gut gelacht :lol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Newbie87
MalWiederIch schrieb:
Inwiefern schützt du die Umwelt durch den Kauf einer neuen CPU? Das ist ja mal sowas von scheinheilig :lol:

Gar nicht? Das habe ich auch nicht behauptet. Aber wenn ich schon neu kaufe, dann halt keinen Umweltsünder.

MalWiederIch schrieb:
Bestimmt mit vernünftigen Gründen :rolleyes:

Ja. Vernünftige Architektur mit schlauen Lösungen geht über Brechstange.

MalWiederIch schrieb:
Es benötigt eben nicht jeder ein ITX-System auf 3L

Das habe ich auch nicht behauptet. Den wichtigeren Teil mit Leise und Kühl hast Du ignoriert. Und das dürfte deutlich mehr interessieren.

MalWiederIch schrieb:
Welcher Kühler hat denn ein Problem 100W beim Gaming leise zu kühlen?

Welche Intel CPU genehmigt sich denn nur 100W Abwärme bei brauchbarer Leistung? :D

MalWiederIch schrieb:
Im Raum merke ich die 40W neben der entsprechenden 4090 sowieso nicht.

Die käme für mich genausowenig in Frage.

MalWiederIch schrieb:
Fehlt noch die „Brechstange“ damit das ganze ins Bild passt :lol:

Bitte, extra für dich eingebaut. :D
 
  • Gefällt mir
Reaktionen: Snoop7676
MaverickM schrieb:
Gar nicht? Das habe ich auch nicht behauptet. Aber wenn ich schon neu kaufe, dann halt keinen Umweltsünder.
Umweltsünder? Wie viel zockst du denn? :p
Selbst als Arbeitsloser 24/7 Zocker fallen 40W doch nicht ins Gewicht (mal davon abgesehen, dass man sich mit Photovoltaik damit sowieso nicht beschäftigen muss).
MaverickM schrieb:
Ja. Vernünftige Architektur mit schlauen Lösungen geht über Brechstange.
Wen es wirklich juckt?
Wie wenig Auswirkungen eine gute Fertigung haben kann hat AMD mit den GPUs ja erst gezeigt, das ist vielleicht nett wenn man es jemand erzählen kann.
Mich interessieren nur reale Auswirkungen: Preis-/Leistungsverhältnis (auch in Betracht auf die laufenden Kosten).

Da war der 13700K besser in Spielen und in Anwendungen selbstverständlich sowieso.
Bei 1,x Cent die Stunde würdest du über 4.000 Stunden (!!!) beim aktuellen Strompreis benötigen, um die in meinem Fall 60€ Mehrkosten (idealo vor wenigen Monaten) des 7800X3D wieder reinzubekommen. Das ist doch lachhaft :rolleyes:
MaverickM schrieb:
Das habe ich auch nicht behauptet. Den wichtigeren Teil mit Leise und Kühl hast Du ignoriert. Und das dürfte deutlich mehr interessieren.
Inwiefern sind 60/100W ein Problem neben einer 300W+ GPU?
Wir sprechen hier von einer „Gaming CPU“, laut Schnitt der „besten“ - was will ich da mit einer GTX 1050 nebendran?
Beim Spielen wird man sich im kleinen Gehäuse eher um die 300W+ der GPU Sorgen machen, in einem größeren Gehäuse ist beides irrelevant.
Jeder günstige Tower-Kühler kühlt 60/100W „kühl und leise“.
MaverickM schrieb:
Welche Intel CPU genehmigt sich denn nur 100W Abwärme bei brauchbarer Leistung? :D
Im Gaming? Jede bis auf der 13900K mit 24 Kernen? :p
Der 13700K liegt selbst ohne UV oder sonstiges laut CB bei 100W und das bei 16 anstatt den 8 Kernen eines 7800X3D. Der 7950X3D wäre auch nett, wäre da der Preis nicht, der jegliche Ersparnis beim Stromverbrauch zunichte macht.

Ansonsten brauchen wir ja nicht reden - 330W (7950X(3D)) oder 390W (13900K), beides nicht (leise?) kühlbar in einem 3L Brüllwürfel und in 24/7 Renderfarmen laufen Desktop CPUs in der Regel nicht.
MaverickM schrieb:
Die käme für mich genausowenig in Frage.
Was willst du dann mit einem 7800X3D, erst mal in die GPU investieren.
MaverickM schrieb:
Bitte, extra für dich eingebaut. :D
Wollte dir eben schon die rote Brille wegnehmen :daumen:
 
MalWiederIch schrieb:
Wie viel zockst du denn? :p

Ich arbeite auch an meinem Rechner.

Und bevor Du argumentierst: Bei meinem geplanten neuen Rechner habe ich mir natürlich auch die Non-X3D CPUs angeschaut. Entschied mich aber auf Grund des Workloads und der Stromersparnis gegen einen gleich teuren R9 7900X zu gunsten des 7800X3D.

MalWiederIch schrieb:
mit Photovoltaik damit sowieso nicht beschäftigen muss

Da hängt mein E-Auto dran. ;)

MalWiederIch schrieb:
Wen es wirklich juckt?

Mich? ;)

MalWiederIch schrieb:
Jeder günstige Tower-Kühler kühlt 60/100W „kühl und leise“.

Wir haben scheinbar unterschiedliche Vorstellungen von Leise. :D

MalWiederIch schrieb:
Im Gaming? Jede bis auf der 13900K mit 24 Kernen? :p

Und abseits davon?

MalWiederIch schrieb:
Der 7950X3D wäre auch nett, wäre da der Preis nicht, der jegliche Ersparnis beim Stromverbrauch zunichte macht.

Strompreis ist mir egal, das habe ich schon mal geschrieben. Dass sich die Ersparnis dann auch in einer niedrigeren Stromrechnung niederschlägt betrachte ich da nur als Bonus.

MalWiederIch schrieb:
Was willst du dann mit einem 7800X3D, erst mal in die GPU investieren.

Und ein Bottleneck einfahren, vom persönlichen Anwendungsszenario mal abgesehen? Ich kann da nur müde Lächeln, wenn Leute ihre 4090 mit einem i5 gimpen...
 
Vielleicht kann mir das jemand auf die Schnelle beantworten, wieviel nimmt sich denn der 13700K oder 13900K auf der einen Seite und einem 7700X aufwärts (in irgendeinem gut dokumentierten Game) im Framecap von 75fps?
 
frames p. joule schrieb:
Genau das meine ich, ist das überhaupt notwendig?
Nötig Absolut nicht,
das der 14er nur nen Refresh wird wusste man ja anfangs auch nicht und nu noch nen Jahr warten -.- Ne Danke... vlt. wirds ja doch noch nen 13er mir gehts mehr ums Basteln an der Costum Wakü...
mich Juckt es schon seit Monaten in den Fingern
Besonders die Amd Gpu möcht ich los sein -.-
 
till69 schrieb:
Das tut man mit AMD nur an anderer Stelle, nämlich im Desktop (Office/Surfen/Video):
Von wo stammen die Werte aus einer Hinterhof Garage in Nordkorea? Da hat einer wohl nicht gerade ein glückliches Händchen gehabt bei der Auswahl des Mainboards, bzw. hat wohl nicht das aktuellste, oder gar ein verbuggtes BIOS aufgespielt.
Auf die ermittelten Werte würde ich daher nichts geben.
Ach ja, man sollte immer den Link dazu posten, wenn man schon mit so grossen Tabellen um sich schmeisst.
 
ArrakisSand schrieb:
Auf die ermittelten Werte würde ich daher nichts geben
Klar, Du glaubst lieber die schwachsinnigen CB Idle Werte, die aber dummerweise mit unterschiedlichen GPUs entstanden sind. Und wahrscheinlich auch unterschiedlichen Netzteilen. Also komplett wertlos.

ArrakisSand schrieb:
Von wo stammen die Werte aus einer Hinterhof Garage in Nordkorea?
Nein:
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/60902-auch-der-kleinste-überzeugt-der-amd-ryzen-7-7800x3d-im-test.html?start=8

Oder:

Idle.png

(Quelle)

Und wer glaubt, AMD spart Unmengen an Strom:

 
  • Gefällt mir
Reaktionen: Newbie87, MalWiederIch und frames p. joule
till69 schrieb:
(Office/Surfen/Video)

Das ist kein Idle! Idle heißt auf dem Desktop sitzend ohne das irgendetwas läuft.

till69 schrieb:
Klar, Du glaubst lieber die schwachsinnigen CB Idle Werte

Bei allem Respekt, aber die Testmethodik beim Luxx ist oft genug mehr als fragwürdig.
 
MaverickM schrieb:
Das ist kein Idle!
Idle interessiert auch nicht (man kann abschalten/Standby/Ruhezustand).

Nur blöd, dass AMD bei kleinen Lasten (z.B. Youtube) noch schlechter als "idle" ist.


MaverickM schrieb:
Bei allem Respekt, aber die Testmethodik beim Luxx ist oft genug mehr als fragwürdig.
Wie wärs dann mit selber messen?

Ok, hier gibts Werte aus der Praxis:
https://www.computerbase.de/forum/t...-verbrauch-7800x3d-4090.2159365/post-28581462
 
RogueSix schrieb:
Was soll das Meteor Lake Gequake?

Es ist doch jetzt mindestens seit einem Jahr gemäß glaubhafter und sich immer weiter verdichtender "Gerüchte" (inzwischen längst Fakten) völlig klar, dass Meteor Lake, wenn überhaupt, dann nur im LowEnd Desktop kommt.

Das Gequake hat schon seine Berechtigung. Informationen zu MeteorLake wären deutlich interessanter als der x-te Aufguss der immergleichen Desktop CPU mit 2% Mehrleistung.

Und da ArrowLake hauptsächlich ein Node-Shrink von MeteorLake sein soll, sollte MeteorLake auch für Desktop User nicht komplett uninteressant sein (auch wenn über die künftige Leistung nur spekuliert werden kann).

Da MeteorLake auch in Kürze erscheinen soll, wären mal handfeste Infos angebracht zur Leistung und Verfügbarkeit (z.B. in NUCs). Naja, beim Intel Innovation Event nächste Woche werden wohl entsprechende Infos kommen.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Zurück
Oben