Bericht Prozessor-Rangliste 2024: CPU-Vergleich mit AMD Ryzen 7000X3D und 14. Gen. Intel Core

Wie kann man heute noch einen i5-4570 als Alternative empfehlen? Sehe keinerlei Vorteile ggü einem gleichpreisigen 4590, nur Nachteile.

hamju63 schrieb:
Meinen i5 2500 (5 Jahre alt) auf 100% gesetzt, kommt ein i7 6700K auf einen Wert von 118%

Wenn ich jetzt überlege, dass alle anderen Komponenten meines PC auf aktuellem Stand sind, dann frage ich mich jeden Tag aufs Neue, warum ich mindestens (Board UND CPU UND RAM) irgendwas um 600-700 Euro auf den Tisch legen soll, um eine 18% höhere Leistung zu erzielen.
Bei 50% mehr würde ich ja ernsthaft darüber nachdenken aber ....
Hey, 18% binnen 5 Jahren?
Was die Leistung betrifft hast du sicher Recht. Allerdings ist die SB-Plattform ziemlich veraltet, Ivy war da schon ein großer Schritt nach vorne, Skylake hat noch einen drauf gelegt, auch in Sachen Effizienz.
 
Dann werd ich mal schauen für wieviel ich meine Kiste mit i5-3570K noch verkaufen kann (ist ja noch fast Gegenwartstechnik:-D). Die CPU hat mir schon extrem Freude bereitet die letzten 3.5 Jahre, muss man sagen.
 
hamju63 schrieb:
Irrsinn irgendwie.

Geamtranking Spiele:
Meinen i5 2500 (5 Jahre alt) auf 100% gesetzt, kommt ein i7 6700K auf einen Wert von 118%

Wenn ich jetzt überlege, dass alle anderen Komponenten meines PC auf aktuellem Stand sind, dann frage ich mich jeden Tag aufs Neue, warum ich mindestens (Board UND CPU UND RAM) irgendwas um 600-700 Euro auf den Tisch legen soll, um eine 18% höhere Leistung zu erzielen.
Bei 50% mehr würde ich ja ernsthaft darüber nachdenken aber ....
Hey, 18% binnen 5 Jahren?
Das ist irgendwie ein Witz.

Dem kann ich mich nur anschließen.

Mein Bruder und ich besitzen den 3770k und haben die CPU nicht übertaktet.
Wenn ich der Liste trauen kann haben wir zum aktuellsten bzw Preis/Leistungssieger ( 6700k ) ganze 11% Leistungszuwachs und das nur beim Vergleich in der Rubrik HD Gaming.

Dafür kostet die CPU aber alleine schon 399 Euro ohne neues Board und Ram und eventuell neuem Kühler.

Entweder hat Intel damals "verfrüht" verdammt gute Technik auf den Markt gehauen oder wir hatten einfach nur Glück. ;)
 
Mein lieber Scholly, die CPU Preise sind jetzt schon heftig, wenn man bedenkt, was man 2012 im Vergleich dazu erhalten hat (228 CAD+Steuer im Angebot (regulär 280 CAD+Steuer) für eine i7-2600K CPU) und mit der gestrigen Fed-Entscheidung wird das noch ein Stückchen teurer in Zukunft werden (bei EUR/USD Parität). Ich hoffe nur, dass mein PC noch ein paar Jährchen am Leben bleibt und zur Not muss der i7-2600K eben übertaktet werden, auch wenn man i7-6700K (Skylake) Niveau insgesamt (Spiele und Anwendungen) damit trotzdem nicht ganz erreichen dürfte, von Energiekosten und Abwärme ganz zu schweigen. Der Gebraucht-CPU-Markt wird wohl einen Aufschwung erleben, insbesondere außerhalb der USA.

Abwarten was AMD/Zen(+) so ins rollen bringen wird, ich hoffe bis Ende 2017 weiterhin mit meinem jetzigen System auszukommen und dann gibt es hoffentlich 6- und 8-Kern-Alternativen von AMD und Intel im Mainstream-Consumer-Segment (hoffen auf Zen+ und Cannon Lake).
 
Zuletzt bearbeitet:
Warum erscheint denn kein Skylake i3, im Test zu Skylake wurden i5 und i7 getestet, nicht aber der i3. Nun fehlt er leider schon wieder. :(

Ich könnte euch einen 6100 zur Verfügung stellen Falls euch das Sample fehlt.
 
hamju63 schrieb:
Geamtranking Spiele:
Meinen i5 2500 (5 Jahre alt) auf 100% gesetzt, kommt ein i7 6700K auf einen Wert von 118%
Wenn ich jetzt überlege, dass alle anderen Komponenten meines PC auf aktuellem Stand sind, dann frage ich mich jeden Tag aufs Neue, warum ich mindestens (Board UND CPU UND RAM) irgendwas um 600-700 Euro auf den Tisch legen soll, um eine 18% höhere Leistung zu erzielen.
Bei 50% mehr würde ich ja ernsthaft darüber nachdenken aber ....
Hey, 18% binnen 5 Jahren?
Das ist irgendwie ein Witz.

das sehe ich genauso... wollte aufrüsten.. aber macht das überhaupt Sinn? wohl eher (noch) nicht...

Kenjiii schrieb:
Naja bei dem Gesamtraiting für Anwendungen sind es 149%, da Spiele die Cpu nicht immer auslasten.........das ändert sich aber 2016 um so mehr

Wieso? Was ist / kommt den in 2016 neu?

SchaGur schrieb:
Der 2600K liegt schon zurück, ich hoffe aber er hält noch bis die Mainstream 8 Kerner von Intel kommen.

Ist bekannt, wann das sein wird ?

Serial Kazama schrieb:
Entweder hat Intel damals "verfrüht" verdammt gute Technik auf den Markt gehauen oder wir hatten einfach nur Glück. ;)

Ich glaube, wir haben damals (2011) einfach Glück gehabt.
 
Entweder hat Intel damals "verfrüht" verdammt gute Technik auf den Markt gehauen oder wir hatten einfach nur Glück.

Der verfrühten Release von viel zu viel Power gabs genauer gesagt 1 Generation davor, mit Sandy Bridge. die Praktisch schon genau so stark ist, aber noch verlötet wurde und kühler läuft. Das war ein wirkliches Geschenk and die user, wenn man mal die nicht spürbaren Upgrades heute so an anguckt.

Ich vermute, dass man damit die FX-Serie von AMD noh unattraktiver machen wollte, die ja kurz danach rauskam. Oder man wollte, dass man auch garantiert ein sehr gutes Produkt rausbringt und hat ieber zuviel als zuwenig geboten, bevor AMD auf einmal wieder richtig Fuss fässt.
 
Zuletzt bearbeitet:
Ich sach ja, der I7 4790K ist immer noch Klasse und wird es auch noch eine ganze Weile bleiben.
 
Xtra987 schrieb:
Warum erscheint denn kein Skylake i3, im Test zu Skylake wurden i5 und i7 getestet, nicht aber der i3. Nun fehlt er leider schon wieder. :(

Ich könnte euch einen 6100 zur Verfügung stellen Falls euch das Sample fehlt.

Genau das würde mich auch interessieren. Der i3-6100 ist gegenüber den i3 der Vorgänger-Generationen deutlich schneller geworden. Für 120€ zieht er im Gaming den FX-8320 ab, kommt je nach Spiel dicht an i5er ran, hängt in Anwendungen etwas zurück, hat aber gegenüber dem AMD eine vieeeel aktuellere Plattform und von der Effizienz brauchen wir gar nicht erst anfangen. Der meiner Meinung nach durchaus das Potenzial, die sinnvollere Wahl um 120€ zu sein, zumindest als Alternative wenn Anwendungsleistung nicht so wichtig ist. Für sinnvoller als eine APU, deren GPU man eventuell gar nicht nutzt, halte ich ihn allemal.

GEZ-Verweigerer schrieb:
Der verfrühten Release von viel zu viel Power gabs genauer gesagt 1 Generation davor, mit Sandy Bridge. die Praktisch schon genau so stark ist...
Naja, die Leistungszuwächse von Nehalem zu Sandy Bridge waren eigentlich gar nicht sooo riesig. Der Leistungszuwachs von Sandy zu Haswell war in etwa genauso groß, je nach Szenario sogar deutlich größer, nimmt man aber nicht so sehr wahr, weil Ivy da noch zwischen rumgedödelt hat.
In der aktuellen Hardware-Zeitung mit den 4 großen Buchstaben gibt es einen ganz netten Test, in dem CPUs der letzten Jahre bei gleichem Takt verglichen werden. Da sieht man ganz gut, dass die erste Core-i-Generation gar nicht so weit von Sandy entfernt war was die pro-Takt-Leistung angeht.
 
Zuletzt bearbeitet:
Die Kommentare hier sind echt der letzte Brüller und zeigen nur auf das der Großteil im Grunde null Peil von der Materie hat. Denn wenn ihr sie alle hättet wüsstet ihr das sich deswegen im CPU Bereich nichts tut weil die Softwareentwickler zu 90% auf GPU und nicht auf CPU Leistung gehen. Deswegen auch das ganze AMD Zen, Intel bashing nur Kopf->Wand bedeutet, da AMD mit Zen auch keine großen Fortschritte machen wird solang die Software Spiele Entwickler auch nicht entsprechende Leistung aus der bestehenden Hardware ziehen und ein jeder sich wundert wieso Intel's 4-Kerner mit ~3,5Ghz wie z.B. der i5 2500k so wunderbar skaliert. Einfach deshalb weil zu 90% die Spiele auf GPU Leistung setzen.
 
Das stimmt. Aber man bemerkt langsam aber sicher eine Trendwende. Was gut, aber auch schlecht sein kann. Denn mich beschleicht das Gefühl, das bald die CPU's UND die Grakas voll ausgelastet werden, damit man beides ständig upgraden kann. Firmen sind auch nur Dr×××Sch××××e, die nur an unser Geld wollen. Und wir alle wissen, wie schnell geheime Absprachen geschehen, nur damit das Geld fließt. Ich ahne böses. Hoffe aber, das die CPU-Belastungen endlich mal richtig (vernünftig) kommen. Würden sie nicht so schlampig programmieren, dann würden die Grakas auch nicht so extrem belastet werden.

Mfg
 
So langesam beneide ich die Leute, die noch auf einem alten Phenom II oder den noch jüngsten Core 2 Duo/Quad rumgurken, denn DIE können zweifelsfrei sagen, dass sich aufrüsten lohnt und müssen bzw. "dürfen" (???) sich "endlich" was Neues kaufen. ;)
Ansonsten ist für den Durchschnittsanwender die Leistung, die man innerhalb der letzten 5 Jahre gekauft hat, ja noch durchaus annehmbar. Da wird Aufrüsten ja eher zur Gewissensberuhigung oder Auslebung des Enthusiasmus betrieben, zumindest sofern man nicht zu den vielleicht 5% gehört, die spezielle Anforderungen haben, für die sich auf dem Markt der Prozessoren tatsächlich seit 2010 was Bedeutendes getan hat.

Ich würde auch gerne mal wieder aufrüsten, einfach weil es Spaß macht, was Neues zusammenzubasteln. Aber wenn ich sehe, was ich am Ende praktisch davon habe, gönne ich mir von dem Geld lieber was anderes und bin dann doch irgendwie froh, dass meine alte Mühle noch für "alles" langt. ;)

Die Frage ist: Was wäre, wenn mein Mainboard abraucht? Dann gleich aufrüsten oder doch nochmal ein Sockel 1155-Mainboard kaufen? Ich lasse mich mal überraschen... ich habe die Hoffnung, dass Zen endlich mal wieder frischen Wind bringt und sich Gesamtleistung und Preise soweit bewegen, dass ein von einem 2500K wirklich ein großer Sprung zu machen ist
 
Verak schrieb:
Die Kommentare hier sind echt der letzte Brüller und zeigen nur auf das der Großteil im Grunde null Peil von der Materie hat. Denn wenn ihr sie alle hättet wüsstet ihr das sich deswegen im CPU Bereich nichts tut weil die Softwareentwickler zu 90% auf GPU und nicht auf CPU Leistung gehen. Deswegen auch das ganze AMD Zen, Intel bashing nur Kopf->Wand bedeutet, da AMD mit Zen auch keine großen Fortschritte machen wird solang die Software Spiele Entwickler auch nicht entsprechende Leistung aus der bestehenden Hardware ziehen und ein jeder sich wundert wieso Intel's 4-Kerner mit ~3,5Ghz wie z.B. der i5 2500k so wunderbar skaliert. Einfach deshalb weil zu 90% die Spiele auf GPU Leistung setzen.

Deshalb wird ja auch nicht nur die Leistung unter Spielen sondern auch unter Anwendungen betrachtet, welche allein auf der CPU laufen? Außerdem entwickeln CPU-Entwickler nicht für Spiele ihre CPU-Architekturen, sondern für den wirklich großen Markt, wie Server und HPC. Da gibt es zwar auch einen Trend zu Coprozessoren, die GPUs ähnlich sind, aber manche Sachen lassen sich damit auch nicht so toll berechnen. Haswell z.B. war für HPC ein recht großer Sprung, wenn es um Integer-Leistung geht, weil er mehr Einheiten bekommen hat.

Deine Schlussfolgerung, dass die CPU-Hersteller weniger weiter entwickeln, nur weil bei ein Paar Gamern die CPU-Leistung viel weniger wichtig ist als die GPU, ist an der Realität meilenweit vorbei. Die CPU-Hersteller wollen mehr Leistung entwickeln, stoßen aber an physikalische Grenzen, insbesondere auch bei den Produktionsverfahren. Die Pro-Kern-Leistung steigt seit einigen Jahren schon viel viel weniger an als früher. In Kurven sieht das schon nach Stillstand aus. Man musste deshalb zwangsläufig auf größere Parallelität setzen, weil man einfach mehr Leistung pro Kern durch mehr Einheiten, mehr Takt bei akzeptabler Effizienz physikalisch nicht mehr hin kriegt.

So eine CPU ist irre komplexer "Shit". Es muss Strom fließen, um zu Rechnen und den kann man nicht beliebig runter drehen. Wenn man dann mehr Einheiten baut wollen die auch Strom zum Arbeiten. Wenn man mehr Takt will muss auch pro Zeit öfter und damit indirekt mehr Strom fließen. Strom darf aber nicht nur wegen des Stromverbrauchs nicht zu viel fließen, denn sonst fließt er auch mal hin, wo er nicht hin soll oder es entsteht zu viel Abwärme auf zu kleinem Raum. Kleinere Produktion verschafft immer wieder ein Stückchen Spielraum, aber die lässt aktuell auf sich warten, weil die Fabriken Probleme haben, die immer kleineren Fertigungen zum laufen zu kriegen. Und was die Abwärme angeht ist immer kleiner auch nicht hilfreich.

Natürlich sind diese "Limits" noch lange nicht im Mainstream angekommen. Wenn sich unsereins freut, dass wir bis 8 Kerne im High-End kommen, schnallt man auf Server-CPUs bis zu 18. Aber die CPU-Architektur wird wie gesagt nicht für den Mainstream entwickelt, denn sonst wäre kein Spielraum mehr nach oben für anspruchsvollere Einsatzgebiete. Aber es ist halt die selbe Architektur, nur in kleinerer Ausbaustufe, die in ihrer Gänze halt schon auf die gegebenen Limits ausgelegt ist. Und diese haben wirklich gar nichts mit Grafikkarten zu tun.

@TheManneken
Hier werkelt noch ein Q9450@3.5 und ich hoffe bis Zen bzw. Skylake-E durchzuhalten. Ich will von meinen 4 Kernen einfach mindestens auf 8 aufrüsten, auch wenn das nicht unbedingt sinnvoll ist. Aktuell ist es mir noch zu teuer. Solange ich noch gut zurecht komme (und das ist durchaus der Fall), wäre es ja ohnehin unsinnig.
Aber ich werde dann wenn es so weit ist, sicher ein sehr starkes Upgrade haben. Es muss auch nicht billig sein, denn ich verwende Hardware durchaus sehr lange. Aber 1000€ für die CPU allein sind mit dann doch zu viel.
 
Zuletzt bearbeitet:
Es ging auch eher um die ganzen 1337 Gamer die sich seit Jahren wundern wieso es dahingehend im Spielebereich keinen "Leistungs" Fortschritt gibt. Sorry das dahingehend meine Ausführungen nicht klar genug waren.
 
Da ist noch lange nicht das Ende. Ich unterstelle den Firmen pure Absicht. Es ist das selbe wie mit den Handys. Es geht um pure Absatzzahlen. Vor 15 Jahren, als noch Giga lief, da brachten sie die Meldung, das die Nasa CPUs mit über 100GHZ nutzt. Und mal ganz ehrlich, wer darüber nachdenkt und sich die Chronologie der Hardwaregeschichten (PC Hardware,TV,Tablet,Smartphone) anschaut, sollte erkennen, das es Absicht ist, dem Endverbraucher alles Happen für Happen zu servieren, damit man so lange wie möglich überlebt und ewig Kohle schäffeln kann.

Sonst hätten wir heute schon 50GHZ Cpus mit einer enormen Leistungsfähigkeit.

Also macht euch mal keinen Kopf, es läuft alles wie es schon immer war und wie es sein soll :)
 
Verak schrieb:
Es ging auch eher um die ganzen 1337 Gamer die sich seit Jahren wundern wieso es dahingehend im Spielebereich keinen "Leistungs" Fortschritt gibt. Sorry das dahingehend meine Ausführungen nicht klar genug waren.

Achso, dann habe ich das falsch verstanden. Ebenfalls sorry. :)

@amorosa

Ne, wirklich nicht. Es gibt genug große Industrie und auch staatliche "Bösewichte", die von solcher Technologie so große Vorteile hätten, dass wir die Auswirkungen so dermaßen spüren würden, dass es auffällig wäre.
Was Giga erzählt kann ich jetzt nicht nachprüfen, aber vermutlich hat einfach mal wieder jemand aus einem System mit mehreren Prozessoren/Kernen die Taktraten addiert...
Ich habe auch einen zwar indirekten aber hoch angesehenen, leider unter NDA stehenden Kontakt zu Intel-Ingenieuren, der im HPC-Bereich tätig ist und diese physikalischen Probleme sind da Fakt und wenn jemand die umgangen hätte, dann wüsste man das. Wer auch immer diese von dir suggerierte Technik hätte, würde sie auch sicher nicht für sich behalten, denn allein, was einem die Höchstleistungs-Rechenzentren mit Bankbürgschaften in der Hand dafür auf den Tisch legen würden, wäre so viel, dass es sich nicht lohnen würde darauf zu warten, bis vielleicht mal alle auf dieses Level kommen. Ein Bisschen was zum "Pokern" in der Hinterhand halten... Ja, ohne Zweifel. Aber bei weitem nicht in der Größenordnung, wie du es vermutest.
 
Zuletzt bearbeitet:
Hopsekäse schrieb:
Achso, dann habe ich das falsch verstanden. Ebenfalls sorry. :)

und die Intel alle 1-2 Jahre ihr Geld, wo sie anscheinend nicht wissen wohin damit, in den Rachen werfen und sich einen Ast abfreuen das sie für 500-1000€ keine 10% Mehrleistung in Spielen haben. Aber im Umkehrschluss sich auskotzen wieso sich dahingehend in der CPU Leistung bei Spielen signifikant nichts verbessert und sich mit AMD Jüngern bashen das ihr Hersteller doch der bessere sei ...
 
Und die Leistung brauch wer - ich bin der Meinung, dass im Mainstream-Bereich aktuell einfach nicht mehr Leistung benötigt wird. Wieso sollte man Geld in die Entwicklung von Hardware stecken, die am Ende kaum ausgelastet wird? Da, wo Leistung gebraucht wird, gibt es sie ja auch. Ist halt nicht bezahlbar für den Ottonormalverbraucher. Aber der brauch diese doch gar nicht.

Defacto gibt es auf dem Markt doch aktuell für alle Anwendungsbereiche eines "Privatverbrauchers", ob nun das Spielen oder irgendwelche hobbymäßige CAD-, Bild- oder Videobearbeitung schon jetzt genug Leistung. Natürlich setze ich dann eher auf die Schiene: Features und Effizienz. Denn defacto sind die neueren Prozessoren vielleicht nicht (viel) schneller als die "älteren", dafür aber um einiges effizienter. Ja ja... merkt man auf der Stromrechnung ja eh nicht..

Die meisten Heimrechner langweilen sich doch schon seit Jahren...
 
Zurück
Oben