HEDT vs. Mainstream: Viele wurden falsch beraten!

Banned schrieb:
Singlecore-Leistung wird auch in Zukunft nicht egal sein. Es wird nach wie vor viele Rechenoperationen geben, die hauptsächlich über einen Kern laufen.
Und zwischen nem 1950X und nem 9900X liegen da schon Welten mMn.

Naaaaja, aber was läuft denn heute wirklich noch über einen Kern? ;)

Mal ein Alltags-Beispiel:
Hab mir gestern mal den Spaß gemacht, Firefox per Taskmanager einen einzigen Kern zuzuweisen. Amüsanterweise ging der direkt auf 100% und das Browsen lief sehr stockend. Normalerweise kommen einzelne Kerne aber nie über 10-15%, weil die Last verteilt wird.
 
Viele.

Denn über SC deckt man eine viel größere Menge an Nutzern ab, als über extreme MC-Skalierung.

Deshalb ist es eben oft nicht wirklich lohnenswert, so viele Kerne zu berücksichtigen.

Kauf dir mal den 16- oder 32-Kerner und guck, was FF macht. :D
 
Banned schrieb:
Viele.
Denn über SC deckt man eine viel größere Menge an Nutzern ab, als über extreme MC-Skalierung.

Naja, viele ist keine Antwort ;) Konkrete Beispiele bitte.

Generell sei aber gesagt: Wie immer im Leben kann man nicht alles auf einmal haben ;) Es gibt auch kein 1000 PS Auto, was 3 Liter im Stadtverkehr verbraucht.

Hier haben wir jedoch einen guten Kompromiss. Daher stellt sich die Frage, ob die (je nach Lage) 15-20% mehr SC-Leistung des 9900K wirklich 50% weniger Kerne und die doch erheblich geringere Zukunftssicherheit (die Zukunft spricht Multicore, auch Intel wird bald 10-12 Kerne im Mainstream haben und 8 im Mobile..) ausgleichen können.

Ich würde klar behaupten: Nein. Denn wir haben hier ja keinen Atom oder eine langsame ARM-CPU mit Schnecken-IPC, die notdürftig mit vielen Kernen gerade so lebensfähig ist in bestimmten Szenarien.
 
Zuletzt bearbeitet:
Beispiele? Fast alle Spiele, Photoshop, Lightroom, Premiere.

Bei Spielen ist der Unterschied wirklich erheblich, finde ich.

https://www.computerbase.de/artikel/prozessoren/amd-ryzen-2000-test.62774/seite-4

Der 1950X ist da nicht dabei. Aber der liegt maximal zwischen 1600X und 1800X.

Das sind im Durchschnitt ~20FPS Rückstand auf den 8700K. Klar, ob 90 oder 70 FPS, ist meist egal.
Nur hat man dann aber mal ein Spiel, dass so leistungshungrig ist, dass es dann eben 20 oder 40 FPS sind, entscheidet sich daran die Spielbarkeit.


Es kommt allgemein sehr auf den Anwendungsbereich an. Für manche lohnen sich so viele Kerne und für andere eben nicht.

Ich persönlich habe lieber alle paar Jahre ein topaktuelles Mittelklasse-System mit aktuellen Standards bzw. Schnittstellen als ewig mit so nem Monster rumzugurken.

Aber das muss jeder selbst wissen.

Ein definitives Besser oder Schlechter gibt es einfach nicht, weil man nicht in die Zukunft sehen kann.

Wie man noch die IPC oder den Takt steigern können wird, weißt du auch nicht.

Alles nur Spekulation.


Und wenn Windows seinen Scheduler nicht für Multi-Die optimiert, wäre der Spaß mit dem 16-Kerner ehrlich gesagt für mich auch eher nicht so groß. Auf so nen Mist wie auf Game-Mode umzuschalten hab ich dann echt keinen Bock. Denn dafür ist m.W. immer noch ein Neustart erforderlich.

Aber wird man abwarten müssen, wie das realisiert werden wird.
 
Zuletzt bearbeitet:
Banned schrieb:
Beispiele? Fast alle Spiele, Photoshop, Lightroom, Premiere.

Ist längst nicht mehr alles so, wie du glaubst ;) Die Software macht erhebliche Fortschritte, was Multicore angeht. Schau dir mal an, wie drastisch der 8700K hier im von dir benannten Premiere beispielsweise zersägt wird von den Multicore CPUs

https://techgage.com/wp-content/upl...Premiere-Pro-Software-HEVC-Encode-680x451.png

https://techgage.com/wp-content/upl...obe-Premiere-Pro-CUDA-HEVC-Encode-680x451.png

Seine "aberwitzigen" 4,7 Ghz SC Turbo nützen ihm bescheiden wenig. Stattdessen darf man dann dasitzen und den Threadrippers zusehen, wie sie bereits am Ziel sind :D Und auch mit 5 Ghz sähe er wohl kaum besser aus.

Banned schrieb:
Das sind im Durchschnitt ~20FPS Rückstand auf den 8700K. Klar, ob 90 oder 70 FPS, ist meist egal.
Nur hat man dann aber mal ein Spiel, dass so leistungshungrig ist, dass es dann eben 20 oder 40 FPS sind, entscheidet sich daran die Spielbarkeit.

Naja, also das Argument dass manche Ultra-Hardcore Zocker 240FPS wollen, lasse ich gelten. Aber: Es ist mir kein Spiel bekannt, was mit einem 1950X massive CPU-Probleme hätte und dann nur 20 FPS bringt. Auf 4K gibt es eine klare GPU-Limitierung.
 
Zuletzt bearbeitet:
Ich habe nicht gesagt, dass SC entscheidend ist, sondern dass SC nach wie vor wichtig ist.

Schau mal hier:

https://www.pugetsystems.com/labs/a...Mac-1320/#IntelvsAMDvsMacforPremiereProCC2019

Der 9900K liegt nicht so weit weg vom 2950X und sogar knapp vor dem 2920X. Also ziemlich dicht am 1950X.

Wie kann das denn sein, wenn SC deiner Meinung nach nicht so wichtig ist?

Bei PS und LR ist der 8700K sogar die deutlich bessere CPU. Was aber auch daran liegt, dass sich Adobe beharrlich gegen eine umfassende MC-Skalierung wehrt. Wo wir dann wieder bei dem oben von mir abgesprochenen Punkt sind. In diesem Fall, dass Adobe-Produkte eben auch weiterhin anständig auf fast jedem MacBook laufen, z.B..

Ein 2950X mit Mainboard liegt bei 1150-1250€.
Ein 9900K plus MB bei 650€ bis 700€.

TR macht einfach nur Sinn, wenn man spezielle Anwendungen hat, die davon stark profitieren.


Noch zwei weitere Punkte:

1. RAM: Mit der Plattform ist man an einen bestimmten Standard gebunden. DDR4 ist auch schon älter. Spätestens 2021/2022 wird DDR5 auch im Mainstream kommen. Und wir wissen denke ich beide, wie stark die Zen-Architektur von schnellem RAM profitiert.

2. Die bereits angesprochenen IPC-Steigerungen, die man eben nicht ausschließen kann. Intel hat schon von 30% mehr Leistung von Ice Lake bei sehr speziellen Aufgaben bzw. Befehlssätzen gesprochen. Auch wenn das spezielle Ausnahmen sind, wissen wir trotzdem nicht, was in Zukunft entscheidend sein wird. Und so ruhige Jahre wie von Sandy Bridge bis Kaby Lake wird es für Intel höchstwahrscheinlich eben nicht mehr geben. Also nix mehr mit vier Kerne und Eier schaukeln.
 
Zuletzt bearbeitet:
Banned schrieb:
Was aber auch daran liegt, dass sich Adobe beharrlich gegen eine umfassende MC-Skalierung wehrt.
Das kann ich untermauern:
  • Scrolling in der Timeline bei Adobe Premiere: Vollauslastung bei wenigen Threads (2-4), kaum Auslastung beim Rest, spürbare Hänger.
  • Dasselbe bei Davinci Resolve: Alle 16 Threads meines 2700 sind mit 20-25% ausgelastet, der Prozessor taktet bei 2,3Ghz, keine Verzögerung beim Scrolling.
 
  • Gefällt mir
Reaktionen: fragemann, Tenferenzu und Banned
Banned schrieb:
Wie kann das denn sein, wenn SC deiner Meinung nach nicht so wichtig ist?

Mein Standpunkt lässt sich eigentlich relativ simpel dalegen:

10-20% Nachteil durch SC-Leistung kann ich hier und da JEDERZEIT ganz locker verschmerzen. Aber 50-75% Nachteil (der sich automatisch ergibt, wenn man z.B. gleichzeitig 4K+1080p exportiert, selbst bei Premiere) niemals. Das kann dann mitunter Unterschiede bedeuten, die in die Stunden gehen.
 
Wenn du viel Multitasking machst, ist das natürlich was anderes. Aber ich glaube, die meisten machen sowas eben nicht.

Trotzdem lässt sich aus nichts, was du hier gesagt hast, soweit ich das gesehen habe, ableiten, dass hier in der Vergangenheit generell falsch beraten wurde oder dass es generell clever ist, immer auf HEDT zu setzen. Das ist einfach an den Haaren herbeigezogen, weil eben niemand in die Zukunft sehen kann und sich Bedingungen ändern.
Um mal auf den Titel des Threads zurückzukommen.
 
Banned schrieb:
dass es generell clever ist, immer auf HEDT zu setzen. Das ist einfach an den Haaren herbeigezogen, weil eben niemand in die Zukunft sehen kann und sich Bedingungen ändern.
Um mal auf den Titel des Threads zurückzukommen.

Naja, ich hab ja nicht gesagt "Immer und überall" ;) Sondern ich habe den Preis mit einbezogen. Der war eben damals ähnlich (der 4930k war nicht soviel teurer als die Mainstream-Plattform) wie heute z.B. beim 1950x.

Und meiner Meinung nach wird sich der ein oder andere - der nicht gern wechselt - in Zukunft doch sehr ärgern, weil die paar Prozent SC-Leistung über die Zeit schnell verfliegen werden, aber 16 vs 6 Kerne z.B. dann doch eine Hausnummer sind.

Und hatten wir hier nicht auch durchaus viele, die HT bei einem Vierkerner als Spinnerei bezeichneten, weil für Gamer total sinnlos ZUM DAMALIGEN ZEITPUNKT, aber dann mitansehen mussten, wie sie immer weiter ins Hintertreffen gerieten, während die Leute mit 2600K oder 3770K vergnüglich weiterzockten? ;)
 
Zuletzt bearbeitet:
Du gehst davon aus, dass einfach nur auf mehr Kerne optimiert werden wird.

Das wird so mMn nicht passieren.

Und wenn, dann wäre es irgendwie enttäuschend. Dann haben wir in fünf Jahren alle mindestens 32-Kern-CPUs und dann stinkt man mit 16-Kernen trotzdem ab. :D

Ich glaube nicht dran. Es wird auch andere Optimierungen geben und die Entwicklung wird eben nicht mehr so langsam laufen. Das habe ich jetzt auch schon zum x-ten Mal gesagt, aber du kapierst es leider irgendwie nicht. Es sollte doch eigentlich wirklich für jeden ersichtlich sein, dass jetzt eine wirkliche Konkurrenz-Sitution zwischen AMD und Intel herrscht, die es eben in der Vergangenheit lange nicht wirklich gab und die hoffentlich noch lange erhalten bleibt. Und genau deshalb wird man zukünftig auch nicht mehr so lange mit einer CPU oben mitspielen, wie mit einen Sandy Bridge (-E) damals.
 
Banned schrieb:
Ich glaube nicht dran. Es wird auch andere Optimierungen geben und die Entwicklung wird eben nicht mehr so langsam laufen. Das habe ich jetzt auch schon zum x-ten Mal gesagt. Es sollte doch wirklich für jeden ersichtlich sein, dass jetzt eine wirkliche Konkurrenz-Sitution zwischen AMD und Intel herrscht, die es eben in der Vergangenheit lange nicht wirklich gab und die hoffentlich noch lange erhalten bleibt.

Ja, ich weiß dass du das gesagt hast - aber ich glaube widerrum nicht DARAN ;) Bei den Taktraten herrscht um 5 Ghz eine Mauer und dank der Konkurrenz gibt es ja mehr Kerne. Aber ich bezweifle sehr stark, dass wir massive IPC-Steigerungen in den nächsten Jahren sehen werden. Das wird in Krümelchen-Form weitergehen ;) Schaun wir mal...
 
Ein weiterer Fehler, den du m.E. machst: Du vergleichst preislich Intel und AMD.

Wenn, dann müsste der Vergleich so aussehen

1600X + MB = 250€

1950X + MB = 850€


Von den gesparten 600€ kann man sich dann in drei bis fünf Jahren eine Kombi kaufen, die Kreise um den 1950X drehen wird.
Und aktuell hat man in den meisten Spielen kaum einen Nachteil und auch bei den Anwendungen muss man erst mal eine finden, bei der einem die Zeitersparnis 600€ wert ist.
Und da hört der Aufpreis noch nicht auf. Denn TR ohne Quad-Channel ist doch auch irgendwie lahm. Also Mehrkosten für RAM. Und beim Cpu-Kühler ist auch nix mit Boxed-Kühler; also nochmal Mehrkosten.
 
Banned schrieb:
Ein weiterer Fehler, den du m.E. machst: Du vergleichst preislich Intel und AMD.
Wenn, dann müsste der Vergleich so aussehen

Naja, aber jetzt einen 6-Kerner ins Spiel bringen, der tatsächlich keinen Dutt schneller ist als meine CPU von 2013 und theoretisch auch nicht wirklich schneller wäre als ein Sandy-E von 2011? ;)

Wenn man nun wirklich keinen "Bums" braucht - das habe ich ja schon gesagt - tuts auch ein Ryzen 3 1200 für 75€. Habe ich bei meinen Eltern letztens noch verbaut...

Darum heisst der Thread übrigens auch "VIELE wurden falsch beraten".. und eben nicht "ALLE wurden falsch beraten" ... ;) Und mit viele meine ich eben durchaus Enthusiatsten/PowerUser etc. Dass ich damit nicht meine, auch in einen GameBoy gehören 32 Cores, sollte eigentlich auf der Hand liegen ;) Darum hat sich der ein oder andere hier völlig umsonst aufgeregt ^^
 
Zuletzt bearbeitet:
Wer wie beraten wird, hängt von Anwendungszweck und vor allem vom Budget ab.

850€ nur für CPU und MB ist den meisten einfach zu viel. Und wenn man dann noch schlechtere Spieleleitung als mit ner 150€ CPU (R5 2600) hat, macht das auch einfach in vielen Fällen keinen Sinn.

PS: In ein paar Jahren gibt's dann für 150 - 200€ eine CPU, die auf 1950X-Niveau liegen wird. Wirste sehen. Die gechillten Jahre sind für Intel einfach vorbei. Konkurrenz belebt das Geschäft. ;)

Ich persönlich würde mir als 1950X-Besitzer schon heftig in den Arsch beißen, sollte der 16-Kerner im Mainstream kommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Web-Schecki
Banned schrieb:
Ich persönlich würde mir als 1950X-Besitzer schon heftig in den Arsch beißen, sollte der 16-Kerner im Mainstream kommen.

Du argumentierst unsauber ;) Ich habe ja explizit gesagt, ich würde jetzt nichts kaufen, sondern auf die 7nm CPUs warten. Und wenn es dann 16 Cores im Mainstream gibt, DANN würde ich keinem 0815-User dazu raten, HEDT zu kaufen, um das mal klar zu stellen.

Aber WENN ich jetzt etwas kaufen würde, dann kannst du mir kaum mit einer CPU kommen, die überhaupt nicht schneller ist als die, die ich bereits habe :D

Und ich würd das hier gern mal in die Runde werfen:
https://www.computerbase.de/forum/threads/zukunftssicheres-amd-system.1857152/page-3#post-22340598

Argument: "Abgesehn davon die meisten kaufen sich ne Kiste die hält dann 2-3 Jahre und dann wollen die eh was neues."

User: "Nö, ich hatte meinen Core2 Quad 10 Jahre."

Wie du siehst - viele wollen nicht alle 2-3 Jahre neu kaufen, selbst wenn das ginge von der P/L her.
 
Zuletzt bearbeitet:
Deine Kaufberatung lautet aktuell also "nicht Kaufen"
komische Kaufberatung.

Da machen meiner Meinung nach die Profis hier einen besseren Job.
 
florian. schrieb:
Deine Kaufberatung lautet aktuell also "nicht Kaufen"
komische Kaufberatung.

Da machen meiner Meinung nach die Profis hier einen besseren Job.

Es ist also ein guter Job, jemand wenige Monate vor Erscheinen einer CPU, die 100% schneller sein wird und ein doppelt so gutes P/L-Verhältnis hat, noch ein altes Modell aufzuschwatzen - anstatt die paar Tage mit dem alten Modell noch auszuharren? :freak:
 
Zuletzt bearbeitet:
fragemann schrieb:
Du argumentierst unsauber ;) Ich habe ja explizit gesagt, ich würde jetzt nichts kaufen, sondern auf die 7nm CPUs warten. Und wenn es dann 16 Cores im Mainstream gibt, DANN würde ich keinem 0815-User dazu raten, HEDT zu kaufen, um das mal klar zu stellen.

Wieso? Dann gibt es doch irgendwann 5nm und 32 Kerne kommen in den Mainstream. Und im HEDT wahrscheinlich sogar schon bald 64 Kerne mit TR3. Die reichen dann noch viiiiieel viiiiieeel länger. :rolleyes:
 
  • Gefällt mir
Reaktionen: Prollpower
Banned schrieb:
Wieso? Dann gibt es doch irgendwann 5nm und 32 Kerne kommen in den Mainstream. Und im HEDT wahrscheinlich sogar schon bald 64 Kerne mit TR3. Die reichen dann noch viiiiieel viiiiieeel länger. :rolleyes:

Für Profi-Cutter, die mehrere Video-Streams parallel rendern ist das sicher richtig. Für User mit einem Anwendungs-Mix steht die Sache DANN aber in keinem Verhältnis mehr. Denn 16 Kerne sind gegenüber den jetzt oft noch verbauten Vierkernern dann direkt mal eine vervierfachung und selbst gegenüber 8 Kernern noch eine Verdoppelung. Hier ist also zum ersten mal seit langer Zeit massig "Bums" für die breite Bevölkerung verfügbar und dann passt die Sache auch :D Und wie ich ja bereits sagte: Es ging um viele, nicht um alle ;)
 
Zuletzt bearbeitet:
Zurück
Oben