News Intel Core X 10000: Ein Produktstart, wie er in keinem Buche steht

ZeroZerp schrieb:
Welcher Softwarehersteller setzt denn nicht alle Mittel daran seine Software so auszustatten, dass sie das Beste aus der Anzahl an Kernen macht? Nur ist Code an sich, je nach Aufgabenstellung paralellisierbar oder eben nicht.

Ich würd mal Adobe in den Ring werfen. Dort ruht man sich auch gerne auf dem "Quasi-Monopol" aus und setzt wirklich wenig daran, eine gescheite Optimierung für mehr Kerne zu bringen. Und grade Adobe ist es, welches eigentlich perfekt dafür passen würde.

Egal was Adobe dazu sagt, es gibt Alternativen am Markt, die eine deutlich bessere Mehrkernoptimierung bringen, eins wurde ja hier im Thread schon genannt. Nur traurig das es Adobe geschafft hat, sich zum Industriestandard zu entwickeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel, DonL_, sidewinderpeter und eine weitere Person
DonL_ schrieb:
Nie stand AMD finanziell besser da als im Moment, man muss sich nur mal die Mühe machen sich damit zu beschäftigen und hohe Gewinne auszuweisen gehört im Moment nicht zu den dringlichen Aufgaben von AMD.
Ich finde auch, dass diese Anleger-Argumente jetzt wirklich der allerletzte Trumpf sind, den Intel ins Feld führen kann! Sie bringen aber für den User nichts.
Wohin sind denn die extremen Monopol-Margen der letzten Jahrzente bei Intel geflossen? In F&E ja offenbar nicht(obwohl abzuwarten bleibt, was denn aus ihren Grafik-Experimenten wird)! Denn wenn AMD es schafft, mit dem R9 3950X(jetzt als exemplarisches Beispiel) einen leistungsgleichen bzw. sogar geringfügig besseren Prozessor(sowohl Single-, als auch Multicore) als den i9 10980XE zu basteln, der a)eher am Markt ist, b)effizienter arbeitet(weniger Strom braucht) und c)obendrein das ganze Paket sogar um ein gutes Drittel billiger anbieten kann...und zusätzlich, für die, die wollen(man muss ja nicht!), mit d)PCIe4 die zukunftsfähigere Plattform, dann grenzt jegliche Kritik schon an üble Nachrede. Ich meine, dass die die Boards teilweise "unverschämt" teuer sind, liegt ja wohl auch daran, dass da ebenfalls schon Spitzentechnik(10GBit LAN etc.) mit drauf sitzt, was man bei Intel momentan, so als Kompaktpaket, glaub ich gar nicht findet...
Dass man an AMD jetzt rum mäkelt, dass das Geschäftsergebnis nicht passt, obwohl sie es mit Ryzen geschafft haben, trotz niedrigerer Margen, den großen Schuldenberg zu marginalisieren, dann ist es wirklich das ALLERLETZE Argument in jeglicher Hinsicht, das noch angeführt werden kann. Jeder Computernutzer könnte sich, anstatt irgendwelche Investoren-Argumente nachzuplappern, eher mal überlegen, was er da seit 15 Jahren genau finanziert hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grimey
sidewinderpeter schrieb:
Ich meine dass die die Boards teilweise "unverschämt" teuer sind, liegt ja wohl auch daran, dass da ebenfalls schon Spitzentechnik(10GBit LAN etc.) mit drauf sitzt, was man bei Intel so als Kompaktpaket momentan, glaub ich, gar nicht findet...
1. Quatsch, es gibt genauso viele Intel-Mainboards mit 10GBaseT-Ports wie es AMD-Boards damit gibt.
2. Das hat doch nichts mit AMD/Intel zu tun?! Die Boardhersteller entscheiden, was sie auf die Boards packen.
3. So lange da irgendwelche lächerlichen Aquantia-Billigmüllchips verbaut sind, ist das keine Spitzentechnik. Wobei ich feststellen muss, dass AMD zumindest im "Mainstream"-Bereich auf AM4 die einzigen Boards hat, die auch ernstzunehmende Intel X550-Chips für 10GBase-T bieten.
4. Jedes Board mit 10GBase-T-Ports ist deutlich teurer als ohne dieses Feature. Die sonstige Ausstattung auf diesen Boards ist idR auch sehr üppig.
 
  • Gefällt mir
Reaktionen: sidewinderpeter
Tobi86 schrieb:
Deswegen schreibe ich in dem Satz ja auch "glaube ich"! Ich schaue momentan ehrlich gesagt gar nicht mehr so genau auf Intel-Produkte und nötige Hardware, weil sich immer mehr herauskristallisiert, dass zumindest diese Plattform nicht mehr ran kommen wird. Am Anfang haben sie noch von "zusammengeklebten Prozessoren" über AMD gewitzelt, dann haben sie sich dezidiert auch im Marketing auf die Spieler fokussiert und jetzt, wo die Rechnung für diesen strategischen Humbug kommt, weil sie im Workstation- und Serverbereich leistungstechnisch auch abgeschlagen werden, stelle ich einfach nur wieder fest, wie gut eine Konkurrenz für den Markt ist.
Abgesehen davon stimme ich Dir zu, dass Intel sehr wohl gute Produkte abliefern und Standards setzen kann, wie eben bei (W)LAN-Chips oder Optane(aber die Preise!!!). Deswegen bin ich ja auch auf die GPUs gespannt. Trotzdem muss man feststellen, dass dieser Riesenkonzern einfach nicht effizient arbeitet, oder?
 
Zuletzt bearbeitet:
aldaric schrieb:
Ich würd mal Adobe in den Ring werfen. Dort ruht man sich auch gerne auf dem "Quasi-Monopol" aus und setzt wirklich wenig daran, eine gescheite Optimierung für mehr Kerne zu bringen. Und grade Adobe ist es, welches eigentlich perfekt dafür passen würde.

Egal was Adobe dazu sagt, es gibt Alternativen am Markt, die eine deutlich bessere Mehrkernoptimierung bringen, eins wurde ja hier im Thread schon genannt. Nur traurig das es Adobe geschafft hat, sich zum Industriestandard zu entwickeln.

Siehe https://www.computerbase.de/forum/t...nem-buche-steht.1908828/page-16#post-23428299
Zwei " Dumme" ein Gedanke!
 
Achso, was Industriestand sein sollte, definiert sich also über die unterstützten Kerne und nicht dadurch, wie gut das Programm ist. Wieder was gelernt... :freak:

Würden sie noch mehr Kerne unterstützen, würden sie außerdem Apple verprellen. :D
 
Banned schrieb:
Achso, was Industriestand sein sollte, definiert sich also über die unterstützten Kerne und nicht dadurch, wie gut das Programm ist. Wieder was gelernt... :freak:

Wie gut das Programm ist?

Wenn das Programm die CPU nicht auslasten kann bzw. nur auf einem oder zwei Kernen auslastet, ist das Programm in diesem Feld nicht gut (dabei spielt es überhaupt keine Rolle ob es eine AMD-CPU oder eine Intel-CPU ist, denn alle würden davon profitieren) optimiert. Wer professionel damit arbeitet verliert massiv Zeit (egal ob mit Intel- oder AMD-CPU).

Ach ja, wie gut ein Programm funktioniert, kann auch anhand eines oder mehrerer Workloads definiert werden und wie schnell es die Aufgaben erfüllt.
 
  • Gefällt mir
Reaktionen: Balikon
@Heschel

Künstlerische und gestalterische Arbeit ist nicht nur eine Zeitfrage und sollte dies auch nie primär sein, sonst läuft was schief.

Wenn du deine Ideen nicht vernünftig umsetzen kannst, weil ein Programm unintuitiv ist (was auch Zeit kostet) odee bestimmte Funktionen nicht bietet, bringt es dir gar nichts, dass das Programm toll mit vielen Kernen skaliert.

Wenn es so langsam ist und es so tolle Alternativen gibt, warum steigen die Leute dann nicht massenweise um? Na, merkst du was?
 
druckluft schrieb:
Das liegt dann aber daran, dass die Priorisierung nicht optimal programmiert ist.
Solche nicht optimal programmierte Prioritäten muss man als Anwender aber hinnehmen.

druckluft schrieb:
Jeder der hier meint, dass mehr Kerne die Lösung für alles und jeden wären, wird sich die nächsten Jahre noch massivst wundern.
Das ist ein Strohmann-Argument. Niemand hat behauptet, mehr Kerne seien die Lösung für alles. Aber es gibt und wird zunehmend mehr eine Mindestzahl von Kernen geben, die für flüssige Abläufe notwendig (nicht hinreichend) ist. Das ist auch das, was @ZeroZerp nicht versteht, und dessen Argumente deshalb immer wieder ins Leere laufen.

ZeroZerp schrieb:
Genau- Diese Beispiele wurden widerlegt. Setze die drei Blöcke hintereinander und benutze dafür die gleiche Zeitskala. Ob (perfekte skalierung vorausgesetzt) ein Kern Sequenziell alles in dreifacher Geschwindigkeit abarbeitet, oder ein Dreikerner in je einfacher Geschwindigkeit ist unerheblich.
Das Beispiel wurde nicht widerlegt. Der 2-Kerner hat die gleiche Rechenleistung wie der 3-Kerner, also höhere Singlecore-Performance. Dennoch ist er für die gesamte Aufgabe langsamer, weil die Prioritäten nicht optimal sind.

ZeroZerp schrieb:
Weil das genau in einen der Szenarien, die wir auch schon mehrfach besprochen haben fällt, bei welchen Multicore gut skalieren kann.
Multicore skaliert hier nicht nur gut, es ist notwendige Voraussetzung für flüssiges Arbeiten. Auf Singlecore-Systemen wird der UI-Thread des Betriebssystems immer wieder von anderen Tasks ausgehungert.

Noch ein weiteres Beispiel, aus dem 3950X-Review von Igor's Lab:
Tom-Clancy%u2019s-Ghost-Recon-Breakpoint-FrameTimeVariance-1920-x-1080-Lowest-Possible-Setting...png


Die 8 Kerne des 9700K sind nicht ausgelastet, die avg. fps sind sogar höher als bei den Ryzens und fast gleichauf mit dem 9900K. Aber man sieht hier deutlich, dass ihm zwischendurch immer wieder die Threads ausgehen und es daher zu unausgewogenen Frametimes kommt.

Bei Spielen gilt es daher, dass die CPU mindestens so viele Threads parallel ausführen können sollte wie das Spiel nutzt, und noch ein paar in Reserve für die Verwaltungsaufgaben des Betriebssystems wären auch gut.
 
  • Gefällt mir
Reaktionen: nazgul77
Bl4cke4gle schrieb:
Wer sich jetzt neue Hardware kauft, wird nicht das Experiment eingehen und AMD kaufen.
Das halte ich für eine pauschale Hypothese, die totaler Unsinn ist.

Bl4cke4gle schrieb:
Am Ende die Software darauf anzupassen, wird ewig dauern, sofern man Pech hat und tatsächlich irgendwas nicht läuft. Aber wer will das Risiko eingehen?
Mal als Beispiel: Bei uns laufen uralte Entwicklungs- und Testumgebungen.
Ich bin sicher, dass aktuelle x86-Hardware von beiden großen Herstellern zu 100% kompatibel mit "uralter" x86-Intel-Hardware ist. Insofern ist es kein Argument, man müsse die Software anpassen, wenn man AMD kauft und die "uralte" Hardware ersetzt.
 
nazgul77 schrieb:
nazgul77 schrieb:
Wenn es ginge, würde ich es dir zeigen, aber du musst jetzt wohl leider in deinem Glauben bleiben 🤷‍♂️
Mit "uralt" meinte ich übrigens Entwicklungs-Software, nicht -Hardware. Sorry, das ging nicht ganz aus meinem Text hervor.
 
chithanh schrieb:
Das Beispiel wurde nicht widerlegt. Der 2-Kerner hat die gleiche Rechenleistung wie der 3-Kerner, also höhere Singlecore-Performance. Dennoch ist er für die gesamte Aufgabe langsamer, weil die Prioritäten nicht optimal sind.
Du stellst hier jetzt einfach mal so Multicore gegen Multicore? Wo ist da das Thema?
Ich bin doch derjenige der sagt, dass Multicore eine Notlösung ist und je nach Szenario mal mehr und mal weniger zusätzlichen Aufwand bzw. Geschwindigkeitsverlust bedeutet.
Und Du zeigst selbst mit Deiner Argumentation für Multicore eins der möglich auftretenden Dilemmata auf?

Multicore skaliert hier nicht nur gut, es ist notwendige Voraussetzung für flüssiges Arbeiten. Auf Singlecore-Systemen wird der UI-Thread des Betriebssystems immer wieder von anderen Tasks ausgehungert.
Du bleibst den Beleg schuldig. Was verstehst Du unter "ausgehungert"?
Flüssiges Arbeiten womit? Was soll der Begriff "flüssiges" Arbeiten überhaupt auf einer technischen Bewertungsskala bedeuten?
Geht das bis Aussetzern von 10ms/50ms/500ms?

Du schrammst Außerdem hart am Thema vorbei, was auch genau Deine ins Leere Greifende Argumentation betrifft. Du vergleichst Multicore mit Multicore. Bei mir ist von einem Rechenkraftäquivalenten Single- Core System die Rede.

Die 8 Kerne des 9700K sind nicht ausgelastet, die avg. fps sind sogar höher als bei den Ryzens und fast gleichauf mit dem 9900K. Aber man sieht hier deutlich, dass ihm zwischendurch immer wieder die Threads ausgehen und es daher zu unausgewogenen Frametimes kommt.

Dann bring ich mal ein gegenbeispiel:
https://www.techspot.com/review/1655-core-i7-8700k-vs-ryzen-7-2700x/page8.html

8700K vs. 2700X -> Das darf ja in Deiner Welt des Denkens nicht passieren, was da aber schwarz auf weiß steht.
Der 12 Threader putzt den 16 Threader? Na dann erklär mir mal, wie das mit Deiner Argumentation zusammenpassen soll.

Oder in einer Anwendung:
1575373614940.png


Darf es in Deiner Welt nicht geben... Eine 8 Thread CPU (7700K) soll genauso schnell wie 16 eine "moderne" 16 Thread CPU sein (1800x)? Aber Lightroom ist doch eine Anwendung und nutz beim Ex- Import vorbildlich Multithreading:
https://d2r1vs3d9006ap.cloudfront.n...Screenshot_2017-11-01_15.09.48.png?1509552591
(Export- Operation)

Kann ja garnicht sein- Lt. Deiner Theorie sollte der 4- Kerner ja völlig durch sich "behindernde" Threads "ausgehungert" werden?
CPUs mit wenig Kernen, die trotz geringerer Gesamtrechenleistung die CPUs mit vielen Kernen in den meisten Alltagsszenarien schlägt?

Bei Spielen gilt es daher, dass die CPU mindestens so viele Threads parallel ausführen können sollte wie das Spiel nutzt, und noch ein paar in Reserve für die Verwaltungsaufgaben des Betriebssystems wären auch gut.
Und wenn das Spiel jetzt in der Lage ist unendlich viele Worker Threads zu einem Teilgewerk zu spawnen?

Zum Satz nummer zwei - Genau da liegt eine der Daseinsberechtigungen für Multicore- CPUs.

Im Normalfall laufen allein durch das Betriebssystem mehrere UNABHÄNGIG voneinander agierende Programme im Hintergrund. Und ja- Dort kann man in gewissen Szenarien "verschwendete" Zyklen durch Multicore- Management gegenüber der Singlecore- Variante einer CPU wieder gut machen.

Ansonsten kann man sich merken, dass es all die Nachteile, die man hier aufzählt, die gegen eine reine Singlecore- Variante sprechen könnten, in ähnlicher Form auch bei Multicore auftreten.

Gäbe es einen Graphen Prozessor auf Skylake- Basis, der nur 4 physische Kerne besitzt, dafür aber getaktet auf 10ghz ist, würde ich (und wahrscheinlich nicht nur ich) sofort meinen 5GHz 9900K aus dem Rechner schmeissen und die 4 zusätzlichen Kerne gegen die mit höherer Singlecore- Leistung eintauschen.
Der Leistungsboost in diversen Alltagsszenarien und unterschiedlichsten Anwendungen wäre gigantisch.

LG
Zero
 
Zuletzt bearbeitet:
Nimm doch ein aktuelles Chart:
1575377452606.png

Hier schlägt 8 Core (375,34 €) mal eben 18 Core (1.129,00 €, Liefertermin unbekannt)

Und dafür das es Multicore seit fast 15 Jahren gibt, ist das wohl eine ziemlich gute "Notlösung" ... kann ich mit leben.
Einen Einkerner mit 24 GHz, den es nicht gibt, da könnte ich nicht mit leben ...
 
Kennt jemand gute Reviews vom 9940X und/oder vom 7940X, inkl. gaming benchmarks und kann mit die links schicken? Ich kann nicht wirklich etwas finden.

DANKE!
 
hümmelske Bur schrieb:
Nimm doch ein aktuelles Chart:
Sehr schön- Das ist sogar noch ein viel bildlicherer Beleg für meine Darstellung.
Dort schlägt ein 8- Threadiger 9700K für 350,-€ einen 1500,-€ teuren, 64 Threadigen 2990WX32.

Das ist doch lt. Eurer Logik unmöglich, oder nicht?

Ein 32 Core 3970x von AMD langsamer als sein 24 Core- Derivat?
Wieder unmöglich. Der 32- Kerner hat doch viel mehr Rechenleistung und seine Threads können nicht "ausgehungert" werden...?

Denkt mal drüber nach... Klingelts?
Haben vielleicht doch eher andere Größen wie IPC, Takt, I/O, Latenzen etc. einen deutlich weitreichenderen Einfluss auf die Anwendungsleistung, wenn man eben nicht optimal parallelisieren kann?

Hat da nicht die günstigere 24Kern CPU von AMD einen signifikanten Vorteil gegenüber der 32 Kern CPU, obwohl diese ein deutlich höhere Gesamtrechenleistung hat?

LG
Zero
 
Zuletzt bearbeitet:
Ähm alle schlagen die alten TR ...
Und bei den neuen würde ich mal über die Cachegröße pro Core nachdenken. Ist ein Versuch wert.
 
hümmelske Bur schrieb:
Ähm alle schlagen die alten TR ...
Und bei den neuen würde ich mal über die Cachegröße pro Core nachdenken. Ist ein Versuch wert.
Und was schreibe ich oben bzw. schon die ganze Zeit? Wie hat die Diskussion überhaupt angefangen?

Hint:
denn am Ende helfen auch die angeblichen 18% mehr IPC nicht gegen echte Rechenkerne
Doch- Helfen sie! Und zwar anwendungsunabhängig, wohingegen man mit steigender Anzahl der Kerne vermehrt auf gute Parallelisierbarkeit der Anwendung/Aufgabenstellung hoffen muss und es tatsächlich sogar Szenarien von zu vielen Rechenkernen gibt!

Das war der Einstieg. Und gerade der von Dir gepostete Screenshot tritt den Beweis auf mehreren Ebenen dafür an!

----

Welchen Einfluss hat die Cachegröße pro Core? - Wäre auch nen Versuch wert, darüber nachzudenken.

LG
Zero
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Ich bin doch derjenige der sagt, dass Multicore eine Notlösung ist und je nach Szenario mal mehr und mal weniger zusätzlichen Aufwand bzw. Geschwindigkeitsverlust bedeutet.

Bei mir ist von einem Rechenkraftäquivalenten Single- Core System die Rede.

Gäbe es einen Graphen Prozessor auf Skylake- Basis, der nur 4 physische Kerne besitzt, dafür aber getaktet auf 10ghz ist, würde ich (und wahrscheinlich nicht nur ich) sofort meinen 5GHz 9900K aus dem Rechner schmeissen und die 4 zusätzlichen Kerne gegen die mit höherer Singlecore- Leistung eintauschen.
Der Leistungsboost in diversen Alltagsszenarien und unterschiedlichsten Anwendungen wäre gigantisch.

LG
Zero

Ja dann sorry, habe dich wohl falsch verstanden.

Und ich hatte (wahrscheinlich zu unrecht) das Gefühl, dass Du mit den uralten Benchmarks eine Intel vs. AMD Debatte befeuern willst. Weil für einen Kerne-Leistungsvergleich kann man ja auch aktuelle Benchmarks nehmen. Dafür auch sorry.

PS: das von Dir zitierte "denn am Ende helfen auch die angeblichen 18% mehr IPC nicht gegen echte Rechenkerne" ist nicht von mir.
 
hümmelske Bur schrieb:
Ja dann sorry, habe dich wohl falsch verstanden.
Kein Ding- Die Diskussion zieht sich schon über zig Seiten. Da bist Du einfach nur ein wenig zu spät eingestiegen.

Und ich hatte (wahrscheinlich zu unrecht) das Gefühl, dass Du mit den uralten Benchmarks eine Intel vs. AMD Debatte befeuern willst. Weil für einen Kerne-Leistungsvergleich kann man ja auch aktuelle Benchmarks nehmen. Dafür auch sorry.
Genau so ist es. Es ging ums Prinzip, dass eben behauptet wurde, dass es eben besser sei, mehr Kerne zu implementieren, als z.B. die IPC der Prozessoren zu steigern. Das war der Ursprung der Diskussion und daher stammt auch das Zitat...

PS: das von Dir zitierte "denn am Ende helfen auch die angeblichen 18% mehr IPC nicht gegen echte Rechenkerne" ist nicht von mir.
Exakt- Aber das war der Satz, der die Diskussion ins Rollen gebracht hat. Die Anzahl der Kerne ist eben nur ein kompromissbehafteter Teilaspekt der Rechenleistung einer CPU und eine höhere IPC ist der Rechenleistungsäquivalenten Mehranzahl an Kernen immer vorzuziehen, da in Anwendungen (auch nicht parallelisierbar) universal nutzbar.

LG
Zero
 
Zurück
Oben