News Multi-Core-CPU: Intel entdeckt den Bonus von mehr Kernen in Spielen (neu)

Lord_Ariakus schrieb:
Ist das nicht das, was AMD mit Zen+ über die Energiesteuerung im Prinzip ermöglicht?

Im Prinzip ist das ja schon die Idee der ersten CPUs, die mit einem Turbo ausgesattet wurden. Wenn nur wenige/einzelne Cores stark belastet werden, geht deren Takt hoch.
Aber da steckt natürlich eine Menge potential drin, so ein dynamisches Takten und möglichst komplettes Ausnutzen der TDP (bzw. sogar zeitweises Überschreiten) weiter zu optimieren. Richtig interessant würde es z.B., wenn die jeweiligen Cores sogar ganz unabhängig von einander takten könnten.

Die CPU-Cores an sich unsymetrisch zu gestalten (größere und kleienre), wäre allerdings nicht unkritisch. Das ist bisher halt komplett unüblich in der x86-PC-Welt und würde eine ganz andere Herangehensweise bei der Programmierung erfordern. Vor allem auch bei den Betriebssystem, die erst mal lernen müssten, mit solchen unsymetrischen Multicore-CPUs umzugehen.
Ansatzweise hatten wir dieses Problem ja schon bei Hyperthreading und bei den Bulldozer-Modulen, wo auch nicht jeder Thread gleich leistungsfähig ist und deshalb der Scheduler des OS die Lasten mit wesentlich mehr Überlegung verteilen muss, um die CPU optimal auszulasten.
 
BlackWidowmaker schrieb:
Nein, das tue ich nicht. Nur gilt dasselbe halt ebenfalls auch für den L2- oder L3-Cache. Mehr bringt mehr, und der Cache ist ebenso wie der RAM nie genug.


Da aber solche Einflüsse kaum mit Benchmarks, erst Recht nicht mit irgendwelchen sinnlosen FPS-Messungen erfaßt werden können, finden sie in der öffentlichen Meinung keine Beachtung.

In der Spiele-Realität jedoch sind Spiele nicht optimiert, und schon gar nicht fehlerfrei. Es werden für bestimmte Aufgaben, so z.B. oft beim Speichern und Laden, Ressourcen reserviert, aber nach Gebrauch nicht wieder vollständig an das System wieder freigegeben. Gothic III (und damit auch Risen und Elex) ist nur so ein Paradebeispiel von mir, auch die komplette Anno-Reihe, aber man erlebt das in sehr, sehr vielen Spielen. Je länger man zockt, umso langsamer wird das Game. Und irgendwann stürzt es ab.


Und wenn wir schon bei vielen Kernen sind: Kingdome Come Deliverance ist z.Z. heftig in der Kritik wegen der unterirdischen Performance die das Game liefert. Öffnet man den Taskmanager findet man auch sofort den Grund: Das Spiel nutzt einzig und allein einen Core/Thread meines i7-2600K, die restlichen 7 Threads werden einfach ignoriert.

Auch heutzutage nutzt nur eine sehr begrenzte Anzahl von Games mehr als zwei Threads. 4 oder mehr Kerne werden meist nur von wenigen AAA-Titeln die mit enormen Aufwand produziert worden optimal unterstützt. Auch wenn die technischen Grundlagen geschaffen werden, ändert das nichts an der Tatsache, daß die Implementierung sehr viel Aufwand benötigt und entsprechend Zeit. Und die Spielentwickler von heute haben nicht einmal die Zeit, ein Game fertig zu programmieren, werfen es wie im Fall von KCD schon im Alphastadium auf den Markt und behaupten einfach nur es sei fertig.

Da soll mir bitte einer erklären was Intel dabei zu ändern vermag. MMn nur heiße Luft und nichts dahinter wenn man alle Spiele in der Masse testen würden, und nicht nur ausgesuchte AAA-Titel.

Ein Quadcore ist zwar heute schon Pflicht, aber ein Hexacore bringt nur in weniger als 1% der Spiele etwas. Deshalb ist es da auch komplett sinnlos einen Ryzen zu kaufen, da schon ein i3-8350K über eine deutlich bessere Performance verfügt als ein Ryzen 1800x.

Die 2 Anhänge widerlegen deine Aussage völlig ..
 

Anhänge

  • CPU Test.png
    CPU Test.png
    212,9 KB · Aufrufe: 800
  • CPU Test 2.png
    CPU Test 2.png
    235,5 KB · Aufrufe: 801
BlackWidowmaker schrieb:
Deshalb ist es da auch komplett sinnlos einen Ryzen zu kaufen, da schon ein i3-8350K über eine deutlich bessere Performance verfügt als ein Ryzen 1800x.

Hä? Ryzen ist in Single und Multicoreleistung doch nur ein paar Prozent entfernt.
 
Pizza! schrieb:
Hä? Ryzen ist in Single und Multicoreleistung doch nur ein paar Prozent entfernt.

Hier wird gerne Spectre und Meltdown vergessen und die Tatsache, dass ein Coffelake ohne diese eh nur Rund 25% mehr Single Core Leistung hat .


Ergo bleiben mit Spectre und Meltdown Fix ~ 10-15 % mehr Leistung gegenüber einem Ryzen im Singlecore.

Also nichts was der Rede geschweige den einer Empfehlung Wert ist :D
 
also ich weiss nicht, was ich zu intel sagen soll außer: You don't say?!

Manchmal habe ich das Gefühl, dass sie schon viel weiter sind in der Entwicklung und nur um Profite rauszuschlagen die Entwicklungen verspätet Stück für Stück auf den Konsumentenmarkt loslassen.
 
Ich möchte hier jetzt nicht allzu negativ über Intel sprechen, aber man muss schon hinterfragen wie ein Konzern mit so hohen Umsätzen, so vielen Fabriken und so vielen Mitarbeitern, einer um ein vielfaches höherer Aufwendung für Forschung und Entwicklung am Ende einem Winzling (von den Möglichkeiten her) wie AMD immer wieder in bestimmten Themen hinterherläuft. Es war ja schon damals mit 64 Bit so, was Intel total verschlafen hatte und auch beim Thema mehr Kerne, muss man Intel immer wieder anschubsen. Eigentlich müsste Intel in jedem Bereich führend sein was neue Entwicklungen angeht, meistens sind sie aber Schlusslicht. Ich erinnere nur mal an den Mobile-Markt abseits von NBs, da hat Intel auch nie Fuß fassen können, so viel verschlafen. Stattdessen hat man über illegale Methoden den Markt manipuliert, damit Händler kein AMD kaufen und sich jahrelang damit begnügt die Kohle von den Kunden abzugreifen, indem man immer unsinnigere Zahlen an neuen Sockeln und minimalen Fortschritten wie 5-10% mehr Effizienz pro Generation fabriziert hat, wobei selbst das nicht auf jede Generation zutrifft, teilweise ging der Fortschritt gegen Null. Noch heute ist ein Sandy Bridge teilweise völlig ausreichend, ohne Ryzen hätte Intel nicht mal 6 Kerne im Mainstream und es sind schon über 10 Jahre vergangen seit Multicore an den Start ging.
 
Die Programmierer erklärten auch, warum SMT oder Hyper-Threading mitunter zu Leistungsverlusten führen kann. Das Problem sei, dass durch die Aufteilung eines Kerns auf zwei Threads alle Ressourcen geteilt werden, auch diejenigen, die in sehr begrenzter Menge zur Verfügung stehen, wie beispielsweise der L1-Cache der CPU oder genau gesagt des Kerns. Wollen zwei Threads auf den gleichen kleinen Cache zugreifen, kommt es zu Problemen, was in erhöhter Zugriffszeit münden kann. Daten werden dann verzögert ausgeliefert.

Jep. Und genau deswegen verzichte ich seit Jahren auf das Klump.

Zum Rest: eher vll auf hardwarenähere APIs setzen, anstatt den Overheard durch zusätzliche Leistung auszugleichen zu versuchen. Das aktuelle Wolfenstein kommt zB immer noch ohne Einbussen mit einer 2Kern CPU aus: https://overclock3d.net/reviews/software/wolfenstein_ii_the_new_colossus_pc_performance_review/8
 
anexX schrieb:
Ja, das Ding ist nur zu der Erkenntnis hätte man auch schon 2013 gelangen können. ^^

Danke. Genaugenommen aber noch früher.
Aber danke, dass ich das nicht initial sagen musste ^^
 
fatony schrieb:
...

Manchmal habe ich das Gefühl, dass sie schon viel weiter sind in der Entwicklung und nur um Profite rauszuschlagen die Entwicklungen verspätet Stück für Stück auf den Konsumentenmarkt loslassen.

You don't say?!
Dir ist schon bewusst wie der Hase im Groben läuft, gell?
- aktuelle Generation im Markt
- nächste Generation in der Testphase, Vorproduktion, Bemusterung ... whatever
- übernächste Generation in der Konzeptphase
- darauf folgende Generation im Brainstorming à la "wir bräuchten eventuell eine komplett neue Architektur"
 
aivazi schrieb:
Hier wird gerne Spectre und Meltdown vergessen und die Tatsache, dass ein Coffelake ohne diese eh nur Rund 25% mehr Single Core Leistung hat .

Ergo bleiben mit Spectre und Meltdown Fix ~ 10-15 % mehr Leistung gegenüber einem Ryzen im Singlecore.

Also nichts was der Rede geschweige den einer Empfehlung Wert ist :D
​Das ist falsch! Bei Coffee Lake gibt es fast keinen Leistungsverlust, wurde auch schon des Öfteren erwähnt und auch hier von CB geschrieben! Deweiteren kommt dazu, das man ohne Probleme über die Registry die entsprechende Patches in 5 Sekunden deaktivieren kann, so das selbst der minimal Leistungsverlust [und das sind keine 10%] in Gmaes also nicht mehr vorhanden ist! ;)
 
Zotac2012 schrieb:
​Das ist falsch! Bei Coffee Lake gibt es fast keinen Leistungsverlust, wurde auch schon des Öfteren erwähnt und auch hier von CB geschrieben! Deweiteren kommt dazu, das man ohne Probleme über die Registry die entsprechende Patches in 5 Sekunden deaktivieren kann, so das selbst der minimal Leistungsverlust [und das sind keine 10%] in Gmaes also nicht mehr vorhanden ist! ;)

Ja dann sollen sie Benchmarks dazu veröffentlichen!

Die einzige Referenz von CB zu Spectre/Meltdown ist Skylake und die verlieren im totalitären CPU Limit rund 10% Leistung in der 99 Percentile.

Abgesehen davon, dass Coffee Lake zu 100% auch von der Durchsatz Problematik betroffen ist.
 
^^ das selber Thema wie die ersten 6 Kerner von Intel raus kamen mit Crysis
 
HanneloreHorst schrieb:
Naja, auch bei Intel kocht man nur mit Wasser und warum soll man vorzeitig Technik fördern, wenn die alte Technik von den Leuten immernoch wie warme Semmel gekauft werden?

Und da konnte die Kundschaft genau was für wenn sie im Mainstream über ein Jahrzehnt lang nur Quadcores serviert bekam ? Hätte man vielleicht ne Pappschild Demo vorm Intel Office in Feldkirchen machen sollen ? Denke nicht das sie deswegen ihre Roadmaps geändert hätten. ;)
 
aivazi schrieb:
Ja dann sollen sie Benchmarks dazu veröffentlichen!

Die einzige Referenz von CB zu Spectre/Meltdown ist Skylake und die verlieren im totalitären CPU Limit rund 10% Leistung in der 99 Percentile.
Aber Dir ist schon klar das Sky Lake nicht Coffee Lake ist, oder? Im Open GL Test von Cinebench sind es bei genau 2 FPS unterschied, wenn der Patch aktiviert ist, allerdings lasse ich den Patch meistens deaktiviert. Da ich weder VM noch Cloud nutze, alle meine Browser sind mit entsprechendem Schutz ausgestattet, das reicht mir vollkommen. Es gibt ja ganz bestimmte Szenarien die gegeben sein müssen um einen Angriff erst einmal möglich zu machen, was aber längst nicht auf alle User zutrifft.

Das eine ist die Theorie, dass Andere die Praxis und dann müssen ja wie gesagt bestimmte Parameter gegeben sein, um überhaupt einen Angriff zu ermöglichen. Da dies aber mit erheblichen Aufwand einhergeht, muss es sich auch für den Angreifer lohnen, da gibt es sicherlich bedeutend bessere Ziele als meinen Rechner, mit dem ich noch nicht mal Online Banking betreibe oder dergleichen. Und den Aufwand zu betreiben, um ein Rezept für Pfannkuchen zu stehlen, lohnt einfach nicht! :D

​Wer sich mit dem Patch sicherer fühlt oder User die bestimmte Szenarien nutzen, die ein Risikopotenzial für einen möglichen Angriff beinhalten, können/sollen sich den Patch installieren und aktivieren. Im Serverbereich sieht es dann auch wieder ein wenig anders aus, weil dort wohl die Gefahr am größten ist, aber das weiß man ja inzwischen.
 
Zuletzt bearbeitet:
anexX schrieb:
Und da konnte die Kundschaft genau was für wenn sie im Mainstream über ein Jahrzehnt lang nur Quadcores serviert bekam ? Hätte man vielleicht ne Pappschild Demo vorm Intel Office in Feldkirchen machen sollen ? Denke nicht das sie deswegen ihre Roadmaps geändert hätten. ;)

Warten ist so ein Zauberwort.

Es gibt noch so ein Satz, da fühle ich mich dann langsam alt:
"Man muss nicht immer den neuesten Scheiß haben".

Mir z.B. geht in vielen Segmenten die Entwicklung nicht ausgiebig genug voran, was mache ich?
Nicht konsumieren.

Das klingt kompliziert und ja, wenn du etwas dringend brauchst, dann muss man evt. in einen sauren Apfel beißen aber tendenziell ist der Konsument ja mündig genug zu wissen, was sein eigener Konsum bewirkt.

Denken hilft halt.

Und wenn weniger konsumiert wird und sich das in den Zahlen niederschlägt, dann fangen die Unternehmen halt an die Sachen, die schon seit 20 Jahren fertig sind endlich aus der Mottenkiste zu holen.
 
flappes schrieb:
Und genau DANN, wenn intel den 8 Kerner für den Mainstreammarkt liefert,
werden Spiele ganz "zufällig" auch von 8 Kernen profitieren, das wird intel uns dann schon erzählen ;-)

​Du bist schneller mit der Antwort als ich gewessen... : )
 
Zotac2012 schrieb:
Aber Dir ist schon klar das Sky Lake nicht Coffee Lake ist, oder? Im Open GL Test von Cinebench sind es bei genau 2 FPS unterschied, wenn der Patch aktiviert ist

Und dir ist klar das es auch andere Intel Generationen gibt, die noch deutlich verbreiteter sind?

Wo sind die CB Tests zu Haswell oder gar Ivy Bridge, die je nach Spiel dank Spectre enorm leiden ? Das Coffee Lake am wenigstens verliert, ist mittlerweile jedem klar, aber es gibt ja nicht nur Coffee Lake am Markt.
 
nicK-- schrieb:
Die 2 Anhänge widerlegen deine Aussage völlig ..

Ich beziehe meine Aussage nur auf meine persönliche Erfahrung mit meinem eigenen PC. Was irgendwelche Test-Berichte über KCD schreiben interessiert mich nicht die Bohne. Ich fahre auch keinen klinischen Benchmark-Test, sondern hab im Hintergrund zwei Browser mit 20 Tabs offen, und switche gelegentlich mit Alt-Tab zwischen Spiel und Browser, z.B. um irgendwelche YouTube Guides darüber zu sehen. Schon allein wenn man das einmal macht, hat man im Anschluß 10 FPS weniger. Wenn man das ein paar Mal macht, ist die Gefahr eines Absturzes schon viel größer.

Daher kann ich auch nicht 100% sicher behaupten, daß KCD wirklich nur einzig und allein einen Thread nutzt. Fakt ist allerdings, daß bei mir ein Thread komplett am Anschlag ist, die restlichen 7 maximal bei 20-25% Auslastung.


Was deinen zweiten Anhang betrifft, der hat keinerlei Aussagekraft bezüglich meinen Vergleich mit einem aktuellen i3-8350K, weil der eben im Vergleich fehlt. Als der Ryzen rauskam, war er tatsächlich durchaus konkurrenzfähig, ja sogar fast auch in Games. Aber CFL hat aus der Sicht des Gamers Ryzen in Grund und Boden gestampft. Der i3 kostet gerade mal 150€ und stampft alle Ryzens und sogar den Tripper in den Boden:

Unbenannt-1.jpg

Quelle: PCGamesHardware
 
@Blackwidowmaker

Ist ja schön das du einen Benchmark mit veralteter Software raussuchst, um irgendwie deine verworrene Argumentation aufrecht zu erhalten.
 
Ist zwar OT aber eventuell kann es ja jemand beantworten...

Warum habe ich mit einem 4790K mit 4.70GHz bei NFS Payback eine CPU Auslastung von über 70%. Ein GTA5 ist da deutlich entspannter...
 
Zurück
Oben