News Prozessoren: AMD nähert sich 20 Prozent Marktanteil bei Desktop-CPUs

@Taxxor

Es geht nicht um Spiele die irgendetwas damit anfangen können sondern darum ob sie die CPU auslasten können und die Anzahl jener dürfte im Test bei 0 liegen denn dafür müssten sie dann schon alle 16 Threads des 8 Kerners auslasten können. Überall da wo das nicht der Fall ist weil z.B. die anderen Threads am Renderthread verhungern ist von Anfang an klar dass derhöher taktende Chip mit der besseren Einzelkern Leistung gewinnen wird.

Da diese nutzlose Diskussion aber schon seit zig Jahren geführt wird ohne das die Zusammenhänge irgendwo mal hängen bleiben aber man nicht müde wird den mehr als mangelhaften Fortschritt bei der Software Entwicklung mit den immer wieder gleichen Argumenten zu verteidigen schenke ich mir einfach mal weiter darauf einzugehen.
 
Wadenbeisser schrieb:
Es geht nicht um Spiele die irgendetwas damit anfangen können
Wadenbeisser schrieb:
  • Die >20% Angabe von Mr.Baba bezog sich auf Anwendungen die auch was mit den Kernen anfangen können

Und wir haben doch tatsächlich ein Spiel in der Liste, nämlich Battlefront 2, wo der 2700X recht deutlich in den Frametimes über dem 8700K liegt.
Wie ist das denn dann möglich, wo der 8700K doch die höhere Einzelkernleistung hat?

Und auch der 25% Unterschied vom 8700K zum 9900K ist sehr viel größer, als der Taktunterschied von 9% (4,3 zu 4,7)

Das Spiel scheint also mit den Kernen was anfangen zu können und zwar so, dass die Kerne das Defizit in der Singlecoreleistung mehr als nur ausgleichen.
 
  • Gefällt mir
Reaktionen: cbtestarossa
@Taxxor
Untersuche das Spiele doch auf ihr Verhalten zur CPU Nutzung und beantworte dir die Frage selbst?
Ich habe weder die CPU, noch das Spiel und erst recht keine Lust beides für die Beantwortung deiner Frage zu kaufen.

Da die Frametimes das Einzige sind wo ein großartiger Unterschied zu sehen ist und die durchschnittliche Framerate aller Kandidaten aber nahezu gleich ist, das Spiel also im GPU Limit hockt, sowie die CPU Modelle in dem Frametimes Test ziemlich bunt durchgewürfelt dürfte das eher ein Problem des Spiels sein.
Das es mit der Leistung der CPU selbst herzlich wenig zu tuen haben dürfte sieht man am maginalen Leistungsvorsprung von 6% zum i5-8400. (6x 2.80GHz Basistakt @ 65W TDP vs. 6x 3.70GHz Basistakt + HTT @ 95W TDP)
 
Freut mich für AMD. Ohne AMD würde Intel seine Machtposition missbrauchen und uns wie früher mit Intel Pentium CPU's abzocken und dafür kaum was neues bieten außer etwas mehr Hz.
 
gaym0r schrieb:
Ist mir vollkommen bewusst, ändert aber nichts.

doch, weil die warten... und viele kleine sind mitunter ein grösseres volumen, als wenige grosse... :)

tellerrand und so
 
Nuja wenn ich zuschlage dann etwas mit vielen Kernen für h265 encoden.
Mal sehen wie da so der Preis wäre.
Eventuell kaufe ich auch nur eine nVidia Graka. Wobei sie ja bei der gtx1650 beim Encoder gespart haben.
Schade eigentlich.
 
XTR³M³ schrieb:
doch, weil die warten... und viele kleine sind mitunter ein grösseres volumen, als wenige grosse... :)

tellerrand und so

Ich weiß nicht wo du deine Weisheiten hernimmst, aber meine Firma betreut 250 kleine und mittelständische Firmen. Wenn die einen neuen Server brauchen, dann brauchen sie einen neuen server. Kein Kunde wartet dann ein jahr mit der Anschaffung. Das ist unterm Strich teurer.
 
@cbtestarossa
Also ich habe das encoding auf h.265 durch die GPU noch nicht ausprobiert aber bei h.264 damals war ich nicht überzeugt. Es geht zwar fix aber die Dateien werden größer und Qualitativ eher schlechter.
Ob nun Nvidia(Cuda) oder AMD(AMD APP) beides war nicht super. Wobei AMD APP wohl auch nicht mehr wirklich existent ist.
Würde an deiner Stelle auf CPU Basis encoden, dauert zwar länger aber dafür kommt auch was vernünftiges hinten raus.
 
Bin ja vor einer ganzen Weile vom ollen Core i7 3770 auf dem AMD 2700X umgestiegen und habe den Wechsel nicht bereut.
Seine Benchmark`s liegen gut in der Norm und gefühlte Leistungsgrenzen habe ich im Alltag nicht wahrgenommen.
Eine gute Allround CPU, mit optimalen Preis-Leistungsverhältnis !
 
@Phneom
Tja das ist eben die Frage.

Habe irgendwo Vergleiche gesehen CPU vs. GPU
Bei einigen Einzelbilder gefiel mir sogar Encoding von GPU besser und bei anderen die von CPU gerenderten.
Naja Einzelbilder sagen dann auch nicht viel aus.

Tja die Frage ist dann noch die Geschwindigkeit beim Encoden.
Da müsste hier mal einer mit einer 8 oder 16 Core CPU antreten und mit GPU vergleichen.

p.s. SMT soll bis 95% eines echten Kerns leisten bei Videoencoden.
Was ich schon krass finde wenn das stimmen würde.
 
gaym0r schrieb:
Ich weiß nicht wo du deine Weisheiten hernimmst, aber meine Firma betreut 250 kleine und mittelständische Firmen. Wenn die einen neuen Server brauchen, dann brauchen sie einen neuen server. Kein Kunde wartet dann ein jahr mit der Anschaffung. Das ist unterm Strich teurer.

es geht hier um genau 1-2 quartale die gewartet wird... nicht ein jahr :)
 
Sei es AMD mehr als gegönnt, mit der nächsten Ryzen Gen wird es auch noch einmal rund gehen, wenn man sich so anschaut, wie viele Leute nur auf den Release warten, der hoffentlich ohne größere Schwierigkeiten erfolgen wird.
 
Sooo. Kleines Update:

Nachdem ich jetzt eine Gainward RTX 2060 Phoenix GS für 289 Euro geschossen habe, sind jetzt auch die aktuellen Titel mit höchster Grafikeinstellung konstant mit 60 FPS spielbar :)
Man merkt jedenfalls einen sehr klaren Unterschied zur Vorgängerkarte der GTX 1060, ebenfalls Gainward, stellenweise bis zu 50% mehr Leistung.
Einzige Ausnahme ist UBoat, aber da ist das Performance-Problem auch bekannt.

Dann warte ich jetzt mal gespannt auf die 3000er Reihe von Ryzen, ob es überhaupt Sinn macht vom 1600X zum neuen eventuellen 3700X zu upgraden.
 
  • Gefällt mir
Reaktionen: Steueroase
Zurück
Oben