News Intel Rocket Lake-S: Core i9-11900K schlägt Ryzen 9 5900X in Spielen

Buggi85 schrieb:
In den 90ern hättest du dich gegen 3d Beschleuniger stur gestellt

Vielen Dank für diese kleine Analyse über mich. Im Gegensatz zu dir bin ich allerdings ein alter Sack (hatte meinen ersten eigenen Computer schon lange vor deiner Geburt - wenn man die 85 mal als dein Geburtsjahr deutet) und habe damals genau diese Karte als einer der ersten überhaupt gekauft. Aber das tut hier eigentlich nichts zur Sache, da komplett am Thema vorbei.

Ich versuche dir das Thema stattdessen noch einmal in 2 einfachen Sätzen zu erklären:

Softwareencoder bieten einige Features zum codieren an, die die Encoder auf den GPUs leider nicht unterstützen. Moderne GPUs bieten zwar extrem schnelle und ressourcenschonenede Encoder in Hardware, allerdings ist deren Featureset auf das Wesentliche beschränkt und können deshalb in der Qualität nicht mit den Softwareencodern mithalten.

Folglich sieht ein Video aus einem Hardwareencoder bei gleicher Bitrate meist etwas schlechter aus als das Pendant aus einem Softwareencoder. Bzw. bei gleicher Qualität ist die Bitrate und damit die Dateigröße über die Hardware am Ende größer.
Das bisschen Qualität erkauft man sich halt mit einer gefühlt 50x langsameren Kodierzeit.

Das hat nichts mit Technikfeindlichkeit oder irgendeinem anderen Schmu zu tun den du mir da andichten möchtest, sondern ist einfach eine Tatsache.
Nur weil die meisten User entweder davon keine Ahnung haben, denen die Qualitätsunterschiede nicht auf den ersten Blick auffallen oder die Dateigröße keine Rolle spielt, heisst am Ende nicht, dass es nicht doch einen Unterschied gibt.

Macht bei 1-2 Filmen vielleicht auch nicht wirklich einen Unterschied ob der Film nun 10 oder 15GB groß ist.... Aber Leute wie ich, die mittlerweile fast 200TB an Videos gespeichert haben und denen vor allem die Qualität und im Endeffekt auch die Dateigröße wichtig sind - da macht es sehr wohl einen Unterschied.
 
peter.hahn schrieb:
nö, 1. muss nicht am selben Rechner sein, 2. könnte man auch genügend Kerne haben und rein dafür einen Teil abstellen.
Dann müssen es aber tatsächlich 16 Kerne sein, siehe mein kleiner Test, den ich auf Twitter gepostet habe. Der Verlust ist mit 15% tatsächlich vertretbar. Mit 8 Kernen sieht's nicht mehr so rosig aus, siehe angehängtes Chart. Der Hardware Encoder ist deutlich überlegen. Ob 12 Kerne ausreichen würden, ist nicht unbedingt klar. Hatte keine Lust, das auch noch zu testen.

Solche 16 Kerner kosten auch keine Knöpfe. Hab für den 3950X seiner Zeit 780 Euro bezahlt. Den 3700X hätte man für unter 400 Euro bekommen. Für die Preisdifferenz hätte man locker eine RTX 2080 Super, statt eine RTX 2070 kaufen können und noch besseren RAM, was insgesamt sinnvoller wäre.

CX_2021-01-14_09-23-50_Comparison.png
 
Loopman schrieb:
Im Gegensatz zu dir bin ich allerdings ein alter Sack...

Softwareencoder bieten einige Features zum codieren an, die die Encoder auf den GPUs leider nicht unterstützen.

Folglich sieht ein Video aus einem Hardwareencoder bei gleicher Bitrate meist etwas schlechter aus als das Pendant aus einem Softwareencoder. Bzw. bei gleicher Qualität ist die Bitrate und damit die Dateigröße über die Hardware am Ende größer.
Das bisschen Qualität erkauft man sich halt mit einer gefühlt 50x langsameren Kodierzeit.
Du magst zwar älter sein, aber ich werde wohl vor dir ableben, also patt.

Nun, es ist ja eben davon auszugehen das ein Teil des fehlenden Featuresets entweder fest in die Hardware verankert ist oder eben nicht relevant, da nicht vergleichbar zur CPU Abarbeitung.
Das größte Manko stellt eigentlich nur die Implementierung durch den Softwareentwickler dar, nicht alle geben auch alle Einstellungsmöglichkeiten dem User frei, insofern gebe ich dir schon recht.

Ich hatte letzten Endes aufgezeigt was möglich ist bei geringer Dateigröße, an Qualität, als auch in der Transkodierzeit, mittels NVenc. Ja simple Einstellungen, kein Hexenwerk.
Die Frage ist doch, ob es einen Unterschied im großen Ganzen macht und wenn sich nichts erkennen lässt, dann ist es doch ein positiver Erfolg für die Hardware Variante.
Wenn du vom Zoom erst auf Pixelebene gehen musst und dort vielleicht einen Unterschied zur Quelle ausfindig machst, steht immer noch die Frage im Raum, wie gewichtig ist dieser im Verhältnis zu den eingesparten Ressourcen und der Zeit. Sicherlich wird sich das jeder für sich beantworten müssen.

Ein Beispiel für ein längeres Video:
CPU Zeit 24 Std. mit Leistungsaufnahme AMD von ca. 142W.
GPU Zeit 3 Std. mit Leistungsaufnahme Nvidia ca. 25W.

So, schlecht auch noch wenn die CPU beim transkodieren zu 100% ausgelastet wird und den User blockiert.
Jetzt kommt aber auch noch der Obulus das meine 1070 bspw. damit trotzdem nur 50% der Hardwarecodierer nutzt, weil je zweifach vorhanden für parallel Session. Bedeutet ich kann zwei Videos parallel mit den Vorzügen transkodieren. Das ist dann nochmal eine ganz andere Hausnummer für jemanden der vor allem viele Videos zu archivieren hat.
Es ist schwierig bei dem was mindestens Nvidia mit ihren Consumer Karten inkl. NVenc bietet, da dann noch im Pixelvergleich mit dem Finger auf marginale Differenzen zu zeigen, die gegen die Hardware sprechen sollen.

Aber nun Ende des Off-topic, denn es geht hier um CPUs (wobei Intel mit neuer iGPU und QSV wieder Topic konform:D).
 
Mal ne Frage in die Runde, weil ja heute nichts mehr ohne 16 Kerne
(scheinbar) läuft :D:

ein AMD 3970X mit 64 Threads wischt einen 10900K mit 20 Threads
so richtig den Boden auf! Richtig..... ?


Ein Testclip aus einem Sony Camcorder (PXW-Z90) im *.MXF FullHD 10Bit 4-2-2 Format (3m 34sek Länge)
wird mit einem €(1.)400,- Encoder in HEVC/H.265 umgewandelt:


P/Q: 15 Balanced Target: 6600kbps Max 10000kbps
3970X (HEVC):
1 pass: 1m 18,650s = 163,3 FPS
2 pass: 2m 39,065s = 80,70 FPS

10900K (HEVC):

1 pass: 1m 42,663s = 125,1 FPS
2 pass: 3m 27,858s = 61,8 FPS


P/Q: 9 Balanced Target: 6000kbps Max 8000kbps
3970X (H.264/AVC Broadcast):
1 pass: 1m 33,483s = 137,4 FPS
2 pass: 3m 07,961s = 68,3 FPS

10900K (H.264/AVC Broadcast):

1 pass: 1m 54,815s = 111,8 FPS
2 pass: 3m 52,043s = 55,3 FPS

Also vom Boden aufwischen kann hier keine Rede sein...
hätte mir jetzt einen größeren Unterschied erhofft!

Klar ist bekannt das HEVC & x264 nur beschränkt mit der Zahl der Kerne skalieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
Tenchi Muyo schrieb:
Also vom Boden aufwischen kann hier keine Rede sein...

Kommt drauf an, einige Intel Jünger (und natürlich auch AMD Jünger nach ZEN3 Release) behaupten 5-10% mehr Performance nennt sich Boden aufwischen...
 
  • Gefällt mir
Reaktionen: Tenchi Muyo
Tenchi Muyo schrieb:
hätte mir jetzt einen größeren Unterschied erhofft!
Ich bin jetzt nicht so der Videoprofi, aber H.265 profitiert doch stark von AVX512, oder? Wie fällt der Test denn mit H.264 aus?
 
Gute Preise, 11700 für 329 Dollar, 11900K 429.
 
  • Gefällt mir
Reaktionen: Steueroase und ZeroStrat
Zwiebelsoße schrieb:
Gute Preise, 11700 für 329 Dollar, 11900K 429.
Wäre nicht schlecht. Der 5800X kostet ca 460 Euro zur Zeit, da positioniert sich der 11900K durchaus attraktiv. Bin auf die Gaming Leistung gespannt. Manche Leaks sehen Rocket Lake sogar hinter Comet Lake.
 
Tenchi Muyo schrieb:
Mal ne Frage in die Runde, weil ja heute nichts mehr ohne 16 Kerne
(scheinbar) läuft :D:

[...]

Klar ist bekannt das HEVC & x264 nur beschränkt mit der Zahl der Kerne skalieren.

Wo ist deine Frage? Wenn die Software nur beschränkt mit mehr Kernen umgeht, ist doch klar dass auch ein 64 Kerner nicht viel weiterhilft. Da wo die Anzahl der Kerne skaliert, wischt ein TR natürlich den Boden mit dem Intel. Aber wie gesagt was war deine Frage nochmal?

Da Intel den 11900K schon in ihren eigenen Tests gegen den 5900X stellt werden sie das auch im Preis tun. Macht euch da mal keine Hofffnungen.
 
Dai6oro schrieb:
Da Intel den 11900K schon in ihren eigenen Tests gegen den 5900X stellt werden sie das auch im Preis tun. Macht euch da mal keine Hofffnungen.
Nicht mit der starken Konkurrenz. Der 5900X ist in mehrkernlastigen Anwendungen quasi übermächtig, aber in Games nur geringfügig langsamer. Intel muss den i9 spürbar günstiger anbieten als den R9.

Dass am Ende Zen 3 mit OC signifikant geschlagen werden kann (in Spielen), ist für Enthusiasten zwar interessant, kann aber unmöglich der allgemeine Maßstab für die Preisgestaltung sein.
 
  • Gefällt mir
Reaktionen: Colindo
Wir reden hier von Intel und ob ihr paar den 11900K kauft oder nicht ist Intel denke ziemlich egal. Die haben OEM und damit gesichert Absatz. Ob ein paar Leute nun das Halo Produkt kaufen oder nicht ist doch nicht relevant in absoluten Zahlen. Und ein Halo Produkt das billig gegenüber der Konkurrenz erscheint ist kein Halo Produkt. Ich glaube nicht an einen günstigen Preis.
 
Intel hat aber auch nichts davon, von den Selbstbauern im Netz ausgelacht zu werden. Ich denke nicht, dass man für Rocket Lake saftige Preise sehen wird, vorausgesetzt natürlich, die CPUs sind einigermaßen verfügbar. Falls nicht, greift das allgemeine Chaos aus Scalpern und Scalper-Händlern wie in der letzten Zeit gewohnt...
 
@Tenchi Muyo Du könntest mehr als doppelt so viele Instanzen auf 64 Threads verteilen als auf 20 und somit ist der nominelle Unterschied Pro Instanz erstmal nicht so beeindruckend, aber man kann halt auf dem TR wesentlich mehr Umwandlungen gleichzeitig durchführen was in einer entsprechenden Zeitersparnis resultiert.

Und hat man viel zu konvertieren ist das auf jeden Fall lohnenswert zumal der Verbrauch eines 10900k Recht nah an den Verbrauch eines Threadrippers heran kommt nur halt mit viel weniger Leistung ;)
 
ZeroStrat schrieb:
Intel hat aber auch nichts davon, von den Selbstbauern im Netz ausgelacht zu werden. Ich denke nicht, dass man für Rocket Lake saftige Preise sehen wird, vorausgesetzt natürlich, die CPUs sind einigermaßen verfügbar. Falls nicht, greift das allgemeine Chaos aus Scalpern und Scalper-Händlern wie in der letzten Zeit gewohnt...
Ich denke das wird sich bestimmt etwas oberhalb des 5800X ansiedeln, aber ich glaube nicht das die Plattform großen Andrang findet.
Wenn man mal das ganze AMD/Intel Gerassel weglässt, muss man trotzdem sagen das 8KerneHT einfach zu wenig als maximal Ausbau.
Es ist vielleicht für HighFPS Gamer interessant oder Leute denen 8Kerne reichen.Es gibt mittlerweile wirklich einige Titel die weniger Frametime Spike´s haben bei 8Kerne+, das musste ich zumindestens beim Vergleich 9900K vs. 10900K feststellen.
Es ist wirklich marginal der Unterschied, beide Plattformen sind da schon krass gut, aber es lässt sich ja abzeichnen das 8Kerne HT langsam Pflicht werden und dann wenigstens 2-4 extra Core´s zu haben ist auf jeden Fall gut um Nebenlasten abzupuffern.

Sind ma mal ehrlich ob ich nun 120FPS hab oder 100FPS merke ich doch kaum, aber wenn es kurz mal zuckelt alle 3min, das nervt ungemein, von daher würde ich zu 8Kernen oder weniger nur noch aus P/L Gründen greifen.
 
  • Gefällt mir
Reaktionen: ZeroStrat
PhoenixMDA schrieb:
Es ist vielleicht für HighFPS Gamer interessant oder Leute denen 8Kerne reichen.Es gibt mittlerweile wirklich einige Titel die weniger Frametime Spike´s haben bei 8Kerne+, das musste ich zumindestens beim Vergleich 9900K vs. 10900K feststellen.
Hast du konkrete Beispiele dazu? Wäre auf jeden Fall interessant für uns. Wir konnten dergleichen eher nichts feststellen bis jetzt.
 
ZeroStrat schrieb:
Hast du konkrete Beispiele dazu? Wäre auf jeden Fall interessant für uns. Wir konnten dergleichen eher nichts feststellen bis jetzt.
Ich hab ja mehr Benchmarks laufen lassen als das ich gezockt habe.^^
Meine Plattformen sind ziemlich clean, ich kann natürlich nicht ausschließen das Treiber oder CPU Cache
noch ne Rolle spielt, aber grade TombRaider weiß ich 100% immer nen Spike, egal welche Treiber.

Graka spielt da keine Rolle war mit der 2080 und mit der 3080 die ich auf beiden Plattformen hatte.

Erstmal kurz zur Plattform quasi gleich von der Leistung beide mit 5,2/4,8, der 9900k mit 55kCopy 35,5ns
und der 10900K 57,5k Copy 35,2ns.Immer 2x970Evo im Raid.

Also Shadow of the TombRaider der 2.Graka Benchmark, hatte ich immer! einen Spike relative am Anfang,
der ist beim 10900k einfach weg.
HZD der Benchmark der läuft mit dem 10900K wesentlich besser, da hatte der 9900k einige Spike´s.
HuntShowdown ab und zu mal nen Spike wenn auch selten mit dem 9900K, läuft jetzt wirklich absolut sauber.

Nebenlasten wie CPU-Z, HWinfo nebenbei etc. haben beim 9900K auch je nach Game/Benchmark zu ner schlechteren Frametime geführt laut Capture FrameX, damit meine ich P0.1 etc., das habe ich beim 10900K aber noch nicht getestet.

Nicht das mich jetzt wer falsch versteht der 9900K@OC hat ne Top Frametime, aber der 10900K ist einfach nochmal besser, Leistungsmäßig sind beide auf einen Level bei der Pro Kern und Ram Leistung.
 
Zuletzt bearbeitet:
PhoenixMDA schrieb:

Und macht die CPU mit massig Kernen auch die Frametimes bei GTA5 besser? Das ist ein Krüppel, der 4 Kerne benutzt, bzw. nicht mit noch mehr Kernen höhere Durchschnitts-FPS bringt und mit HT auch nichts anfängt. Bestehende CPU hat 6 Kerne und HT. Die mit 8 wäre dann vorzuziehen, die mit 10 plus X Kernen noch besser für diesen Krüppel? Also 11900K / 5800X nicht kaufen, sondern 5900X oder gleich die DDR5-Plattform?

Diese Mini-Hakler bei meinen hohen FPS nerven mich nämlich. G-Sync macht das nämlich dann sichtbar und der eingblendete Graph im AB auch. Bei Monitoren mit fester Hz würde das ggf. nicht auffallen, weil das Bild im Vergleich zu G-Sync eh ruckelig wirkt und zerreißt, weil FPS und Hz unterschiedlich sind.
 
@Banger
Ich denke mal bei GTA5 wirst du keine Vorteile haben, sofern das nicht von dem mehr an CPU Cache profitiert, müsste man mal testen, die restlichen Cores liegen ja quasi brach.
Rein von der pro kern Leistung bist du mit weniger Kernen bei gleichen OC etwas fixer, da der "Ringbus" ja kürzer ist, dadurch schaffst du etwas bessere Latenzen, sieht man allein schon bei AIDA.
Der GTA V Benchmark war aufn 9900K@OC auf jeden Fall nicht ganz flüssig.

Du kannst ja mal das Video versuchen nachzustellen, dann hast du nen Vergleich der Spike´s.

@ZeroStrat
Du kannst ja mal vergleichen, also so sah die Frametime never bei meinen 9900K aus und ich hatte nun dank OC schon ne bessere als die meisten Leute.Grade am Anfang des 2. Test´s.
Nachladeprozesse werden das denke ich nicht sein beim 9900k, ich hatte die gleichen 2x500GB Evo´s drin und beim 10900K war´s besser und jetzt mit 2x1TB 970EVO identisch.

Ich merke das ja auch bei HZD Benchmark und Huntshowdown.

10900K TombRaider Benchmark Frametime.
Hier mal noch die Frametime gestartet vor dem Run, beendet nach dem Run.
1.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeroStrat
Zurück
Oben