News Intel Core i9-11900T: Rocket Lake-S mit 35 Watt in Geekbench gesichtet

  • Gefällt mir
Reaktionen: Mcr-King
mae schrieb:
Danke, ich war wohl zu doof, den Filter richtig zu setzen.

mae schrieb:
Ich finde, AMD bekleckert sich in diesem Bereich auch nicht mit Ruhm. Ok, sie sperren das Feature nicht, aber sie unterstuetzen es auch nicht offiziell. Wir haben zwar Server mit Ryzen-Prozessoren und ECC, aber wer sowas braucht, um im Fall des Falles vor Gericht zu zeigen, dass er alles nach dem Stand der Technik moegliche gemacht hat, um die Datenintegritaet sicherzustellen, greift im Preisbereich unterhalb von EPYC oder TR Pro doch zum Xeon.
Zumindest Asrock unterstützt es offiziell. So lange aus Richtung Intel kein Druck ausgeübt wird, ist auch nicht zu erwarten, dass die Mainboard-Hersteller das Feature im Konsumentensegment breit unterstützen. Es ist in meinen Augen auch kein Feature für die Oberklasse sondern sollte selbstverständlich in jedem Segment sein.

Mein Anwendungsfall ist auch rein privater Natur, ich brauche keine Beweisfähigkeit, sondern will eine unnötige Fehlerquelle ausschließen. Dafür will ich nicht zum teuren Xeon oder Threadripper oder gar Epyc greifen müssen - diesen Bedarf an Rechenleistung (bzw. Preispremium beim Xeon) habe ich noch gar nicht.

Ist es eigentlich normal, dass auf Geizhals nur zwei Xeon-W für Sockel 1200 gelistet werden?
 
  • Gefällt mir
Reaktionen: Mcr-King
VelleX schrieb:
Und so lange geht der Geekbench Test eben nicht
Was meinst, wie lange der braucht? Zwei, drei Minuten?
 
@andi_sco der 3500U schlägt sich doch im Bereich von 15 bis 25 Watt sehr ordentlich.
 
  • Gefällt mir
Reaktionen: Mcr-King und andi_sco
@andi_sco
Also Single Core braucht mein 5900X so 46 Sekunden und dann Multicore nochmal so 1:15 Minute.
Aber die last liegt auch nicht kontinuierlich an, daher keine Ahnung wie sich das bei Geekbench genau verhält, also ob da dann überhaupt schon das PL1 Limit anspringt.
 
  • Gefällt mir
Reaktionen: Mcr-King und andi_sco
JoeDoe2018 schrieb:
Da die neue XBOX und Playstation mit 8 Kern CPUs von AMD ausgrüstet sind werden die neuen Spiele alle darauf optimiert werden...
JoeDoe2018 schrieb:
hat dies auch einen Vorteil für die PC Variante, die werden automatisch auf optimiert. Demnach sollten neuen Spiele auf AMD Systemen besser angepasst sein.

icetom schrieb:
war schon bei der letzten Konsolen Generation nicht so mit der Optimierung. Die neuen Konsolen sind trotz AMD bei beiden auch sehr unterschiedlich umgesetzt, wodurch ein und das selbe Spiel auf den Konsolen sehr unterschiedlich läuft.

Stimmt, trotz der Tatsache, das mehr als 150 Millionen Geräte mit AMD Technik ausgeliefert wurden, kann man keine Wunderdinge erwarten.
Eine gewisse Optimierung wird aber definitiv vorhanden sein, da die zugrundeliegende Technik ja gleich ist, egal ob man nun xx CUs hat oder yy.

Unabhängig davon, was die neue Core Generation leistet, interessieren mich erstmal nur die Grafiktreiber, die bisher die größte Stolperfalle bei intel waren.
"Leider" hatte hp letztes Jahr so ein gutes Angebot mit AMD Chip, das ich doch nicht bei intel geblieben bin.
Ergänzung ()

so_oder_so schrieb:
Nunja - ein Leserartikel zu dem Thema wäre sicher schick
OT (PN kannst ja nicht empfangen): ich hab auch ein paar Sätze zum Bayblon 5 Remastered geschrieben, obwohl es nur durch die ursprüngliche Verwendung von Amiga Rechnern hierher, auf CB passt 😉
Und hier existiert ja auch das Unterforum Fotografie. Für mich, als absoluter Laie im Bereich Stacking wäre das zu 100% interessant!
Ergänzung ()

scootiewolff22 schrieb:
Kann man ja durch intel XTU und Ryzen Controller wunderbar begrenzen. TDP zu hoch spricht also nicht dagegen!
Nur der Takt lässt sich bei AMD bescheiden einstellen🙄
Ergänzung ()

borizb schrieb:
Es ist wesentlich einfacher, ein Programm auf 1-2 schnelle Kerne zu optimieren als auf 8 nicht ganz so schnelle.
Nur läuft Windows und co. inklusive Spiele nicht nur auf einem bis zwei Kernen.
Gut, für solche Anwendungen ist dann Alder Lake bestimmt interessant, mit den Stromsparkernen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: borizb und Mcr-King
Mal ganz kurz an die Experten nachgefragt: die TDP limitiert, dennoch bieten die CPUs mit den meisten Kernen den höchsten Basis und Turbotakt bei allen Kernen in Verwendung ... warum?
Bei einem Benchmark von (nicht "in", liebe Redaktion) Call of Duty sind die CPUs mit vier Kernen von beiden Herstellern um ca 2-3% bei gleichem Takt den Sechs- und Achtkernern unterlegen.
Wenn aber acht Kerne da richtig heiß machen und Kerne nahe anderen Kernen sind, würde es doch mehr Sinn machen, lediglich mit vier Kernen bei mehr Leistung z.B. 30% mehr Takt zu erreichen?

Das würde doch die Gaming-Krone sichern. Es ist doch mit Sicherheit möglich per Material und per Beschaffenheit der Leiterbahnen und Transistoren bei erheblich mehr Stromverbrauch mehr Frequenz rauszuholen?!
 
  • Gefällt mir
Reaktionen: Mcr-King
Eee-PC schrieb:
Mal ganz kurz an die Experten nachgefragt: die TDP limitiert, dennoch bieten die CPUs mit den meisten Kernen den höchsten Basis und Turbotakt bei allen Kernen in Verwendung ... warum?

Die TDP hat nichts mit dem Maximalverbrauch einer CPU zu tun (wegen PL2, PBO, etc), vor dem Boostzeitalter mag dies noch zugetroffen haben.
Zweitens Produktsegmentierung-> mehr Geld, mehr Leistung.

Wenn aber acht Kerne da richtig heiß machen und Kerne nahe anderen Kernen sind, würde es doch mehr Sinn machen, lediglich mit vier Kernen bei mehr Leistung z.B. 30% mehr Takt zu erreichen? Das würde doch die Gaming-Krone sichern. Es ist doch mit Sicherheit möglich per Material und per Beschaffenheit der Leiterbahnen und Transistoren bei erheblich mehr Stromverbrauch mehr Frequenz rauszuholen?!

Das gibt es schon, nennt sich "Boost".
Der "Treibstoff" für das Schalten eines Transistors ist Spannung. D.h. um einen Transistor schneller schalten zu lassen (CPU Takt) benötigt es mehr Spannung. Dies skaliert aber nicht linear sondern exponentiell. Durch die immer kleineren Strukturen läuft man in folgende Limits:
1. Leckströme, diese erzeugen Wärme für nichts, es ist verlorene Energie, welche trotzdem Abgeführt werden muss.
2. Materialstärke, durch schnelleres Schalten benötigt man auch mehr Energie, was wiederum mehr Elektronen in Bewegung durch den Leiter bedeutet (Stromstärke, [Ampere]). Mehr Elektronen in Bewegung bedeutet mehr Abnützung. Durch die kleinen Strukturen tritt ein abnützungsbedingter Leiterbruch früher auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Iapetos schrieb:
Ist es eigentlich normal, dass auf Geizhals nur zwei Xeon-W für Sockel 1200 gelistet werden?
Für kleine Server ist die CPU auch nicht gedacht, dieser Markt wird aktuell noch mit Coffee Lake bedient.
https://geizhals.de/?cat=cpu1151&xf=12099_Server~12099_Workstation~16687_Xeon+E-2000

Der Xeon-W ist aufgesplittet auf verschiedene Plattformen, diejenigen die damit bestückte Systeme kaufen, interessiert der Sockel sowieso wenig.
1613359512010.png

https://www.intel.de/content/www/de...essors/xeon/xeon-w-2200-processors-brief.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iapetos und Mcr-King
Ich habe nun ebenfalls die neuere Geekbench 5.3.x Version heruntergeladen, gegenüber der Version 5.2 gibt es einen kleinen Performance-Zuwachs bei Zen 3. Ein kleiner Vergleich des Ryzen 7 5800X@35W bis 65W TDP:

5800X Geekbench 5.3.2.png


Testsystem
MB: Gigabyte B550I Aorus Pro AX (F13a AGESA 1.2.0.0)
RAM: 2 x 16GB Samsung DDR4-2666 ECC @ 3200 CL22 1.2V
GPU: Sapphire HD 7750
SSD: Samsung 960 EVO 500GB

35W TDP: https://browser.geekbench.com/v5/cpu/6508144
45W TDP: https://browser.geekbench.com/v5/cpu/6508788
65W TDP: https://browser.geekbench.com/v5/cpu/6509359

Wobei die maximale CPU Package Power (=PPT) nur selten und eher kurz während des Bench-Durchlaufs erreicht wurde, wie man anhand des HWiNFO-Loggings sehen kann:
2021.02.15-06.18.png


Edit:
So wie es aussieht läuft der 11900T durchgängig mit knapp 4,9GHz: https://browser.geekbench.com/v5/cpu/6472022.gb5
Da es zwischen den einzelnen Benches kurze Unterbrechungen gibt, dürfte sich der "Spar"-Rocket Lake durchgänging im PL2-Modus (123 Watt-Budget) befinden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
andi_sco schrieb:
Nur läuft Windows und co. inklusive Spiele nicht nur auf einem bis zwei Kernen.
Gut, für solche Anwendungen ist dann Alder Lake bestimmt interessant, mit den Stromsparkernen.
Richtig. Und ich als absoluter bigLITTLE Verfechter kanns nicht erwarten, das Gerät
in Q4 in Aktion zu erleben. Ich hoffe, dass das viele Zweifler zurück an Board holt,
weil das Konzept sich bei allen Herstellern etablieren sollte. Ob man es kauft oder
nicht, kann ja jeder selbst entscheiden.
 
  • Gefällt mir
Reaktionen: andi_sco
der Unzensierte schrieb:
Irgendwo müssen ja auch die Dies mit schlechterem binning unter kommen, oder? Den Weg von AMD kann Intel ja nicht gehen.

Das Binning und die Positionierung am Markt hier die Hauptgründe sind, ist mir schon bewusst, aber selbst da sehe ich nicht, wieso es z.B. zwei 35 Watt T CPUs gibt, die zwangsläufig beide in die gleichen Beschränkungen laufen werden.
Single Core wird bei beiden nah an den normalen Versionen sein und Multi wird schlichtweg durch das TDP Limit sehr, sehr ähnlich sein.

Um dem OEMs viel anbieten zu können (und sämtliche Dies nutzen zu können), kann ich T und F Versionen ja noch verstehen, aber i7 und i9 sind (nach den bisher bekannten Werten zu urteilen) einfach zu nahe beieinander.

Die i9 Serie könnte man einfach als 'unlocked Flaggschiffe' mit höherer TDP anbieten und gut ist. Dann weiß Jeder, dass er hier für das Binning bezahlt und ~300 MHz mehr bekommt.

ModellKerne/
Threads
BasistaktTurbotakt
(ein Kern)
Turbotakt
(alle Kerne)
CacheGrafikTDP (PL1)
Intel Core i9-11900K8/163,5 GHz5,3 GHz4,8 GHz16 MBIntel Xe125 Watt
Intel Core i9-11900KF8/163,5 GHz5,3 GHz4,8 GHz16 MB125 Watt
Intel Core i7-117008/163,6 GHz5,0 GHz4,6 GHz16 MBIntel Xe65 Watt
Intel Core i7-11700F8/163,6 GHz5,0 GHz4,6 GHz16 MB65 Watt
Intel Core i7-11700TF8/162,5 GHz4,9 GHz? GHz16 MB35 Watt
Intel Core i7-11700T8/16? GHz? GHz? GHz16 MBIntel Xe35 Watt

Das wäre zumindest ne selbsterklärende Modellpalette und dürfte beim Binning auch nicht viel mehr 'Abfall' produzieren.
 
  • Gefällt mir
Reaktionen: Mcr-King
mcsteph schrieb:
Stand kein Duron zur Verfügung?
AMD Am186 25MHz (21-19).JPG


Bj. 2001

Was stört daran, Generationen, die noch nah beieiander liegen, zu Vergleichen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Ohne hate zu verbreiten. Es gibt noch Leute die INTEL Hardware kaufen?
 
  • Gefällt mir
Reaktionen: itm und Mcr-King
v_ossi schrieb:
die zwangsläufig beide in die gleichen Beschränkungen laufen werden
Ja, aber die eine mit einer funktionierenden Grafik und die andere mit einer auf dem Die zwar vorhandenen, aber nicht funktionierenden. Also wieder das gleiche Prinzip - binning, geht die Grafik nicht wird es ein TF.
 
  • Gefällt mir
Reaktionen: v_ossi
v_ossi schrieb:
ModellKerne/
Threads
BasistaktTurbotakt
(ein Kern)
Turbotakt
(alle Kerne)
CacheGrafikTDP (PL1)
Intel Core i9-11900K8/163,5 GHz5,3 GHz4,8 GHz16 MBIntel Xe125 Watt
Intel Core i9-11900KF8/163,5 GHz5,3 GHz4,8 GHz16 MB125 Watt
Intel Core i7-117008/163,6 GHz5,0 GHz4,6 GHz16 MBIntel Xe65 Watt
Intel Core i7-11700F8/163,6 GHz5,0 GHz4,6 GHz16 MB65 Watt
Intel Core i7-11700TF8/162,5 GHz4,9 GHz? GHz16 MB35 Watt
Intel Core i7-11700T8/16? GHz? GHz? GHz16 MBIntel Xe35 Watt

Das wäre zumindest ne selbsterklärende Modellpalette und dürfte beim Binning auch nicht viel mehr 'Abfall' produzieren.
Interessant zu sehen wäre eine Preistabelle wie diese vermutlich zur UVP und Veröffentlichung aussehen werden.
Allein schon für die überlegung was man im Moment machen sollte
Ryzen 10Gen oder warten auf 11Gen
 
  • Gefällt mir
Reaktionen: Mcr-King
JoeDoe2018 schrieb:
Da die neue XBOX und Playstation mit 8 Kern CPUs von AMD ausgrüstet sind werden die neuen Spiele alle darauf optimiert werden. Und wer da jetzt noch behauptet das in Zukunft nur 1 Kern Permormance bei den Spielen zähl der liegt zu 1000% falsch.
Ja und nein: Wir kennen nicht den ganz genaue Aufbau der APUs in der XBox und in der PS5. Man darf an der Stelle nicht vergessen, dass ein Teil der Probleme bei Zen1, Zen2 und Zen3 auch durch das Interconnect und wie der RAM-Controller angebunden ist, entsteht.

AMD zur Vereinfachung der Organisation den RAM-Takt an den Takt des Interconnects gekoppelt in 1:1, was ersten Energie sparrt und zudem den Verwaltungsaufwand reduziert. Bei Zen 2 und Zen 3kommt nun der IO-Die mit dazu, der ein wenig Latenz bringt. Zu dem sind die CCX erst seit Zen 3 mit 8-Kernen, die PS5 und die neue XBox verwenden aber Zen 2, dort sind die CCX noch auf 4 Kerne ausgelegt.
...
JoeDoe2018 schrieb:
Da auch beide Platformen den neuen Ryzen der 3. Generation verwenden hat dies auch einen Vorteil für die PC Variante, die werden automatisch auf optimiert. Demnach sollten neuen Spiele auf AMD Systemen besser angepasst sein.
Kann so kommen, muss nicht. Die Konsolen greifen auf deutlich breitere Speicherinterfaces zurück und die PS5 arbeitet auch mit einem HSA-Ansatz beim RAM. Die XBox ist zwar klassischer am PC mit den zwei RAM-Controllern, und dennoch wird man hier abwarten müssen.

Das die PS5 als auch die XBox Zen 2 Kerne verwenden ist hier durchaus hilfreich, da viele Optimierungen die wirklich wegen den Kernen vorgenommen werde, auch jetzt am PC ankommen, es werden aber nicht alle Optimierungen auch am PC ankommen, weil die grundlegende Infrastruktur zwischen den Konsolen und dem PC doch noch unterschiedlich ist.

icetom schrieb:
war schon bei der letzten Konsolen Generation nicht so mit der Optimierung. Die neuen Konsolen sind trotz AMD bei beiden auch sehr unterschiedlich umgesetzt, wodurch ein und das selbe Spiel auf den Konsolen sehr unterschiedlich läuft.
Man kann die jetztige Situation nicht wirklich mit der Situation der PS4 und XBox One vergleichen. Die Jaguar und Jaguar+-Kerne der letzten Konsolengenerationen bauten noch auf einem schmalen doch recht klassischen CPU-Kern auf. 2 ALUs, 1 Store, 1 Load AGU - Bulldozer-Kerne ohne zweiten Int-Core.

Die Jaguar-Kerne sind also schon Schwach. Dazu kommt, das die Kern-Kommunikation vollkommen anders abläuft, als bei Zen - Zen 3. Auch wenn AMD hier der Hersteller war, da so unterschiedliche Archiekturen verwendet wurden und auch unterschiedliche Infrakstruturen, konnte AMD hier keinen Profit rausschlagen.

Das sieht jetzt doch zum Teil anders aus: Es werden die Zen2-Kerne verwendet. Dazu kommt, dass auch das Infinity Fabric verwendet wird und damit die Core-Core-Kommunkation gleich läuft und zumindest auch die Komminikaton zum RAM-Controller.

Optimierungen für Zen2 in den Spiele können damit wesentlich einfacher auch auf den PC mit genommen werden.
icetom schrieb:
also reiner Spekulatius von dir.
Klar sind es reine Spekulationen, nur es gibt dieses mal genug Indizien auf der fachlichen Ebene, die es wahrscheinlicher machen als bis jetzt.

roestzwiebel schrieb:
Henne-Ei-Problem also? Eher auch ein Scheinargument. Parallelisierung gibt es schon ewig, auch bevor es "viele Kerne" gab. Nennt sich Multi-Threading und kann seit jeher in jegliche Art von Software integriert werden, das ist keine neue Erfindung.
Na ja, hier muss man aber schon sehr gut aufpassen, was man schreibt und was man meint.

Unter MS-Systemen hat sich das Mutli-Threading - auch für Programme - zum Beispiel erst mit Win95 und NT3 gelohnt, weil vorher das Betriebssystem nur kooperatives Multi-Tasking beherrschte.

Zudem hat man sowohl früher wie heute sich auch immer die Frage gestellt, ob es Sinn macht die Software zu Parallelisiere. Früher hat man gewisse Aufgaben in bestimmte Threads ausgelagert, aber nicht weil man die Software "Parallelisieren" wollte um Leistung zu gewinnen, sondern weil man gewisse Probleme umgehen wollte mit der Zeit: Trenung des Interfaces von der Programmlogik.

Alles darüber hinaus hat man aber gelassen, weil es unnötige Ressource verschwendet und am Ende das Program sogar langsamer macht, weil der Verwaltungsaufwand drastisch steigt.
roestzwiebel schrieb:
Ich konnte schon zu Single-Core-Zeiten Programme entwickeln, die multiple Threads nutzen (und damit automatisch von mehr Kernen profitieren).
Klar, konnte man, hat man aber nicht, wenn es auf Leistung ankam. Wie geschriebe, damals hat man die Logik der Programme getrennt, weil das dann Vorteile hatte, weil zum Beispiel das Interface weiterhin auf Eingaben des Nutzers reagieren konnte, während das eigentliche Programm arbeitet.

Leistungskritische Aufgaben hat man damals aber nicht parallelisiet, selbst wenn man es gekonnt hätte, weil man dann sich um die Verwaltung hätte kümmern müsse und das sinnlos Rechenleistung verschwendet hätte.
roestzwiebel schrieb:
Aber die Tatsache, dass es diese Möglichkeit gibt, heißt nicht, dass sich jegliche theoretische Probleme auch super parallelisieren lassen.
Wirklich gut parallelisiere lasse sich nur Probleme die sich in bleibig viele voneinander unabhängige Teilprobleme zerlege lassen.

Alles andere Erzeugt Verwaltungsaufwand und damit kommen wir zu den Herren Amdahl und Gustafson, die jeweils einen Limes darstellen.

roestzwiebel schrieb:
Und nein, Spiele-Engines werden auch in 5 Jahren nicht linear skalieren, versprochen. Die modernen APIs (DX12 und Vulkan) sind heute schon sehr gut parallelisiert, dennoch siehst Du keine nennenswerte Skalierung in der Leistung zwischen einem 5800X oder einem 5950X beispielsweise.
Na ja, nur das bei Spielen DX12 nur ein Baustein ist und es dabei darum geht, wie man das Render auf mehr Kernen verteilt. Das man da nicht mehr sieht ist dann schon klar.

Nur muss sich die Leistung nicht unbedingt in de FPS niederschlagen. KI-Berechnungen, Physik und Co könnte man sehr gut auch auf weitere Kerne auslagern, ohne dass direkt sich die FPS und Co erhöhen, aber man einfach wesentlich glaubwürdigere Welte aufsetzen könnte.

Man sieht ja a Aufbauspielen sehr gut, dass im späteren Verlauf die Simulation oft wet aus limitierender ist als die Grafik.

Zwiebelsoße schrieb:
Der i5 8400 ist mit seinen 6 Threads bereits zu Release schon eine schlechte Wahl gewesen.
Selbst ein 7700K mit 8 Threads läuft heute schneller.
Naja, eine schlechte Wahl war er damals nicht, nur nicht wirklich "Zukunftssicher".

Am Ende ist es aber egal, man kauft zum Zeitpunkt an dem man kauft und nach seinem Bedarf.
Zwiebelsoße schrieb:
Nur ist irgendwann der Break Even Point erreicht, im moment verharren wir seit 2017 bei einer nutzung von 4 bis 6 Kernen + SMT, großartig weiter hinaus gehts nicht, auch wenn Spiele wie Cyberpunk szenenweise mal bisschen mehr auslasten und RT noch mehr die CPU belastet.
Das Problem ist, dass Spiele sehr komplexe Software sind, bei der auch unter den Systemen eine gewisse Abhängigkeit herrscht. KI, Physik, Grafik usw. Lassen sich gut in eigene und auch gerne in Sub-Threads auslegen, nur da hier Daten ausgetauscht werde müssen, laufe manhe threads ohnehin dann "leer", so dass man an manhen Stelen auch bei eine Thread bleiben kann.
CyLord83 schrieb:
Wer weiß, welche Version von Geekbench 5 verwendet wurde. Mein 5800x schafft deutlich ueber 1700 Punkte. Von einer fruehen 5.0x zu 5.3x bringt beim Ryzen Punkte.
Wollkommen irrelevant.

Die Geekbench-Punkte sind zwar immer nett anzusehen, jedoch ist eine Beurteilung an diesen sehr schwer. Zum Beispiel nutzen neuere Versionen sehr wohl bereits AVX512-Befehle für gewisse Tests, was dann natürlich auch die Punktzahl nach oben schraubt.

AVX512 ist aber - wie jede SIMD-Extension - aber ein speziall Fall, der in gewissen Szenarien viel bringen kann, in andere überhaupt nichts.

Wichtiger sind da dan Punkte in den einzelnen Bereichen, die man sich mal ansehen sollte.
 
  • Gefällt mir
Reaktionen: Rockstar85, v_ossi und Mcr-King
Zurück
Oben