News Intel Meteor Lake: Hybrid-CPU taucht erstmals im Linux-Kernel auf

Anhänge

  • Screenshot_20201004_193847_com.microsoft.emmx.jpg
    Screenshot_20201004_193847_com.microsoft.emmx.jpg
    407 KB · Aufrufe: 290
Nein eben nicht nur den ohne 4k nur ab TU106 mit 4k und HDR sonst alle nur 1080p.

Weiß ich genau von jedem anderen names Igor. 😉
 
HighDefinist schrieb:
Macht big.LITTLE bei Desktop-CPUs ueberhaupt so viel Sinn? Selbst in Notebooks ist es doch so, dass die meisten CPUs hinreichend wenig Leistung in idle verbrauchen, dass die Batterielaufzeit eher durch andere Dinge wie Display oder WLAN limitiert wird...

Das interessiert Käufer nicht, solange Intel die Marketingfolien und Benchmarkwerte weiterhin als Fake-News unter das Volk bringt. Womöglich abgesegnet von Trump höchstpersönlich.
Es erscheint jedenfalsl mathematisch total sinnig Leuten zusätzliche Kerne ohne allzu hohe Leistung auch noch mit zu verkaufen, die mitproduziert werden müssen, Platz auf dem Die wegnehmen, Strom verbrauchen, etc.
Wenn es ums Stromsparen geht, knipse ich im Idle einzelne Kerne und Recheneinheiten ab, bei voller Leistung drehe ich alle Kerne auf, so wie bisher.
Ein Big-Little-Ansatz iM Desktop ist völliger Unsinn und reine REssourcenverschwendung.
Wenn man Strom sparen möchte, sollte man einmal überlegen, ob es angebracht ist, das Intel 250 Watt Monster auf die normalen Käufer loslässt?
Ich habe mir einen 65Watt Prozessor gekauft, der dreht maximal auf 88 Watt auf. Hat aber annähernd die gleiche Leistung.
Auch ist ein Idlezustand im PC eigentlich nicht erwünscht.
Sollte dieser Fall eintreten, spielt es aber auch nich wirklich eine große Rolle, ob der Prozessor dann noch 10 Watt oder nur 1 Watt, oder gar nur 0,1 Watt zieht.
Denn der Rest vom System + der Monitor setzen dem eh einen drauf.
Da bedarf es also grundlegend andere und besser abgestimmte Komponenten, wenn das jetzt plötzlich ein K.O.-Kriterium werden sollte.
Wie war das eigentlich nochmal mit den bis zu 420 watt OC Monstern von NVidia?
Also so wie ich das sehe, geht Intel den völlig falschen Weg bei der Produktentwicklung.
Für den Ultraleichtnotebookkram sicherlich ne gute Alternative zu ARM, wenn man so Windows aufm Tablet oder Notebbok nutzen kann und man die letzten paar Millivolt für 60 Minuten längere Akkunutzung herauskitzeln kann, aber alles was fest auf dem Platz herumsteht und an der Dose hängt benötigt eindeutig was ganz anderes, nämlich Power.
Ergänzung ()

xexex schrieb:
Ein i7-10700K kostet aktuell 358€, ein R9 3900XT 438€, da hast du schon deine preisliche Attraktivität.

Äpfel und Birnen....
dann kann ich eher plausibel sagen der 3700X (8 Kerne) kostete kürzlich im Angebot 259 Euro.
100 Euro gespart gegenüber Intel, spart auch noch in Anwendungen Strom.
Ja, der 10700K ist derzeit in einigen Spielen etwas flotter, aber mal ehrlich, deine Grafikkarte wird eh meistens limitieren.
Da müsste es schon eine 3080 in FullHD sein, um den Prozessor zu knacken.
 
Zuletzt bearbeitet:
Das ist technisch überholt und überflüssig und wird Probleme machen.

Z.B. gibt es bei ARM-CPUs mit Hybrid-Kernen das Problem daß verschiedene Kerne verschiedene Bugs hatten. Sowas zu debuggen macht richtig Freude. Noch schlimmer, die ersten Hybrid-Kerne nutzten sogar unterschiedliche Befehlssätze, da konnten die Master-Cores ARMv8.3 und die Slave-Cores nur 8.1...

Was noch dazukommt, es ist heute eigentlich überflüssig. Ein sehr langsam getaktete Master-Core ist vermutlich sparsamer UND schneller als ein paar Slave-Cores.

Es gibt am PC ja eigentlich nur zwei Extreme:

Es steht nichts bis fast nichts an, dann läuft ein moderner Kern mit weniger als einem Watt, der i7-7Yxx läuft dann z.B. mit 0,1W pro Kern. Darunter fällt heute z.B. Textverarbeitung, Web, Mail und sogar das konsumieren von Podcasts udn Videos. Ja echt, schaue ich ein 4k-Video auf Youtube in VLC statt in Firefox an dann schaltet der i7-7Yxx kein einziges Mal über 600Mhz Takt nachdem er die erste Minute gepuffert und vorgerendert hat.

Es steht was an, dann fährt die CPU auf Vollleistung hoch und dann bringen Slave-Cores sowieso nichts. Bei besagtem Youtube-Video dreht die CPU also einmalig beim Starten des Videos für 2-3 Sekunden auf Anschlag hoch und fällt dann in Dämmerschlaf.

Den Sonderfall "es steht ein konstanter mittlerer Workload an" gibt es eigentlich garnicht.

PS, ich habe drei Monitore am Arbeitsplatz. Jeder braucht 35 Watt. Ob die CPU jetzt Idle 0,1 oder 1,0 oder 10 Watt Idle braucht ist mir da total Wumpe. Selbst mein Notebook braucht Idle 10W und zwar tutti completti. Ob die CPU da mit 1 oder 3 Watt reinspielt juckt niemanden. Interessanter sind S1 und S3-Modus. Da braucht das Gerät 3 und 0,5W. Gerade ein gut konfigurierter S1-Modus ist Gold wert, mein Notebook hält damit zwei Tage durch und ist nach einem Tastendruck binnen einer halben Sekunde wieder voll einsatzbereit. Das ist übrigens kaum mehr als in den Energieoptionen Bildschirm und Massenspeicher nach einer vorgegebenen Zeit zu deaktivieren. Unter Linux kann man dann noch zeitgleich die CPU in S1 runterfahren, unter Windows hingegen ist das weniger gezielt steuerbar, da fährt sie halt irgendwann nach S1 runter. Wenigstens halbwegs zeitnah.
Viel zu viele Geräte sind da dumm konfiguriert. Warum soll ein Notebook nach fünf Minuten in S4 wechseln was zum Einschlafen und Aufwecken jedesmal ne halbe Minute unter Volllast dauert??
Schade daß da seitens der Hersteller nicht mitgedacht wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Crass Spektakel schrieb:
Was noch dazukommt, es ist heute eigentlich überflüssig. Ein sehr langsam getaktete Master-Core ist vermutlich sparsamer UND schneller als ein paar Slave-Cores.

Erstens ist das falsch und zweitens lässt du eine andere wichtige Variable aus dem Spiel, den Platzbedarf!
1601904219288.png


Hier siehst du einen großen Kern und 4 kleine und stelle dir mal eine 8+64 CPU vor, die mit Sicherheit später für den Servermarkt geplant sein dürfte. Intel hat schon große Erfahrungen mit den Phi CPUs sammeln können und letztlich dürften die Hybrid-CPUs die Vorteile beider Welten vereinen können.

Eigentlich Interessant wie manche sich hier irgendwelche "Fakten" aus dem Finger saugen können, ohne je eine solche CPU im Betrieb gesehen zu haben. Die einzige Firma die aktuell wirklich was zu den Vor- und Nachteilen sagen kann und die genau weiß wieso man sich für diese Richtung entschieden hat ist Intel selbst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GroMag
xexex schrieb:
Hier siehst du einen großen Kern und 4 kleine und stelle dir mal eine 8+64 CPU vor, die mit Sicherheit später für den Servermarkt geplant sein dürfte.

Gerade am Servermarkt macht das ja noch weniger Sinn.

Erstens weil Windows mit mehr als 64 Threats sowieso Probleme hat, Stichwort Processor Groups.

Zweitens weil man am Desktop zumindestens argumentieren kann "interaktives Arbeiten mit 1M+4S fühlt sich besser an als 8S".

(Interessantes Detail, die 4 S-Kerne der L16/L13-Baureihe sind übrigens sogar bei parallelisierbaren Aufgaben langsamer als der einzelne M-Kern. Erst acht Kerne setzen sich spürbar ab. Da wäre es ja sinnvoller nur einen S-Kern fürs Quasi-Idle aber zwei M-Kerne fürs Arbeiten zu implementieren...)

Am Server hingegen gibt es diese Abhängigkeit nicht. Eine Serveranwendung ist entweder auf hohe Single-Leistung oder viele Kerne optimiert. Beides zugleich hingegen braucht man nicht. Daher gibt es Tremont für Server tatsächlich nur ohne M-Kerne und nur mit S-Kernen.

PS, ja ich würde durchaus eine 64-Kern-Tremont-CPU für einige Zwecke verwenden. Gibbet aber nit.

Goldmont und Tremont sind übrigens "pro Kern" durchaus performant und weit weg von den alten Atom-N270-Modellen aus der Netbook-Zeit. Schon Goldmont-Kerne erreichten das Niveau eines Core2-Conroe-Kerns.
 
  • Gefällt mir
Reaktionen: Mcr-King
Crass Spektakel schrieb:
Am Server hingegen gibt es diese Abhängigkeit nicht. Eine Serveranwendung ist entweder auf hohe Single-Leistung oder viele Kerne optimiert. Beides zugleich hingegen braucht man nicht.

Das ist ebenfalls absoluter Quatsch denn du da erzählst, vor allem wenn du auf das Thema Virtualisierung schaust. Du hast selten eine Datenbank die 128 Kerne benötigt, sondern meist gemischte Lasten die teils wunderbar von einer Parallelisierung und teils von einem hohen Takt profitieren können.

Selbst wenn du eine Datenbank auch nur alleine nimmst, so hast du dort ständig Abfragen die mit hoher Geschwindigkeit beantwortet werden können und welche die sich parallelisieren lassen. Es gibt von Intel auch bereits die Speed Select Technologie um dieser Problematik Herr zu werden.

1601906254496.png

https://en.wikichip.org/wiki/intel/speed_select_technology

Wobei letztlich auch der normale Turbo Boost nach genau dem Prinzip funktioniert. Lastet man alle Kerne aus, können einzelne Kerne nicht mehr die volle Leistung erbringen. Der Nachteil aktuell ist nur, dass diese Kerne die man sowieso nie alle zusammen mit der vollen Leistung nutzen kann, trotzdem unnötig Platz verschwenden.

Crass Spektakel schrieb:
Erstens weil Windows mit mehr als 64 Threats sowieso Probleme hat, Stichwort Processor Groups.

Windows hat damit überhaupt kein Problem, sondern irgendwelche Desktopanwendungen, die für diesen Markt irrelevant sind. Zudem spielt Windows im Datacenterbereich zwar eine bedeutende, aber nicht einmal eine führende Rolle.
 
Ja und nein so ein kleiner Core mit weniger und langsameren Cache ist super für leichte Aufgaben, aber Stichwort Kerne aus Lastung.

Siehe dazu Ryzen mit CCX die Verteilung kostet Geschwindigkeit und Arbeit von Windows und den Software Entwicklern.

Viel Arbeit hat man gut an den ersten Ryzen und den Modul FX CPUs gesehen.

Dazu sieht man auch im mobilen Smartphone Bereich ist Apple weit vor Qualcomm mit weniger Kernen. 😉

Also ich bin nicht überzeugt davon selbst Nintendo hat nur 4 Core in der Switch genommen da es einfacher geht. Als original (4 + 2 Big + little) 😉

Wie dem auch sei die Zeit wird es zeigen.
 
Meteor Lake - welch passender Name.
Der Meteor(it) wird Intels Untergang sein :evillol:
 
  • Gefällt mir
Reaktionen: Mcr-King
Crass Spektakel schrieb:
Am Server hingegen gibt es diese Abhängigkeit nicht. Eine Serveranwendung ist entweder auf hohe Single-Leistung oder viele Kerne optimiert.
Müssen Webserver die Anfragen nicht sowohl sehr schnell beantworten, als auch viele Anfragen parallel bearbeiten?

Crass Spektakel schrieb:
Erstens weil Windows mit mehr als 64 Threats sowieso Probleme hat, Stichwort Processor Groups.
Mal davon abgesehen, dass es ja durchaus möglich ist mehr als 64 threads zu nutzen, läuft ein Großteil der Serveranwendungen heutzutage nicht sowieso in virtualiserten Umgebungen und wahrscheinlich sogar auf Linux?
 
  • Gefällt mir
Reaktionen: Manfred W.
Miuwa schrieb:
Müssen Webserver die Anfragen nicht sowohl sehr schnell beantworten, als auch viele Anfragen parallel bearbeiten?
Es gibt mehr als eine Software die als Webserver durchgeht und es werden die unterschiedlichsten Strategien gefahren. Von "Ein Thread für alle Verbindungen" über "Je Verbindung ein Thread" bis hin zu "Jede Verbindung ein Thread und dazu nochmals mehrere Treads die z.B. PHP Scripte abarbeiten". Verschiedene Mischformen sind denkbar.

Die Aussage von Crass Spektakel ist auch an der Realität vorbei. Das Servergerümpel ist mitunter in weitem Rahmen anpassbar und meist auch stark vom eigenem Anwendungsfall abhängig was da wirklich zählt.
 
  • Gefällt mir
Reaktionen: GroMag
Zurück
Oben