News Zukünftige Prozessoren: big.LITTLE-CPU-Patent für AMD ausgestellt

@latiose88 Die Testanwendung die du mir gegeben hast scheint auch jede Form von HT komplett zu irgnorieren.

Für die anderen:

Mein 3970X hat in diesem zwei 720p Videos encodiert und dabei wurden exakt 32 Threads ausgelastet. Overhead nicht vorhanden, Performancegewinn durch SMT gleich Null.

Dennoch wurden beide Videos gleichzeitig mit 435 FPS codiert.

Hätte man hier AVX2 und SMT vernünftig eingebunden wäre noch mehr drinnen gewesen.
 
PS828 schrieb:
@latiose88 Die Testanwendung die du mir gegeben hast scheint auch jede Form von HT komplett zu irgnorieren.
Naja komplett igronieren tut sie ja nicht. Kommt halt auf die CPU drauf an, welche man verwendet. Also beim 3950x merkt man schon noch einen leistungsunterschied. Würde man smt abschalten würde man ja eigentlich 25 % an leistung einbruch haben, jedoch hat die CPU nur 13 % an leistung einbruch dann gezeigt. Damit war dann trotz dieser Einschränkung immer noch genauso schnell wie ein I9 9980xe. Das ist peinlich für den I9. Das dieser fast schon von einem 12 Kerner geschlagen wird. Naja fast jedenfalls.
Was diese software ebenfalls nicht profitiert ist von ssd, habe es mit hdd verglichen.
Quad vs dualchannel war ebenfalls nicht relevant gewesen,dabei ist der RAM sogar nur auf 3000 mhz bei einem gewesen. Den quadchennel habe ich bei 2133 MHz am laufen. Selbst die verschärften Timings die ich gefahren hatte, die halt laut hersteller wirklich mitmacht, brachte nix.
Ich wüsste also nicht mehr was ich noch ausprobieren könnte. Es liegt an der Software. Und ja avx spielte bei egal welchem Prozessor hersteller keine Rolle. Es wirkt sowohl bei Intel als auch bei AMD nichts.
Erst bei HD und sehr gut zu sehen dann bei Füll HD, da hat es dann ne Wirkung gehabt. Alles darunter hat keinerlei Wirkung. Wenn man also keine hochauflösenden sachen codiert, dann braucht man sich über so Monster CPU echt keine gedanken zu machen. Es hat sogar einer mal 3 x Aufnahmen gleichzeitig gemacht gehabt. Sogar da wurde der threadripper 3970x mit smt nicht ganz wirklich ausgelastet. Ich gehe mal davon aus das man dann 4x 720x576 Videos gleichzeitig umwandeln müsste um so eine CPU echt ganz auszulassen zu können. 4, da tue ich mich ja eh schon bei 2 gleichzeitg echt schwer. Denn das vorberekten dauert eben auch so seine Zeit. Man will ja sowas wie nervige Ränder usw nicht beim umgewandelten Ergebnis haben. Da sind so bestimmte Sender die sind da echt schlimm. Wie z. B tele 5,manche prosieben Filme oder Kabel eins. Da kam dann bei manchen filmen am Ende nur noch sichtbares Bild von 720x 525 oder 704x 480 am Ende raus, von einer 720x576 tv Aufnahme wohlgemerkt.
Oder da oben am rand so wackelnder Rand, das nervt echt.
Manche Aufnahmen sind sogar in einem falschen Format. Dann ist z. B ein ursprüngliches aufahme eigentlich ein 4:3 Format, es aber vom Sender als 16:9 versteckt.
Dann noch nebenbei das interlaced Format.

Schwups vergeht dann Zeit,bis dann alles am Ende dann auch wirklich passt. Das kann man leider nicht automatisch einrichten,das muss man für jedes Video einzeln speziell anpassen. Dann gibt es wiederum Aufnahmen die von der Bewegungs Analyse beim höheren schlechter aussehen als bei der niedrigeren Einstellung. Darum auch der Vergleich zwischen me um und hex. So heißen die halt, für die manche damit nix anfangen können. Die niedrigste Einstellung ist da dann basline, das beim gpu basierenden umwandeln verwendet wird. Das ist die einfachste und hässlichste Stufe.
Nun ja, man kann sagen, das was die Fernsehsender so machen, ist ne armselige sache, das gibt von mir ne Note 6,denn solche probleme müssen echt nicht sein.

Das problem haben ja zum glück die Streamer nicht, oder welche die selbst videos produzieren. Die kenne solche Probleme nicht. Und genau die können ebenso solche CPUs am ende optimal auslasten. Ich gehöre halt nicht zu dieser Zielgruppe. Ich werde niemals so hochauflösende videos selbst produzieren.
 
Zuletzt bearbeitet:
BLR schrieb:
Was AMD dabei massiv zu Gute kommt, ist das Chiplet-Design.

Im Chiplet-Design übergibst Du Signale von einem Die an ein anderes. Die dabei notwendigen Energiemengen sind afaik deutlich größer als wenn Du innerhalb eines Die bleibst. Daher nein, wenn es darum geht das letzte Quäntchen Energie zu sparen wäre Chiplet-Design kein Vorteil sondern ein Handikap.
 
  • Gefällt mir
Reaktionen: Schorsch92
Summerbreeze schrieb:
20 Stunden Laufzeit bei einer Akkugröße bis ~50Wh dürften dann drin sein bzw. die Regel werden.
Ich dachte Prozessoren sind im Idle nur für einen kleinen Teil des Energieverbrauchs eines Notebooks verantwortlich. Von daher bin ich etwas skeptisch wieviel das dann fürs Gesamtsystem bringt.
 
Ich überlege mir gerade....wie hoch ist die Warscheinlichkeit das der little Core keine oder eine massiv gestutzte FPU besitzen könnte?
Diese gilt ja als einer der größten Energiefresser und ist nicht immer erforderlich. Kommt FPU Code wieder ins Spiel kann auf den big core gewechselt werden.
 
Salutos schrieb:
Im Prinzip ist die Big.LITTLE Technologie, oder unter welchem Begriff auch immer diese in die Geschichte eingeht, ja nur der Beweis dafür, dass Kerne nur durch mehr Kerne zu ersetzen sind.
HT/SMT sind tot!
Die beiden Technologien verfolgen völlig unterschiedliche Ziele und sind zueinander auch nicht inkompatibel. Big.LITTLE ist dazu da um bei wenig Last Strom zu sparen, HT verfolgt das Ziel die vorhandenen Resourcen z.B. Rechenwerke) besser auszulasten zu können (während der eine Thread auf ein Datum aus dem Speicher wartet kann der andere ein paar Berechnungen ausführen).

Aus Marketing Sicht erhöht natürlich beides die Anzahl der HW-threads, aber technisch gesehen ist das jeweils nur ein Mittel für völlig unterschiedliche Zwecke.
 
Zuletzt bearbeitet:
Eorzorian schrieb:
Außer dem mobilen Markt sehe ich den Einsatz von big-Little-CPU nicht sinnvoll an. Es wäre schön zu wissen, wie groß die Vorteile dieses Vorhabens gegenüber den klassischen U und H-Varianten der Laptop-Chips sind.

Langfristig verfolgt nach meiner Meinung AMD den Einstieg in den Smartphonemarkt. Radeon in Form von RDNA wird in Zusammenarbeit mit Samsung Smartphone reif gemacht und der nächste logische Schritt wäre einen kompletten SoC aus dieser Zusammenarbeit zu schaffen. Ob für die CPU die Grundlage x86 oder ARM-Chip bildet, ist momentan nicht so wichtig, aber ich habe das Gefühl, dass AMD hier gerne mit x86 vorpreschen will, wo Intel mit Atoms keinen Fuß fassen konnte.

Ich träume von Windows 10 Phone, wo dann wieder 2 Billigkerne ausreichen, um ein schnelles udn effektives Betriebssystem zu haben, was Android gehörig in den Hintern tritt, so wie Windows Phone 8 damals. Das war echt Klasse. :-) Mein aktuelles Android Teil würde ich gerne gegen die Wand pfeffern, so kagge ist das.
 
Irgendwer meinte, dass das Patent bereits 2017 beantragt wurde. Wer sagt uns also, dass es noch aktuell ist? Möglicherweise dachte man damals an mehrere Ansätze und der mit den Chiplets hat gewonnen. Also spekulieren macht ja Spaß, aber ich würde da erstmal keine Wette drauf eingehen.
 
Patente werden immer erst veröffentlicht, wenn sie genehmigt wurden. Das war hier Ende Juni 2020 der Fall, das Patent ist also brandaktuell.

Wenn man sich mal die Angaben auf dem Patent anschaut, ist das auch leicht zu erkennen.
1597045327286.png
 
@Volker

Ich denke da fehlt ein Wort? Die nächste große "was"? Hitzewelle? ;)

Bei Intel ist die erste Generation der zukünftigen big.LITTLE-Prozessoren in Form von Lakefield bereits auf dem Markt und die nächste große steht in Form von Alder Lake in den Startlöchern
 
Vigilant schrieb:
Den Energieverbrauch zu reduzieren ist immer eine gute Idee. Egal wo.
Naja, Kosten Nutzen relation sollte halt in nem vernünftigen verhältnis bleiben.
Wadenbeisser schrieb:
allerdings würde ich eine dynamische Form des SMT begrüßen die sich nur dazuschaltet wenn ein bestimmter Auslastungsgrad unterschritten oder definitiv angefordert wird.
[...]
Hier würde ich es sehr begrüßen wenn es so virtualisiert wird das Programme nur noch die physischen Kerne sieht und dann bei der CPU oder dem OS intern der zweite SMT Thread dazugeschaltet oder auf den little Core umgeschaltet wird.
Bin mir nicht ganz sicher ob ich verstanden habe, was die da vorschwebt, aber die CPU kann ohnehin nicht einfach ein sequentielles Programm auf mehrere Threads aufteilen (bzw. soweit parallelisierung auf Instruktionsebene möglich ist wird das ja schon gemacht) und auf OS-Ebene würde das nur funktionieren, wenn man genug parallel laufende Programme hätte. Wenn sich ein einzelnes Programm überhaupt mit der anzahl der Cores beschäftigt und e.g. bei X physischen Cores auch nur X Threads spawned kann auch das OS nicht ohne weiteres 2*Y Threads draus machen - es kann höchstens dynamisch entscheiden ob es die 2*Y Threads von zwei Programmen auf Y oder 2*Y Kerne (echte oder virtuelle) aufteilen will.

Was es ja übrigens bereits schon gibt, ist dass die geteilten resourcen bei SMT nicht statisch auf

Summerbreeze schrieb:
Dann muss die Effizienz schrittweise über die nächsten Jahre auf Minimum 80% unter allen Betriebszuständen und 90% im Idealbetrieb erhöht werden.
Macht schlicht keinen Sinn, das für alle Betriebszustände zu fordern. Zumindest nicht, wenn wir hier von einer Betriebszuständen reden unter denen ein NT jemals gefahren werden könnte (~10w bei einem sparsammen Rechner im Idle bis hinauf zu 500W wenn die Graka angeschllossen wird). Dass man als unteren Messpunkt aber nicht nur die 20% hernehmen sollte sondern zumindes auch 10% (wie bei 80plus Titanium) oder sogar ~25w nehmen sollte stimme ich dir aber zu.

Dwyane schrieb:
Im Smartphone wird es seit Jahren erfolgreich und effizient eingesetzt, wieso sollte es im Notebook Sektor wo die Anforderungen ähnlich sind nicht auch funktionieren?
Die Vermutung ist schlicht, dass beim Smartphone der Prozessor einen wesentlich größeren relativen Anteil am Energiverbrauch ausmacht als am Notebook.

Ein Notebook hab ich entweder offen und arbeite dran / surfe damit oder habs im Standby/Ruhezustand. D.h. fast immer wenn der Prozessor Läuft läuft auch das Display und meine Vermutung wäre, dass das deutliich mehr Energie verbraucht, als man mit little/big einsparen könnte. Beim Smartphone hat man ein deutlich kleiner Display und auch wenn das Display dunkel ist läuft das Smartphone noch weiter und behält im Hintergrund WLAN Verbindungen bei, gleicht Daten von Messengern oder Emails ab, man hört Musik etc.

Ist natürlich nur Spekulation, aber da kommt die Skepsis her.

Saint81 schrieb:
Mir wäre eine Teil-deaktivierung von Bereichen eines "großen" Kerns lieber, als dedizierte Low-Power Kerne.
Machen die jetztigen Prozessoren doch schon - geht natürlich nicht beliebig granular und man wird durch powergating mit ziemlicher Sicherhait nicht die gleiche Effizienz erreichen können, wie mit einem Separaten Core, der wirklich nur die Transistoren hat, die auch genutzt werden.

Wadenbeisser schrieb:
Im übrigen bringt SMT im Spiele Markt nur deshalb was weil die Spiele inzwischen mit entsprechend vielen (virtuellen) Kernen umgehen können aber da wären gleich viele physische Kerne deutlich performanter und damit sinnvoller.
Natürlich wären gleich viele physische Kerne deutlich performanter, aber während SMT kaum Zusatzkosten (Chipfläche) bei der Herstellung verursacht kosten doppelt so viel Physische Kerne (bei gleicher größe) halt auch gleich deutlich mehr (zusätzlich sinkt bei größeren Chips auch noch die Ausbeute). Die Frage ist ja nicht SMT oder Big.LITTLE, sondern z.B. 5 gleich große physische Kerne oder 4 große und 4 kleine Kerne. Ob ein großer Kern von der Fläche her wirklich 4 Kleinen entspricht weiß ich nicht bzw. hängt natürlich von der Konkreten ARchitektur ab - einfach nur ein Beispiel

Piktogramm schrieb:
Aufgaben des Betriebssystems auf kleinen Kernen abwickeln und so Kontextwechsel auf den dicken Kernen vermeiden. Sowas verspricht durchaus etwas Performancezuwachs[1].
Grundsätzlich hast du da denke ich recht, aber rein aus performance sicht könnte man statt den X little cores vermutlich eben auch X/2 oder X/4 big cores mit HT unterbringen und würde damit auch die Kontext switches reduzieren (bzw. eben die ganzen Hintergrundtasks, die sowieso immer nur kurz aufwachen auf den zusätzlichen Cores zusammenfassen, so dass sie die Hauptaufgaben nicht sören)
 
wern001 schrieb:
Viele Patente dienen doch nur der Abzocke!
bestes Beispiel bei AIOs die Pumpe auf der CPU

Wobei hier definitiv der zweite Punkt von @7H0M45 greift, Deepcool hat nämlich da so eine Lösung mit einem Rohr, erklärt Igor hier:

Und die Enermax LiqFusion sowie Raijintek Orcus setzen auf eine (sehr ähnlich aussehende, wenn nicht baugleiche) Pumpe im Schlauch, die dadurch gleich sehr gut entkoppelt wird.

Und zumindest in der EU gegen Cooler Master wurde es mehr oder weniger gekippt: https://www.computerbase.de/news/kuehlung/asetek-cooler-master-verfahren.61028/
 
Miuwa schrieb:
Natürlich wären gleich viele physische Kerne deutlich performanter, aber während SMT kaum Zusatzkosten (Chipfläche) bei der Herstellung verursacht kosten doppelt so viel physische Kerne (bei gleicher größe) halt auch gleich deutlich mehr (zusätzlich sinkt bei größeren Chips auch noch die Ausbeute). Die Frage ist ja nicht SMT oder Big.LITTLE, sondern z.B. 5 gleich große physische Kerne oder 4 große und 4 kleine Kerne. Ob ein großer Kern von der Fläche her wirklich 4 Kleinen entspricht weiß ich nicht bzw. hängt natürlich von der Konkreten ARchitektur ab - einfach nur ein Beispiel

Offensichtlich hattest du meinen Gedankengang nicht verstanden.
Big Core mit SMT, welches erst aktiviert wird wenn mehr Threads genutzt werden können (verhindert Probleme bei der Thread Priorisierung)+ einen little Core der es natürlich nicht besitzt und auf den bei wenig Last umgeschaltet und der Big Core komplett abgeschaltet wird.

Die Multithreading Fähigkeit des Programms an sich ist dafür komplett irrelevant da es bei mangelhaften Multithreading entweder nicht den erforderlichen Auslastungsgrad der CPU erreicht oder ihnehin dazu fähig ist.

Auch ist dein Einwand zum Thema SMT irgendwie merkwürdig da SMT keine feste Skalierung besitzt.
Bei Nutzung der 2 Threads ist zwischen einer Leistungsverdoppelung und einem geringen Leistungsverlußt (durch den erhöhten Verwaltungsaufwand) ist alles drin. Ein Problem das ein zusätzlicher Kern nicht hat.
Angesichts der aktuellen Größe der Kerne hält sich auch der Flächenbedarf in Grenzen.

Der Einwand mit der Ausbeute relativiert sich recht flott wenn man die Resteverwertung mit einbezieht.
Einen 8 Kerner kannst du in Abstufungen auf bis zu 4 Kernen recht problemlos weiterverkaufen und dabei dennoch höhere Preise erzielen. Den 4 Kerner kannst du vielleicht noch SMT streichen oder mußt ihn noch weiter stutzen, erzielst entsprechend schlechte Verkaufspreise und hast ohne Stutzung der Kerne höchst warscheinlich auch noch eine schlechtere Ausbeute als mit dem 8 Kerner.
 
Colindo schrieb:
Patente werden immer erst veröffentlicht, wenn sie genehmigt wurden. Das war hier Ende Juni 2020 der Fall, das Patent ist also brandaktuell.

Wenn das an mich gerichtet war, aktuell genehmigt ja, beantragt aber 2017. Ich vermute Mal das man bereits zum Antrag mehr oder weniger konkrete Umsetzungspläne hat und sitzt nach dem Antrag auch nicht Däumchen drehend rum und wartet. Dementsprechend könnte das Ganze 2017 als Alternative zu den Chiplets gedacht gewesen sein und bleibt nun erst mal in der Schublade weil die Architektur bestens performt. Kann natürlich auch schon damals als Zusatz zu den Chiplets gedacht gewesen sein. Ist eben alles relativ viel Spekulation, bei der zumindest für mich nicht nur unklar ist in welcher Form das kommt, sondern eben auch ob es aktuell überhaupt kommt.
 
Miuwa schrieb:
Ich dachte Prozessoren sind im Idle nur für einen kleinen Teil des Energieverbrauchs eines Notebooks verantwortlich. Von daher bin ich etwas skeptisch wieviel das dann fürs Gesamtsystem bringt.
Theoretisch hast Du Recht. Mittlerweile ist die Peripherie aber auch sparsamer geworden. Im Zeitalter von 1W Displays, und SSDs bekommen die CPUs wieder eine größere Bedeutung. Wenn sich der CPU / APU Verbrauch durch mehrere kleine Kerne, für die Grundlast im Idle oder leichte I/O Aufgaben nochmal halbieren lässt, ist das ein durchaus spürbarer Schritt.
 
Wadenbeisser schrieb:
einen little Core der es natürlich nicht
Wäre ein Little Core nicht effizienter wenn er SMT hätte, jenachdem wie viel Mehrverbrauch es an Energie etc braucht um smt zu implementieren.
 
luckysh0t schrieb:
Wäre ein Little Core nicht effizienter wenn er SMT hätte, jenachdem wie viel Mehrverbrauch es an Energie etc braucht um smt zu implementieren.

Wenn du alle Funktionen zum Little Core hinzufügst, dann ist es ganz schnell wieder ein Big Core. ;)
 
  • Gefällt mir
Reaktionen: PS828
Hallo32 schrieb:
Wenn du alle Funktionen zum Little Core hinzufügst, dann ist es ganz schnell wieder ein Big Core. ;)
Da ist wohl was dran xD
 
Summerbreeze schrieb:
Theoretisch hast Du Recht. Mittlerweile ist die Peripherie aber auch sparsamer geworden. Im Zeitalter von 1W Displays, und SSDs bekommen die CPUs wieder eine größere Bedeutung. Wenn sich der CPU / APU Verbrauch durch mehrere kleine Kerne, für die Grundlast im Idle oder leichte I/O Aufgaben nochmal halbieren lässt, ist das ein durchaus spürbarer Schritt.
Kennst du da zufälligerweise irgendwelche aktuellen Zahlen? Z.b.: ein Artikel, der mal versucht hat ne Energibilanz für ein aktuelles Notebook aufzustellen?
Jetzt ohne zu wissen, wie genau oder relevant das ist: Core Temp zeigt mir bei meinem broadwell dual core laptop im Idle (Anzeige CB-Artikel) bereits jetzt unter einem Watt verbrauch fürs gesamte Prozessor-Package und wenn ich ein Youtube Video ansehe bin ich bei unter 5W. Bist du sicher, dass das im Vergleich zum bildschirm, DRAM, Wifi etc. relevant ist und dass da kleine Cores noch mal 50% einsparen können?

Und ja, ich weiß, dass man die Angaben vor CoreTemp jetzt wahrscheinlich nicht sonderlich genau sind, deshalb frag ich ja nach ner professionell durchgeführten Aufschlüsselung, aber es zeigt halt in welchen Bereichen wir uns bereits vor ~4-5? Jahren befunden haben.

Soll alles nicht heißen, dass ich was gegen big.LITTLE im Laptop hätte - selbst wenns -- bei gleichem Akku -- 9 statt 8h Laufzeit bedeutet wäre das schon ein ganz nettes Feature. Es ist halt nur ne frage des Preises und der konkreten Zahlen. Gleich am Anfang des threads hat ja schon jemand erwartungen von 20h Laufzeit geweckt und eine Verdopplung der Laufzeit, nur wegen eines big.LITTLE Designs wenn man alles andere gleich lassen würde hallte ich halt aus dem Bauch raus für völlig unrealistisch.

Wie schon gesagt: Falls jemand konkrete Zahlen hat wieviel die verschiedenen Komponenten in einem modernen Notebook brauchen, dann immer her damit.
 
Zuletzt bearbeitet:
Zurück
Oben