News Dokumente bestätigen: Kein AVX10 für Intel Nova Lake, dafür eine neue NPU

Pestplatte schrieb:
Nichts interessiert mich weniger als eine NPU.
[...] obwohl ich ahne, dass dieser satz mir in 10 Jahren vll wie ein Boomerang ins Gesicht schlagen wird)
Wieso, ist doch legitim, dass sich Ansprüche über solch lange Zeiträume ändern. Mich interessiert HEUTE auch noch nicht der Speiseplan im Altenheim... :cool_alt:
Ergänzung ()

mae schrieb:
und Intel hat's auf diversen P-Cores abgeschaltet.
Haben sie das aus Marktsegmentierungs-Gründen gemacht oder weil ihre Implementation verkorkst war? Ich weiss keine Details, hatte aber den Eindruck, dass intel nicht ganz so glücklich mit diesem Rückzieher war.
 
  • Gefällt mir
Reaktionen: Pestplatte
Yosup schrieb:
Haben sie das aus Marktsegmentierungs-Gründen gemacht oder weil ihre Implementation verkorkst war?

Sie haben sich ueber die Gruende nicht ausgelassen, aber die Implementierung war nicht besonders verkorkst. AVX hat seit Sandy Bridge funktioniert und AVX2 seit Haswell, aber auf den Pentiums und Celerons mit diesen Kernen war AVX und AVX2 bis inklusive der 10. Generation abgeschaltet. Die 11. Generation hatte keine Celerons und Pentiums, und ab der 12. Generation waren sie dann eingeschaltet. Fuer mich schaut es nach einem idiotischen Versuch aus, einen Markt zu segmentieren, der dank dieser Massnahmen nicht vorhanden war.
 
  • Gefällt mir
Reaktionen: ETI1120
Piktogramm schrieb:
128bit ALUs blockieren AVX512 nicht. Grundlegen ist das Zerlegen möglich, steigt nur tendenziell der Aufwand an durchzuschleusenden µOps für u.a. Shuffle, Shift, Rotate. Um Transistoren bzw. Chipfläche zu sparen ist das ganze nett, aber an der Stelle winkt die Performance und Energieffizienz zum Abschied.
Es gäbe eine Anendung: LP Cores die ausschließlich dazu da wären Niedrigstlast abzufangen und es ermöglichen die großen Cores schlafen zu lassen. Für LP Cores spielen weder Performance noch Energieeffizient eine Rolle. Wichtig sind die niedrige Power, kleine Fläche und dass die ISA mit den anderen Cores übereinstimmt.
mae schrieb:
Schon klar, aber der Witz waere, dass diese Befehle unterstuetzt werden.
So ist es.
mae schrieb:
P.S.: Eigentlich ist eine breite Unterstuetzung von Befehlssatzerweiterungen, die dann halt auf billigen Prozessoren langsam laufen, ein wesentlich besseres Marketinginstrument als die von Intel praktizierte Taktik, die Erweiterungen in billigen Prozessoren abzuschalten; mit ihrer aktuellen Taktik verwendet nur wenig Software diese Erweiterungen (und dann nur optionial), und daher sind diese Erweiterungen auch kein wichtiger Grund, einen teureren Prozessor zu kaufen.
Das sehe ich genauso, es ein klassischen Eigentor.
 
mae schrieb:
Schon klar, aber der Witz waere, dass diese Befehle unterstuetzt werden. Wer bessere Performance will, kann die Software ja auf einem P-Kern laufen lassen. Bzw. der thread director (war doch Intel, oder?) kann bei Software, die besonders viel von der besseren Implementierung auf P-Cores profitiert, auf einen P-Core umziehen lassen.
Cache aware sheduling war gestern. Bald ist Cache-Instruction-Thermal aware sheduling angesagt :)

Imho wird das Produkt so schlicht zu komplex und ist schwer zu vermarkten. Ein P+E Prozessor wäre dann tendenziell unter Nutzung der ZMM-Register und aller Kerne weniger effektiv und weniger effizient als mit YMM. Dennoch muss Transistorbudget darauf geworden werden, dass die P-Kerne nativ 512bit unterstützen. Alles nur dafür, dass isoliert auf den P-Cores 512bit SMD schön schnell wäre.


mae schrieb:
P.S.: Eigentlich ist eine breite Unterstuetzung von Befehlssatzerweiterungen, die dann halt auf billigen Prozessoren langsam laufen, ein wesentlich besseres Marketinginstrument als die von Intel praktizierte Taktik
Du meinst so wies AMD bei Zen5 fährt. Ein und die selbe Architekur gibt es mit nativ 512bit breiten Pipelines und auch als 2x 256bit (die APUs vor allem).

mae schrieb:
AMD hat AVX sogar auf Jaguar (2013er E-Core) implementiert, Intel auf seinen E-Cores erst mit Gracemont (2021); und Intel hat's auf diversen P-Cores abgeschaltet.
Wobei ich für mein Uralt-NAS mit Jaguar und AVX keine einzige Anwendung habe und je hatte, die von AVX profitiert hat. Ohne AVX2 ist alles doof! mdadm doof, Btrfs doof, OpenSSL doof, ffmpeg doof, ...

Und, die Produktsegmentierung bei Intel ist scheiße!

Yosup schrieb:
Haben sie das aus Marktsegmentierungs-Gründen gemacht oder weil ihre Implementation verkorkst war? Ich weiss keine Details, hatte aber den Eindruck, dass intel nicht ganz so glücklich mit diesem Rückzieher war.
Beides :)
Intel hat bzw. hatte extreme Latenzen, wenn die 512bit Vektor ALUs geweckt werden müssen. Es braucht schon ein paar hundert Instruktionen, ehe sich da lohnt. Einige AVX512 Erweiterungen haben bei Intel eine sehr hohe Ausführungslatenz (die ALUs sind warm, wirf ein so ein Befehl dagegen und bevor der durch ist vergehen X Takte an Latenz). Das hat AMD seit Zen4 und vor allem mit Zen5 besser hinbekommen.

Und es war Produktsegmentierung. Ab Haswell hätte so ein zwei bzw. Vierkern Celeron mit ECC-Speicher und AVX2 bzw. später AVX512 gereicht um einen großteil an NAS-, Server-, Empedded, Edgecompute-Fälle zu erschlagen. Also nicht nur den Hobbybereich, sondern KMU-Kram.
Haswell als Quadcore hat ja schon gereicht um für NAS und viele Serveranwendungen 10GBe zu sättigen. Server die das konnten und durften waren aber dann doch erschreckend teuer.
 
Zuletzt bearbeitet:
Piktogramm schrieb:
@stefan92x

AVX10 spezifiziert 128/256bit Register als zwingend, 512bit als Optional und 1024bit garnicht.

Also an sich, meine Hoffnung, dass mit AVX10 die E-Cores breitere Vektoreinheiten bekommen war falsch. AVX10-256 ist ja zulässig und das geht halbwegs sinnvoll in 2x128bit abzubilden.
Das stimmt nicht, Intel verlangt für AVX10 zwingend 512 Bit, AVX10-256 ist unzulässig:
https://www.phoronix.com/news/Intel-AVX10-Drops-256-Bit
 
  • Gefällt mir
Reaktionen: ETI1120 und Piktogramm
ETI1120 schrieb:
AVX-512 hat doch gezeigt, dass nur eine Erweiterung nur für die Server bereitzustellen, dazu führt dass sie auch bei den Servern selten genutzt wird.
Das ist ein gutes Beispiel.

Und es betrifft nicht nur Befehlssätze, sondern auch viele andere Techniken, wie z.B. auch IPv6.

Solange nicht alle Server per IPv6 erreichbar sind und auch nicht alle Internetzugänge eine IPv6 Verbindung herstellen, muss man überall mindestens eine Dual-Stack Lösung implementieren um die Konnektivität über IPv4 zu gewährleisten. Aber wenn eh Alles über IPv4 funktioniert besteht keine Notwendigkeit sich überhaupt mit IPv6 zu beschäftigen.

dampflokfreund schrieb:
AMD CPUs werden dann zukunftsfähiger sein. Irgendwann werden Anwendungen und Spiele 512 Bit Befehlssätze voraussetzen, so wie es heute mit Avx2 der Fall ist. Dann schaut man mit Nova Lake in die Röhre. Klassischer Fall von geplanter Obsolszenz. Aber nicht mit mir!
Keine Panik, Intel hat einen viel zu grossen Marktanteil, vorallem bei Notebooks, so das es sich auf absehbare Zeit niemand leiste kann AVX512 oder AVX10 zu erzwingen.
 
RealMax123 schrieb:
Keine Panik, Intel hat einen viel zu grossen Marktanteil, vorallem bei Notebooks, so das es sich auf absehbare Zeit niemand leiste kann AVX512 oder AVX10 zu erzwingen.

Ich denke, es ist schon absehbar: Ob Intel jetzt AVX10 im Jahr 2026, 2027, oder 2028 im Client-Bereich einfuehrt, ein paar Jahre danach wird es Software geben, die diese Befehle benutzen wird, ohne Alternativpfad, aber vermutlich schon so, dass die vielen schon existierenden AVX-512-Prozessoren sie ausfuehren koennen. Also, wenn jemand heute kauft und den Prozessor laenger behalten will, kauft er dann einen Prozessor mit AVX-512 oder ohne?

Zum Vergleich: Intel hat im Jahr 2021 den Pentium G6405 mit abgeschaltetem AVX und AVX2 eingefuehrt und produziert und verkauft ihn noch immer so (als Befehlssatzerweiterungen listet Intel nur "Intel® SSE4.1, Intel® SSE4.2"). Trotzdem gibt es, laut einer Aussage hier im Thread, Software, die AVX voraussetzt. Einige Software wird auf der Wikipedia-Seite gelistet, wobei oft nicht so klar ist, ob's ohne AVX funktioniert oder nicht, aber bei Tensorflow steht ganz klar, dass es ab 1.6 auf Prozessoren ohne AVX nicht laeuft. Und der Release von Tensorflow 1.6 war am 2018-02-28.

BTW, mein Laptop hat einen Intel-Prozessor und AVX-512. Also gerade im Laptop ist das verbreiteter als Du vielleicht glaubst, da waren bei Intel sowohl ein guter Teil der 10. als auch ein Grossteil 11. Generation mit AVX-512 (nur bei Pentium und Celeron haben sie AVX-512 abgeschaltet, aber diesmal wenigstens nicht AVX/AVX2). Beim Desktop schaut's anders aus, weil Rocket Lake nur kurz aktuell war und keine Billigprozessoren damit verkauft wurden; aber seit AM5 sorgt AMD fuer die Verbreitung von AVX-512 auf dem Desktop, derzeit fuer Preise ab EUR 105. Ich habe uebrigens auch auf dem Desktop einen Prozessor mit AVX-512.
Ergänzung ()

Piktogramm schrieb:
Wobei ich für mein Uralt-NAS mit Jaguar und AVX keine einzige Anwendung habe und je hatte, die von AVX profitiert hat. Ohne AVX2 ist alles doof! mdadm doof, Btrfs doof, OpenSSL doof, ffmpeg doof, ...

Nachdem Intel AVX2 erst 2013 eingefuehrt hat, ist es verstaendlich, dass es im 2013 eingefuehrten Jaguar noch nicht dabei war; AMD hat's dann im 2015 eingefuehrten Excavator drinnen, aber da ware die E-Core-Linie schon am Ende und wurde durch effizientere P-Cores (Excavator, Zen...) abgeloest.
 
Zuletzt bearbeitet:
mae schrieb:
Ich denke, es ist schon absehbar: Ob Intel jetzt AVX10 im Jahr 2026, 2027, oder 2028 im Client-Bereich einfuehrt, ein paar Jahre danach wird es Software geben, die diese Befehle benutzen wird, ohne Alternativpfad, aber vermutlich schon so, dass die vielen schon existierenden AVX-512-Prozessoren sie ausfuehren koennen. Also, wenn jemand heute kauft und den Prozessor laenger behalten will, kauft er dann einen Prozessor mit AVX-512 oder ohne?

Das kann nich mir absolut nicht vorstellen!

Denn in den meisten Bereichen sind Desktops heute eher die Ausnahme als die Regel, sondern in den meisten Bereichen nutzt die Masse Notebooks. Und da ist der Marktanteil von Intel deutlich höher als von AMD. Und deswegen kann es sich kaum ein Software-Hersteller leisten CPUs ohne AVX-512 Support auszubooten.

Tensorflow ist generell nichts für den Massenmarkt sondern sehr Special Interesst.

Ich würde sogar sagen das man nichtmal x64 / Intel 64 heute dringend braucht, sondern für viele Aufgaben selbst reine 32 Bit x86 Prozessoren mit SSE 3 und XD-Bit noch ausreichend sind.

Nehmen wir mal ein Notebook mit Intel Core Duo T2050 Prozessor, 2GB RAM und Nvidia GeForce Go 7400, darauf Windows 8.1 oder 10 in der 32 Bit Version, taugt durchaus noch für die meisten Internet & Office Anwendungen.
 
RealMax123 schrieb:
Nehmen wir mal ein Notebook mit Intel Core Duo T2050 Prozessor, 2GB RAM und Nvidia GeForce Go 7400, darauf Windows 8.1 oder 10 in der 32 Bit Version, taugt durchaus noch für die meisten Internet & Office Anwendungen.

Klar, wenn man sich mit aelterer Software zufrieden gibt, dann geht auch aeltere Hardware. Aber es gibt derzeit schon jede Menge Software, die 64 bit voraussetzt, und eben auch ein bisschen Software, die AVX voraussetzt. Und irgendwann auch Software, die AVX-512/AVX10 voraussetzt.
 
  • Gefällt mir
Reaktionen: RealMax123
mae schrieb:
Ich denke, es ist schon absehbar: Ob Intel jetzt AVX10 im Jahr 2026, 2027, oder 2028 im Client-Bereich einfuehrt,
Es ist nur die Frage was es für Intel bedeutet, dass die Unterstützung der 512-Bit Befehle verpflichtend geworden ist. Wenn eine CPU die 512-Bit Befehle nicht unterstützt, dann erfüllt die CPU nun Mal nicht AVX-10.2.
mae schrieb:
ein paar Jahre danach wird es Software geben, die diese Befehle benutzen wird, ohne Alternativpfad, aber vermutlich schon so, dass die vielen schon existierenden AVX-512-Prozessoren sie ausfuehren koennen.
Zuerst muss die Hardware draußen sein, damit überhaupt Software dafür entwickelt wird.

Wer keine Alternativpfad für die Masse der installierten CPUs bereit stellt, schränkt die Andwenderbasis massiv ein. Das macht man nur dann, wenn diese CPUs so oder so zu schwach für die Software sind.
RealMax123 schrieb:
Das kann ich mir absolut nicht vorstellen!
Natürlich nicht.

Die Geschichte mit AVX-512 zeigt doch, dass sich praktisch niemand die Mühe macht eine Erweiterung zu unterstützen, die nicht weit verbreitet ist.
 
RealMax123 schrieb:
Ich würde sogar sagen das man nichtmal x64 / Intel 64 heute dringend braucht, sondern für viele Aufgaben selbst reine 32 Bit x86 Prozessoren mit SSE 3 und XD-Bit noch ausreichend sind.

Wem willst du das antun? Die +80Jahre alten Großmütter im Altenheim würden ausraten wenn sie darauf warten müssten wie ein derartiges Gerät nur aller Jubeljahre mal ein neues Bild der Enkel rendert. Ganz zu schweigen von der Diashow beim Videoanruf.

Ein Raspi5 oder jedes 150€ Smartphone ist reichlich eine Größenordnung schneller als so ein T2050.
 
Piktogramm schrieb:
Ein Raspi5 oder jedes 150€ Smartphone ist reichlich eine Größenordnung schneller als so ein T2050.

Das kommt sehr auf die Software an. Nehmen wir z.B. ein single-threaded Programm wie LaTeX, fuer das ich einige Resultate habe, u.a. (die Zahl hinten ist die Zeit in s):

Code:
- Pentium M 1.5GHz (IBM R51), Debian 3.1                          1.112
- Rock 5B (2257MHz A76) Debian 11 (texlive-latex-recommended)     0.638

Der Pentium M war der Vorlaeufer des Core Duo und mit 1.5GHz auch etwas niedriger getaktet als der T2050 (1.6GHz). Der Radxa Rock 5B verwendet einen 2400MHz Cortex-A76 wie der Raspi 5. Bei diesem Benchmark ist vielleicht ein Faktor 2 zwischen dem Raspi5 und dem Core Duo T2050. Was das Smartphone fuer EUR 150 betrifft, habe ich mir das angeschaut, das derzeit in geizhals fuer EUR150 gelistet ist und das hat:
2x 2.00GHz ARM Cortex-A75 + 6x 1.80GHz ARM Cortex-A55, 8 Kerne. LaTeX wuerde man auf einem der 2GHz Cortex-A75 laufen lassen, die sind aber sowohl vom Takt als auch von der IPC deutlich langsamer als ein Raspi5. Daher wird auch so dieses Smartphone bei LaTex keine Groessenordnung schneller sein als ein Core Duo T2050.

Und der Core Duo T2050 war 2005 schnell genug, warum sollte er mit der entsprechenden Software fuer dieselben Aufgaben nicht auch heute schnell genug sein?
 
Piktogramm schrieb:
Wem willst du das antun? Die +80Jahre alten Großmütter im Altenheim würden ausraten wenn sie darauf warten müssten wie ein derartiges Gerät nur aller Jubeljahre mal ein neues Bild der Enkel rendert. Ganz zu schweigen von der Diashow beim Videoanruf.

Ein Raspi5 oder jedes 150€ Smartphone ist reichlich eine Größenordnung schneller als so ein T2050.
Als Drittsystem taugt es allemal noch.

mae schrieb:
Das kommt sehr auf die Software an. Nehmen wir z.B. ein single-threaded Programm wie LaTeX, fuer das ich einige Resultate habe, u.a. (die Zahl hinten ist die Zeit in s):
LaTeX ist schon sehr sepziell, sowas braucht es eigentlich garnicht.

Ganz normales LibreOffice 24.8.7 (für Windows 8.1) oder 25.2.x (für Windows 10), Firefox 115 (für Windows 8.1) oder 144 (für Windows 10), etc laufen noch problemlos, und normale Videos egal ob von Youtube oder n-tv sind kein Problem.

Das einzige was ein bisschen zickt ist Google Maps. Wenn man da zuviel zoomt oder zuviele Streetview-Aufnahmen aufruft, stürzt man schnell ab. Aber auch da denke ich liegt es nicht an der CPU-Leistung, sondern der RAM wird zu knapp. Wahrscheinlich könnte man das auch mit einem Upgrade auf 4GB abmildern. Aber das lohnt sich natürlich nicht mehr. Aber man kann ja Google Maps auch verhalten nutzen, oder auf Alternativen wie OpenStreetMap ausweichen.
 
mae schrieb:
Das kommt sehr auf die Software an. Nehmen wir z.B. ein single-threaded Programm wie LaTeX, fuer das ich einige Resultate habe, u.a. (die Zahl hinten ist die Zeit in s):

Code:
- Pentium M 1.5GHz (IBM R51), Debian 3.1                          1.112
- Rock 5B (2257MHz A76) Debian 11 (texlive-latex-recommended)     0.638
https://www.cpubenchmark.net/compare/6672vs584/Broadcom-BCM2712-vs-Intel-Duo-T2050

Und klar, man kann sich Lastfälle suchen, unter denen die Abstände zwischen CPUs schrumpfen und welche wo sie maximal werden. Wobei mir wenig Programme einfallen, die so schlecht über erhöhte Superskalarität, größere Caches, Verfügbarkeit von SIMD skalieren wie Latex.

mae schrieb:
Was das Smartphone fuer EUR 150 betrifft, habe ich mir das angeschaut, das derzeit in geizhals fuer EUR150 gelistet ist und das hat:
2x 2.00GHz ARM Cortex-A75 + 6x 1.80GHz ARM Cortex-A55, 8 Kerne. LaTeX wuerde man auf einem der 2GHz Cortex-A75 laufen lassen, die sind aber sowohl vom Takt als auch von der IPC deutlich langsamer als ein Raspi5. Daher wird auch so dieses Smartphone bei LaTex keine Groessenordnung schneller sein als ein Core Duo T2050.
https://geizhals.de/cmf-phone-1-128gb-gruen-a3225740.html?hloc=de
Man kann natürlich an der Stelle die 2x A75 + Rest Krücken anführen, oder das (wohl) schnellste Smartphone in dem Presibereich mit 4x 2,5GHz A78 + Rest.

mae schrieb:
Und der Core Duo T2050 war 2005 schnell genug, warum sollte er mit der entsprechenden Software fuer dieselben Aufgaben nicht auch heute schnell genug sein?
Nehmen wir mal nur das www. 2005 wurde ADSL AnnexB vorgestellt mit maximal 12Mbit. Wer auch immer eine Webseite angeboten hat, musste damit rechnen, dass die Kunden an einer 1Mbit Leitung, wenn nicht ISDN hingen. Bilder waren klein, Videos unüblich und Firefox in Version 1.5 wurde veröffentlicht. Javascript schickte sich überhaupt erst an die konkurrierenden Technologien zu verdrängen.

Entsprechend waren Webseiten (DOM und CSS) viel weniger komplex, Medieninhalte wesentlich kleiner, die Logik auf den Webseiten weit weniger komplex.

RealMax123 schrieb:
Das einzige was ein bisschen zickt ist Google Maps. Wenn man da zuviel zoomt oder zuviele Streetview-Aufnahmen aufruft, stürzt man schnell ab. Aber auch da denke ich liegt es nicht an der CPU-Leistung, sondern der RAM wird zu knapp. Wahrscheinlich könnte man das auch mit einem Upgrade auf 4GB abmildern. Aber das lohnt sich natürlich nicht mehr. Aber man kann ja Google Maps auch verhalten nutzen, oder auf Alternativen wie OpenStreetMap ausweichen.
Der Computer ist voll benutzbar, gelegentlich hängt er sich auf, wenn man bei der Nutzung nicht aufpasst.. 😅
Meine Erwartung ist halt schon, dass ich auf einem Computer mein Mailprogramm im Hintergrund habe, vielleicht Musik dudelt und ich den Browser mit eine paar Tabs offen haben kann. Realistisch klappt das schon mit einem DualCore Haswell im Notebook allenfalls grenzwertig.
 
Piktogramm schrieb:
https://www.cpubenchmark.net/compare/6672vs584/Broadcom-BCM2712-vs-Intel-Duo-T2050

Und klar, man kann sich Lastfälle suchen, unter denen die Abstände zwischen CPUs schrumpfen und welche wo sie maximal werden. Wobei mir wenig Programme einfallen, die so schlecht über erhöhte Superskalarität, größere Caches, Verfügbarkeit von SIMD skalieren wie Latex.

Superskalaritaet: Ich kenne viele Programme, die weniger IPC aus einem gegebenen Prozessor herausholen. Man sieht auch am Resultat (Faktor 2 Speedup bei Takterhoehung um Faktor 1.5), dass LaTeX auf dem A76 mehr IPC hat als auf dem Pentium M. Dass 2/1.5 genau dem Verhaeltnis der Superskalaritaeten der beteiligten Prozessoren (A76 4-wide, Pentium M 3-wide (wie auch Core Duo) entspricht, halte ich aber fuer einen Zufall.

Groessere Caches: L1: Der Core Duo hat 32K I + 32K D cache, soviel wie Skylake und Zen 4. Der Cortex-A76 im BCM2712 (und im RK3588) hat 64K I + 64KD. L2: Der Core Duo T2050 hat 2MB L2 cache (geteilt zwischen beiden Kernen), der Cortex A76 im BCM2712 (und im RK3588) hat 512KB L2 cache. L3: Der BCM2712 hat 2MB, der RK3588, fuer den ich Daten gepostet habe, hat 3MB. LaTeX hat tatsaechlich relativ wenige Cache misses. Na jedenfalls ist der Unterschied bei den Cache-Groessen nicht besonders gross.

SIMD: Der Core Duo hat SSE2 und SSE3, SIMD-Erweiterungen mit 128 bits, der Cortex-A76 hat Neon, eine SIMD-Erweiterung mit 128 bits. Ob ein Programm, das nennenswert von SIMD profitiert, auf dem Cortex-A76 wirklich mehr Speedup sehen wuerde, muesste man durch Messungen ueberpruefen. Ich habe aber kein solches Programm einfach bei der Hand, weil solche Programme tatsaechlich nicht so haeufig sind.

https://geizhals.de/cmf-phone-1-128gb-gruen-a3225740.html?hloc=de
Man kann natürlich an der Stelle die 2x A75 + Rest Krücken anführen, oder das (wohl) schnellste Smartphone in dem Presibereich mit 4x 2,5GHz A78 + Rest.

Es war die Rede von "jedes 150€ Smartphone". Ein Gegenbeispiel reicht, um diese Behauptung zu widerlegen.

Nehmen wir mal nur das www.

Ja, beim WWW wird man auf der alten Maschine wohl nicht alles machen koennen, weil man da schlechter kontrollieren kann, welche Programme auf der eigenen Maschine laufen. Aber wie RealMax123 schreibt, geht da trotzdem ziehmlich viel, wenn auch nicht alles.

Meine Erwartung ist halt schon, dass ich auf einem Computer mein Mailprogramm im Hintergrund habe, vielleicht Musik dudelt und ich den Browser mit eine paar Tabs offen haben kann.

Mal schauen. Der Mailclient, den ich verwende hat 45K RSS (resident set size, also RAM-Verbrauch; der laeuft uebrigens auf einer Maschine mit 128GB RAM, auf die ich per ssh (9MB RSS) verbunden bin). Das Musikdudelprogramm, das ich verwende, hat 22MB RSS. Beim Webbrowser ist es etwas schwieriger, den Speicherverbrauch zu ermitteln, weil sich das ueber mehrere Prozesse verteilt. Na jedenfalls zeigt "free -h" auf meiner Maschine folgendes an:

Code:
               total        used        free      shared  buff/cache   available
Mem:            46Gi       2.4Gi        40Gi        61Mi       4.0Gi        44Gi

Da laeuft gerade ein Browser mit hunderten Tabs, das Musikdudelprogramm, und mehrere sshs. Ich denke, wenn man mit den Tabs genuegsamer ist, wuerde ich mit dem Core Duo fuer diese Zwecke auskommen.

Realistisch klappt das schon mit einem DualCore Haswell im Notebook allenfalls grenzwertig.

Ich verwende regelmaessig einen Laptop mit Dual-Core Ivy Bridge. Geht gut, allerdings hat die Maschine inzwischen 12GB RAM.
 
mkl1 schrieb:
https://github.com/uxlfoundation/on...05e38627574804fc049ffe5/README.md?plain=1#L92

Nova Lake unterstützt wie erwartet AVX10.2. Das ist einfach noch nicht überall hinterlegt, ist ja noch lange hin bis zum release.

Dies hier liest sich nun ganz anders:
https://x.com/InstLatX64/status/1982740730193019292

Intel hat mit der Revision 4.0 vom May 2025 AVX-10.2 massiv geändert. Eine Spezification ist leicht geändert, bei CPUs geht es schnell nur dann wenn man die Änderung über Microcode vornehmen kann.

1761617200822.png

1761617296157.png
 
  • Gefällt mir
Reaktionen: Piktogramm
Zurück
Oben