M4 vs. M5 MacBook Air für Data Science & Coding?

znxggo

Newbie
Registriert
März 2026
Beiträge
2
Moin zusammen,

ich stehe gerade vor der Entscheidung für ein neues MacBook Air für mein Data Science Studium und diverse Programmierprojekte. Da man das Upgrade auf die 10-Core GPU braucht, um mehr als 16GB RAM konfigurieren zu können, schaue ich mir aktuell diese Setups an (alle mit 512GB SSD):
  • M4 (2025) / 16GB RAM: 959 €
  • M5 (2026) / 16GB RAM: 1.089 €
  • M4 (2025) / 24GB RAM: 1.195 €
  • M5 (2026) / 24GB RAM: 1.339 €
Mein Use-Case: Viel Python (Pandas, Scikit-learn), Docker-Container, SQL und ab und zu Experimente mit lokalen LLMs.

Zwei konkrete Fragen:
  1. Lieber den neueren M5-Chip mit 16GB nehmen oder das Vorjahresmodell (M4), dafür aber mit 24GB RAM? Ich habe die Sorge, dass 16GB in 2–3 Jahren bei DS-Tasks zum Flaschenhals werden. Oder braucht man sogar 32GB?
  2. Sind 512GB SSD das „sichere“ Minimum? Ich könnte mit 256GB sparen, fürchte aber, dass die Platte durch Environments und Datensätze sofort voll ist.
Lohnt sich der Aufpreis von 140 € bis 240 € für das M5 bzw. den höheren RAM für einen Studenten wirklich?
 
znxggo schrieb:
Data Science Studium
Klingt als würde man nie genug RAM dafür bekommen können.
Bist du dir sicher das du dafür nicht mehr RAM benötigst? Mehr RAM kann auch Programmieraufwand ersetzten. Beispiel: Sortieren von Daten die nicht ins RAM passen.

Möglicherweise wäre was wo man RAM nachrüsten kann besser geeignet, das Zeug was du genannt hast läuft ja auch auf Nicht-Gefängnis-Computern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drago1401, znxggo und Tornhoof
Ich bin auch für mehr Arbeitsspeicher, Docker Container, jegliches LLM Zeug, alles will Arbeitsspeicher.
 
  • Gefällt mir
Reaktionen: znxggo
Ich habe etwas in einer ähnlichen Richtung studiert und würde dir zum M4 24/512 raten. Das sollte aber entspannt ausreichen für die nächsten Jahre im Studium. Es geht im Studium ja nicht darum 20 TB Produktionsdaten zu durchforsten sondern die Grundlagen zu lernen.

Sollte es Aufgaben geben, welche mehr Leistung benötigen, bekommst du ziemlich sicher Zugriff auf einen HPC(-Cluster). Und für die restlichen Studienaufgaben ist das genannte Gerät top.

Viel Spaß damit!
 
  • Gefällt mir
Reaktionen: sturmpirat, Col. Jessep, znxggo und 2 andere
M4 oder M5 mit 24GB würde ich auch sagen. Wenn es das Budget hergibt, dann M5 :)
 
  • Gefällt mir
Reaktionen: znxggo
Schaue unbedingt nach CTO Geräten im Abverkauf.
Ich habe gerade hier in der Schweiz das M4 Air mit 32GB Ram und 10 Core GPU für 1149 CHF bestellt.
Wenn du dir etwas Zeit lässt, findest du sicher ein Angebot.

Allgemein kann man bei deinem Use case gar nicht genug Ram haben.
Wenn du wirklich viel auch lokal laufen lassen willst, dann wäre aber tatsächlich eher der M5 in Betracht zu ziehen, wegen der Neural Engine.
Ich benutze LLMs eigentlich nur über die Cloud (Claude mit Opus 4.6 aktuell), entsprechend ist es für mich lokal nicht so relevant.
 
  • Gefällt mir
Reaktionen: TomH22 und znxggo
Tornhoof schrieb:
Ich bin auch für mehr Arbeitsspeicher, Docker Container, jegliches LLM Zeug, alles will Arbeitsspeicher.
Aber gerade bei LLM/KI-Zeug ist der M5 nicht nur bisschen, sondern deutlich schneller.
 
  • Gefällt mir
Reaktionen: TomH22, M4ttX, Burfi und eine weitere Person
Burfi schrieb:
Schaue unbedingt nach CTO Geräten im Abverkauf.
Ich habe gerade hier in der Schweiz das M4 Air mit 32GB Ram und 10 Core GPU für 1149 CHF bestellt.
Wenn du dir etwas Zeit lässt, findest du sicher ein Angebot.

Allgemein kann man bei deinem Use case gar nicht genug Ram haben.
Wenn du wirklich viel auch lokal laufen lassen willst, dann wäre aber tatsächlich eher der M5 in Betracht zu ziehen, wegen der Neural Engine.
Ich benutze LLMs eigentlich nur über die Cloud (Claude mit Opus 4.6 aktuell), entsprechend ist es für mich lokal nicht so relevant.
Danke für den Tipp mit den CTO-Geräten! 32 GB für 1.149 CHF klingt nach einem Wahnsinnspreis. Darf ich fragen, bei welchem Händler du das gefunden hast (oder war das ein lokaler Sale)?
Bezüglich der Neural Engine: Ich plane aktuell eher eine Mischung aus lokalem Coding und Cloud-Nutzung. Wenn ich ein M4 mit 32 GB zu dem Preis finde, wäre das für mich wohl der ideale Kompromiss zwischen Budget und Power.
 
Das ist aktuell immer noch verfügbar bei Galaxus Schweiz.
https://www.galaxus.ch/de/s1/produc...360-512-gb-32-gb-schweiz-m4-notebook-55772300

Du musst aber bedenken, dass Schweizer Preise bei Tech immer etwas günstiger sind als Deutsche, wegen der niedrigeren Mehrwertsteuer.

Wie gesagt, immer schön bei den üblichen Verdächtigen (mydealz, geizhals) schauen für Bestpreise und Angebote.
znxggo schrieb:
Danke für den Tipp mit den CTO-Geräten! 32 GB für 1.149 CHF klingt nach einem Wahnsinnspreis. Darf ich fragen, bei welchem Händler du das gefunden hast (oder war das ein lokaler Sale)?
 
  • Gefällt mir
Reaktionen: znxggo
Lokale LLMs mit 16/24 GB? Kannst vergessen. Selbst ich hab mit 64 GB schon teilweise Probleme.
 
  • Gefällt mir
Reaktionen: znxggo
Kann man bei Mac OS das Memory Management parametrisieren?
Je nach Workload ist da sicherlich noch was an Laufzeit drin.
 
  • Gefällt mir
Reaktionen: znxggo
Vorsicht bei Geräten aus/für die Schweiz mit der Tastatur. Absehen vom Zoll eigentlich, da hat ein Schweizer Reporter darauf hin gewiesen. Sie haben eine andere Tastatur als wir Deutsche.
 
  • Gefällt mir
Reaktionen: Ricomat und znxggo
Cool Master schrieb:
Lokale LLMs mit 16/24 GB?
Kleine Modelle gehen durchaus, ist natürlich eher proof-of-Concept…
znxggo schrieb:
Mein Use-Case: Viel Python (Pandas, Scikit-learn), Docker-Container, SQL und ab und zu Experimente mit lokalen LLMs.
Wenn LLMs oder bildgenerierung (z.B. mit mflux) auf jeden Fall den M5 bevorzugen. Der größte Fortschritt von M5 gegenüber M4 ist die GPU, bzw. deren Eignung für AI Modelle.
Ergänzung ()

foofoobar schrieb:
Möglicherweise wäre was wo man RAM nachrüsten kann besser geeignet, das Zeug was du genannt hast läuft ja auch auf Nicht-Gefängnis-Computern.
Eigentlich alles im x86-64 Bereich, dass von GPU Leistung und Energieeffizienz in die Nähe der M CPUs kommt, z.B. Ryzen AI Max hat auch verlöteten LPDDR5. Und zur Zeit sind die Sachen auch nicht mehr unbedingt billiger als Apple.

Und AMD GPUs mit AI sind auch oft immer noch Gebastel, Apples MLX API wird da besser unterstützt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Toms
TomH22 schrieb:
Kleine Modelle gehen durchaus, ist natürlich eher proof-of-Concept…
Das ist wie mit Hubraum, RAM ist durch nichts anderes zu ersetzen außer durch RAM.

Insbesondere weil auch noch Docker, DB-Server, etc. genannt wurden. Alleine die können sich schon recht breit machen. Und das Filesystem will auch noch ein wenig Cache.
 
Zurück
Oben