News Apple: Mac Studio mit M1 Ultra kostet 4.599 bis 9.199 Euro

Mac Studio Max scheint mein zukünftiger Heimcomputer für Arbeit und Freizeit zu werden, vermutlich einfach von der Stange, Basismodell ohne Aufpreis.


Noch ein paar Tests abwarten, auch schauen, ob er sich leicht öffnen lässt, wegen der gelegentlich notwendigen Entstaubung, und dann Ruhe für immer, bis man sich irgendwann ein neues, besseres Modell zulegt.

Kein Nachdenken mehr über neue Chipgenerationen, und dazu passende Mainboards, keine überzogenen Preise für Grafikkarten mehr, keine weiteren Kompatibilitätsprobleme, keine Nöte wegen Überlastung der Hersteller.

Angesichts der in Utopische steigenden Energiepreise ist der geringere Stromverbrauch, über die Jahre gesehen, auch noch ein gern gesehenes Extra.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind und Dirty_Harry
CDLABSRadonP... schrieb:
Typisch Apple halt. Die Einsteigermodelle haben meist noch ein ordentliches Preis-Leistungsverhältnis, aber freiwillig würde sie niemand mit so wenig Speicher konfigurieren.

Ich weiss wirklich nicht, was beim Einsteigermodell mit 10 Cores, 32 GB RAM und 512 GB SSD Dir jetzt zu wenig ist, um damit arbeiten zu können? Die Windows Laptops unserer Entwickler haben auch nicht mehr Ausstattung und da klagt auch niemand. Die 512 GB SSD kann ich doch locker durch eine NVMe SSD im TB4 Gehäuse erweitern, falls ich den Speicher lokal brauche und sonst gibt es Cloud, NAS,...

immortuos schrieb:
Muss man jetzt verstehen warum ein aufgeblähter Mac Mini den iMac Pro beerben soll? Haben sie es kühltechnisch nicht geschafft, das iMac Gehäuse anzupassen und deshalb so einen Murks gemacht?

Soll er nicht, es wurde im Video gesagt, dass noch die letzte Ausbaustufe fehlt welche dann dieses Jahr noch im Mac Pro kommen soll. Wahrscheinlich dann der hier gestern in einem Thread schon gepostete Doppelausbau des M1 Ultra.

Shoryuken94 schrieb:
Der iMac Pro war von Anfang an eine Notlösung, weil man den Mac Pro nicht rechtzeitig gebacken bekommen hat. Aber einen Nachfolger würde ich nicht ausschließen.

Kommt, siehe Kommentar oben drüber und hier im Video (Timestamp verlinkt):

GoetzCebu schrieb:
Erstmal sehen was in ein paar Monaten an Erfahrungen vorliegen - BLENDEN kann Apple perfekt, leider sieht de Realität nach wenigen Monaten immer recht ernüchternd aus.

Genau - blenden. Ich lach mich tot.

Ich war wirklich sehr geblendet, als ich für das Homeoffice beruflich von meinem i7, 32 GB Windows PC auf einen Mac Mini M1 8 GB mit 15 Watt Verbrauch gewechselt bin und dieser alles genau so gut konnte, nur in lautlos und mit einem Bruchteil des Stromverbrauchs. Ja, da war ich geblendet... :D
 
  • Gefällt mir
Reaktionen: iSight2TheBlind, Dirty_Harry, cvzone und eine weitere Person
M@tze schrieb:
Ich weiss wirklich nicht, was beim Einsteigermodell mit 10 Cores, 32 GB RAM und 512 GB SSD Dir jetzt zu wenig ist, um damit arbeiten zu können? Die Windows Laptops unserer Entwickler haben auch nicht mehr Ausstattung und da klagt auch niemand.
Wenn du die Wahl hättest, das Ding für sagen wir mal 150€ mehr statt dessen mit 64GiB zu konfigurieren, was würdest du machen? Das meine ich mit freiwillig würde sie niemand so konfigurieren. Das Upgrade wäre ein ziemlicher NoBrainer. Bei den kleineren Geräten schlägt das noch viel mehr zu. Einen Mac Mini oder ein Macbook Air mit 8GiB RAM zu konfigurieren, wenn es auch 16GiB für 30-50€ mehr gäbe, wäre vollkommen hirnrissig.
 
M@tze schrieb:
Ich war wirklich sehr geblendet, als ich für das Homeoffice beruflich von meinem i7, 32 GB Windows PC auf einen Mac Mini M1 8 GB mit 15 Watt Verbrauch gewechselt bin und dieser alles genau so gut konnte, nur in lautlos und mit einem Bruchteil des Stromverbrauchs. Ja, da war ich geblendet... :D
Äpfel und Birnen... zu der Zeit als Du ihn gekauft hast gab es ja anscheinend nichts besseres auf dem Markt, sonst hättest Du es bestimmt gekauft.
Und auch damals war ein i7 für "Homeoffice" schon overkill... mein drei Jahre altes Handy kann Homeoffice. Lautlos. Ist nur frickelig mit den Anschlüssen.

Für den Mac Mini ist der Ultra wirklich interessant, bin gespannt wie das im Mac pro umgesetzt wird. Da reichen die beiden memory controller nicht aus.
Der andere Punkt ist die Schnittstelle. Laut ersten benchmarks hat Apple da ziemliche Effizienzverluste, vermutlich durch die Latenz der Interchipkommunikation. Da ist AMDs Ansatz über den gemeinsamen Cache offenkundig besser.
Mal sehen, Apple bedient sich da ja TSMCs packaging-Patenten, vielleicht wird das ja noch besser mit den nächsten Iterationen.
Und Intels MCM wird auch noch interessant, die haben - theoretisch - in dem Bereich die längste Erfahrung und auch schon vor Ewigkeiten (FOVEOS etc) alle nötigen, damals führenden, Firmen welche gefehlt haben aufgekauft...
 
CDLABSRadonP... schrieb:
Wenn du die Wahl hättest, das Ding für sagen wir mal 150€ mehr statt dessen mit 64GiB zu konfigurieren, was würdest du machen?

Ich würde mir das Geld sparen, da ich den RAM nicht brauche und mit meiner Frau Abends davon Essen gehen. Besser investiert... ;)

Aber wenn Du der Meinung bist, unbedingt 64 GB zu brauchen (!), nicht "haben wollen", dann konfigurier Dir die doch?! Der Aufpreis ist zwar Apple typisch extrem hoch, aber es geht ja.

TenDance schrieb:
mein drei Jahre altes Handy kann Homeoffice. Lautlos. Ist nur frickelig mit den Anschlüssen.

Ach komm, jetzt wird es albern. SQL Datenbanken, Webserver, Entwicklungsumgebung usw. ?! :(

Homeoffice heisst bei mir nicht "Ich hocke daheim, nutze Teams, bearbeite Mails und ab und zu mal eine Excel Tabelle".
 
  • Gefällt mir
Reaktionen: Gizzmow und Kalsarikännit
TenDance schrieb:
Der andere Punkt ist die Schnittstelle. Laut ersten benchmarks hat Apple da ziemliche Effizienzverluste, vermutlich durch die Latenz der Interchipkommunikation.
Quellen? Ich denke aktuell kann man noch wenig sagen.

TenDance schrieb:
Da ist AMDs Ansatz über den gemeinsamen Cache offenkundig besser.
Äpfel und Birnen - Apple connected hier nicht zwei CPUs sondern auch die GPUs. Daher auch 2.5TB/s Bandbreite. Das gab es so vorher nirgendwo. Natürlich muss man dann schauen, wie hoch die zusätzliche Latenz ist, aber die Bandbreite sollte theoretisch reichen.


Unlike multi-die/multi-chip CPU configurations, which have been commonplace in workstations for decades, multi-die GPU configurations are a far different beast. The amount of internal bandwidth GPUs consume, which for high-end parts is well over 1TB/second, has always made linking them up technologically prohibitive. As a result, in a traditional multi-GPU system (such as the Mac Pro), each GPU is presented as a separate device to the system, and it’s up to software vendors to find innovative ways to use them together. In practice, this has meant having multiple GPUs work on different tasks, as the lack of bandwidth meant they can’t effectively work together on a single graphics task.

But, if you could somehow link up multiple GPUs with a ridiculous amount die-to-die bandwidth – enough to replicate their internal bandwidth – then you might just be able to use them together in a single task. This has made combining multiple GPUs in a transparent fashion something of a holy grail of multi-GPU design. It’s a problem that multiple companies have been working on for over a decade, and it would seem that Apple is charting new ground by being the first company to pull it off.


With UltraFusion, Apple is able to offer an incredible 2.5TB/second of bandwidth between the two M1 Max dies. Even if we assume that this is an aggregate figure – adding up both directions at once – that would stillmean that they have 1.25TB/second of bandwidth in each direction. All of which is approaching how much internal bandwidth some chips use, and exceeds Apple’s aggregate DRAM bandwidth of 800GB/second.

We’ll go more into this in the obligatory follow-up article, but the important point to take away here is that Apple has become the first vendor to bond two GPUs together with such a massive amount of bandwidth. This is what’s enabling them to take a stab at presenting the two GPUs as a single device to the OS and applications, as it allows them to quickly shuffle data between the GPUs as necessary.



But it should also be noted that there are plenty of details that can make or break the usefulness of this approach. For example, is 2.5TB/second enough, given the high performance of the GPUs? And what is the performance impact of the additional latency in going from GPU to GPU? Just because Apple has doubled the number of GPU cores by gluing them together doesn’t mean Apple has doubled their GPU performance. But at the end of the day, if it works even remotely well, then the implications for GPU designs going forward are going to be immense.




https://www.anandtech.com/show/1730...bining-two-m1-maxes-for-even-more-performance
 
M@tze schrieb:
Ich würde mir das Geld sparen, da ich den RAM nicht brauche und mit meiner Frau Abends davon Essen gehen. Besser investiert... ;)
Hast du schonmal an das Thema Langzeiteinsatz gedacht? Hast du alternativ schonmal an das Thema Wiederverkauf gedacht? Wie gesagt, insbesondere bei dem Macbook Air wäre das Upgrade zu normalen Preisen ein NoBrainer. Beim Studio ist es das aber eigentlich (aus den gleichen Gründen) inhaltlich auch. Dort fällt es vielen Leuten aber schwerer zu sehen, dass das absolut analog verläuft.
 
Dr. MaRV schrieb:
Einfach mit VESA Mount bestellen und bei Amazon einen Arm mit Gasfeder für 50 Euro kaufen. Dann hat man die maximale Flexibilität.

Ich hoffe wirklich sehr, dass sie noch einen 27“ oder 32“ iMac bringen. Da würden mir auch die M1Max vom MacBook Pro als größte CPU mit 64 GB RAM reichen. Der Studio ist mir einfach etwas zu hochpreisig, ohne vernünftigen Bildschirm in dieser Konfiguration. Für Lightroom und Photoshop wäre das echt gut.
Die Wartezeiten beim bearbeiten und Stacken von mehreren 50 MPX Bildern ist auf meinem i7 iMac von 2017 schon recht lang. Wobei hier vermutlich auch das Fusion Drive mitschuldig ist.

Und wie genau soll die Preisgestaltung Aussehen? Ein iMac 27" macht auf Basis des aktuellen Lineups kein Sinn. Selbst wenn Apple den bestehenden iMac 27" leicht anpasst, wäre der iMac nichts anderes als ein Studio Display mit integriertem Mac Studio. Würde man das Ganze preislich nach unten korrigieren statt M1 Max nur M1 Pro und statt 32Gb Ram nur 16GB Ram als Einstiegskonfiguration, wären wir auf Basis der Preise von den Studio Geräten noch locker bei 3500€. Das wäre ein deutlicher Preisaufschlag zum bestehenden iMac 27". Würde man den M1 iMac 27" deutlich billiger anbieten, würde niemand die Studio Geräte kaufen.
 
Schon ein absoluter Wahnsinn, was Apple da bringt. Die haben mit ihren Chips einfach innerhalb von knapp 2 Jahren den kompletten PC Markt auf den Kopf gestellt. Wenn man nicht grad spielen will, für bestimmte Software Windows braucht oder generell eher ein Budget Gerät will, dann ist ein Mac eigentlich die einzig sinnvolle Wahl aktuell. Egal welchen Mac man nimmt, es gibt auf dem ganzen Markt keine Konkurrenz für die jeweiligen Modelle. Gut möglich, dass das auf absehbare Zeit auch so bleiben wird. Der Mac Pro wird ja auch noch kommen und ich mag mir gar nicht ausmalen, was der für eine Leistung haben wird. 🤣
 
CDLABSRadonP... schrieb:
Hast du schonmal an das Thema Langzeiteinsatz gedacht?

Ja, ich kenne meinen Workflow ja und weiss was ich an Ressourcen benötige. Ich bin niemand, der seine HW schneller wechselt als seine Unterhose, wie es mir bei manchen Usern hier im Forum gerade bei GPU's oft vorkommt (war nicht an Dich adressiert! ;) ).

Also kaufe ich das, was ich brauche, nicht das was ich eventuell mal in 2 Jahren brauchen könnte.

CDLABSRadonP... schrieb:
Hast du alternativ schonmal an das Thema Wiederverkauf gedacht?

Nicht wirklich, ist mir egal. Wenn die HW meinen Anfoderungen nicht mehr genügt, verkaufe ich sie und rüste auf. Ob ich dann für die besser ausgestattete Variante 3,50 € mehr bekommen hätte, ist mir dann auch egal. Und das Gut an Apple HW ist ja, dass ich nicht drauf sitzen bleiben werde, da gibt es immer einen Käufer.

Klar, wenn ich mir hier ein Mac Studio für 5.000 € aufwärts konfigurieren würde, weil ich die Leistung wirklich brauche, dann würde ich vielleicht auch lieber noch was drauf legen, da es bei dem Preis dann auch schon egal ist und man so ein Teil eben lange nutzt. Aber welcher Privatanwender macht das schon und für eine Firma sind das Peanuts Beträge, die in die Abschreibung laufen.
 
  • Gefällt mir
Reaktionen: Gizzmow
tomgit schrieb:
Und, auch wenn teuer, ist das Gerät in der Maximalausstattung mit seinen 9,2k€ nicht so sehr überteuert, zumindest, wenn man es mit einer Workstation von Dell, HP oder Lenovo vergleicht.
Selbst der Mac Pro war, wenn auch schon teuer, nicht so übertrieben teuer, wie man es vielleicht ansehen mag. Es ist eben ein Workstation-PC, die Dinger sind teuer.
Also wir beziehen unsere Workstations von Dell. Der Unterschied ist, die haben absolut nachvollziehbare Preise bei mehr Arbeitsspeixher etc.
Und was man nicht vergessen darf genau wie bei Flugzeugen zahlt da niemand den Listenpreis. Da sind satte Rabatte drin. Bei Apple wüsste ich nichts von signifikanten Rabatten.
Ergänzung ()

tobbers schrieb:
Wenn man nicht grad spielen will, für bestimmte Software Windows braucht oder generell eher ein Budget Gerät will, dann ist ein Mac eigentlich die einzig sinnvolle Wahl aktuell. Egal welchen Mac man nimmt, es gibt auf dem ganzen Markt keine Konkurrenz für die jeweiligen Modelle.
Jetzt mal Butter bei den Fischen. Für was ist Apple denn die sinnvollste Wahl?

Professioneller Videoschnitt : vielleicht auf dem Intel Mac Pro, weil dieser Modell hier hat auch nit 128 GB zu wenig Speicher
Datenbanken: tendenziell Linux, maximal Windows, außerdem tendenziell noch höherer RAM Verbrauch
CAD meist Windows, hoher RAM Bedarf, wenig Software auf Mac
Compiling: eher Linux dank Toolchain
Gaming: Windows, dank Proton geht auf Linux noch deutlich mehr als auf dem Mac
Maschinensteuerung: Windows (embedded), Linux, proprietär
Simulation, Physikberechnung, Numbercrunching: tendenziell eher Windows und Linux (viel RAM, lastet auch einen 64 Kern Threadripper aus)
Webserver : Linux
Storage Werver : Linux, Windows, BSD
Firewall: Linux, BSD, andere
VPN: Linux, BSD, andere

Wo ist denn Apple die sinnvolle Wahl:
Alles mit Grafik, DTP, Photobearbeitung und Videoschnitt bei kleineren Projekten

Unentschieden wäre ich bei Software Entwicklung, bei der jetzt keine großen Compiler Aufgaben anstehen. Das ist sicher Geschmackssache und abhängig von der verwendeten Toolchain.

Ich wüsste bei uns im Unternehmen eigentlich nichts, wo ich nen Riesen Vorteil von Mac sehe, die Unternehmenskomunikation und die Druckerei hat sicher welche.
Natürlich gibt es eine Menge Leute für die der Arbeutsplatz zu 99% aus Word und Excel besteht, aber da ist der Rechner fast zweitrangig.
Die Mehrheit der Privatanwender, die Enthusiastenpresie bezahlen wollen, werden vermutlich auch spielen wollen.

Privat würde ich nicht so viel ausgeben wollen und dann aber spielen, dienstlich laufen öfter Beschaffungen ab 5k€ für nen Rechner über meinen Schreibtisch, aber da ist nichts dabei, wo Apple eine ernsthafte Alternative wäre. Gut ich bin halt Ingenieur und kein Grafikdesigner.
 
Zuletzt bearbeitet:
@Macerkopf
Wie sie das gestalten ist mir egal. Das Studiodisplay ist deutlich anders zum bisherigen iMac Display, genau das würde mir jedoch weiterhin ausreichen. Ich und viele andere Nutzer brauchen keinen A15 SoC mit Superdupermikrofon, Konzertbeschallung und Webcam mit 12 MPX im Monitor. Außerdem möchte ich keine zwei Geräte auf dem Schreibtisch haben! Das ist schließlich der Hauptgrund für einen iMac. iMac 27" mit dem Display, was bereits seit Jahren Verwendung findet und in der Maximalkonfiguration mit M1Max, 64 GB RAM und gut ist. Würde deine Aussage zutreffen, würde sich auch niemand einen Studio in der kleinen Konfiguration kaufen. Denn da gibt es das MacBook Pro, an dem man einfach einen externen Bildschirm anschließen könnte und zeitgleich, bei Bedarf, einen mobilen Mac Studio in Einstiegskonfiguration hätte.
 
Zuletzt bearbeitet:
tidus1979 schrieb:

Ich sehe Du sprichst das Problem bereits an: 2,5 Tb/s klingt erstmal verdammt viel. Ist aber vermutlich - weil Werbung - die bidirektionale Leistung. Ist in der Branche so üblich das derart zu kommunizieren. Als Beispiel, NVlink wird auch derart beworben. Nun bietet NV Link, und das ist drei Jahre alte Technologie um auch physisch voneinander getrennte GPUs zu verbinden, 600Gbit/s. Demzufolge ist Apples Ansatz massiv schneller. Auf den ersten Blick.
Was wir nämlich nicht wissen, ist wie der Speicher aufgebaut ist. Um entsprechende Latenzen zu vermeiden müsste jede GPU weiterhin "ihren" Speichercontroller des M1 Max verwenden. Dann haben wir das klassische SLI-Phänomen, das man zum Beispiel 128GB verbaut, aber effektiv nur 64GB verfügbar sind, weil die Daten doppelt vorgehalten werden müssen.
Man kann nur vermuten dass Apple mit dem M1 Ultra auch die Profiriege bis zu einem gewissen Punkt ansprechen möchte. Und die wünscht sich mehr Speicher als beim M1 Max verfügbar. Dementsprechend ist es gut möglich dass Apple einiges von den 2,5Tb/s verwendet um die Speichercontroller zu verknüpfen.
Ergibt auch mehr Sinn im Hinblick der zusätzlichen CPU Kerne. Denn die kommunizieren ja auch über diesen Link. Und dürften sich den Speicher teilen.
Wenn man betrachtet was also alles über diesen Link läuft, ist er - an sich - erstmal so noch nie dagewesen. Aber ob er die Lösung ist um alle Probleme zu beseitigen welche bei so einem Unterfangen auftreten, ist nicht sicher.

Laut den ersten Benchmarks ist der M1 Ultra merklich langsamer als die verdoppelte Leistung eines M1 Max im Book Pro. Und das trotz mehr Takt Dank besserer Kühlung. Entweder reibt sich noch die Software/der Scheduler, oder der Interconnect zeigt auf warum Apple nicht auch einfach den M1 Max als Agglomerat aus M1 SoCs aufgebaut hat.
Wie sich der Ultra unter Dauerlast thermisch und elektrisch schlägt gilt es auch noch zu testen, aber das steht auf einem anderen Blatt.

Das fabric an sich von TSMC ist aber anscheinend wirklich hervorragend, da es so aussieht als würden sie die dies direkt verknüpfen, kein EMIB oder ähnliches.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tidus1979
Atma schrieb:
Wen interessiert das tatsächlich noch in der Praxis? Egal ob auf dem SoC Apple, Qualcomm, Samsung oder MediaTek steht, die High-End SoCs haben schon lange mehr als genug Leistung für so ziemlich alles.
Noch nicht mal alles momentane. Aber die Welt dreht sich außerdem4 weiter und gerade Apple weiß sehr gut, wie sie 'ihr Silicon' mit Leben füllen können. Von der Moviequaliät eines iPhone 13 können alle Handys ohne Apple-Slilicon nur träumen. LIDAR und AR/VR wird das nächste Ding, bei dem Spezial-Silicon ala Apple essentiell wird.
Ich seh eigentlich eher, dass Apple mit ihren Chips die anderen seit Jahren vor sich her treibt und das wird die schon interessieren.
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
immortuos schrieb:
Muss man jetzt verstehen warum ein aufgeblähter Mac Mini den iMac Pro beerben soll? Haben sie es kühltechnisch nicht geschafft, das iMac Gehäuse anzupassen und deshalb so einen Murks gemacht?
Im Gegenteil, das ist das sinnvollste, was Apple hätte machen können hier. Deutlich besser, als ein "iMac Pro".
Nämlich Computer und Display voneinander zu trennen, das bringt vor allem für die Pros (also Studios, Unternehmen etc) mehr flexibilität.
Wenn der Computer ersetzt wird, wird nur der ersetzt. Die Monitore, die ich gekauft habe, können bleiben bis sie kaputt gehen.

die sonstige alternative wäre, 2 iMac Pros kaufen, und den zweiten als reinen Monitor benutzen, wenn das denn überhaupt möglich wäre. Nicht sehr elegant.

Wenn wir annehmen, dass Apple einen iMac Pro gebracht hätte, und weder Mac Studio, noch das Studio Display.
Vor 10 Jahren waren waren Single Displays sicherlich noch gängiger, aber jeder der heutzutage Produktiv arbeiten will, und mehr macht als Emails beantworten, wird schon wissen, welche Vorteile 2+ Monitore bringen.

GoetzCebu schrieb:
ABWARTEN!

Was nützt die schnellste CPU, wenn die Schnittstellen nach aussen bremsen. Wenn die 4 TB4 Ports über denselben BUS laufen, dann bringt das nicht wirklich was. Wie sieht die interne Architektur aus? Unified Memory schön und gut, aber wenn alle Peripherie lahm angebunden ist dann hilft das schnellste RAM nicht.
Erstmal sehen was in ein paar Monaten an Erfahrungen vorliegen - BLENDEN kann Apple perfekt, leider sieht de Realität nach wenigen Monaten immer recht ernüchternd aus.
Da muss man nichts mehr abwarten, schon die M1 Modelle hatten bereits 2 Thunderbolt controller für ihre 2 Anschlüsse (während die Intel macbooks zuvor 2 Thunderbolt anschlüsse über 1 Controller haben laufen lassen)
Die neuen Macbook Pros hatten ebenfalls für jeden Anschluss einen separaten Thunderbolt 4 Controller, in dem Fall dürften da 3 Thunderbolt controller sein.

Leider finde ich keine Quelle mehr dazu (vielleicht sind meine Google-skills eingerostet), kann gerne jemand nachtragen wenn jemand da was findet.

M@tze schrieb:
Ich würde mir das Geld sparen, da ich den RAM nicht brauche und mit meiner Frau Abends davon Essen gehen. Besser investiert... ;)
Ich weiß, dass das ein beliebter Spruch ist, aber hab noch nie verstanden, warum das eine das andere ausschließen sollte?
Einfach beides machen und happy sein :p
 
Mein Chef flucht gerade weil er die ganze Zeit auf nen 27er iMacPro mit M1 gewartet hat und genau der wird jetzt eingestellt. Stattdessen gibts jetzt nur noch nen wesentlich teureren Klotz, zu dem man dann nochmal lauter Monitore bestellen müsste, wenn man die Firmenausstattung mal aktualisieren will. Und Aufrüsten ist ja bei den Dingern eh nicht drin, für viele Jahre nutzen und immer wieder anpassen wie bisher geht nicht mehr.
 
Was habt ihr denn bei den iMacs bisher "immer" angepasst? Mehr als RAM tauschen kanns ka kaum gewesen sein. Dafür ihr jetzt einmal Monitore laufen und die behalten, bis sie Schrott sind und nicht mit dem erlahmten Rechner weghauen.
 
  • Gefällt mir
Reaktionen: cruse
Zurück
Oben