News Im Test vor 15 Jahren: Der Mac mini war Apples Rechner für jedermann

joshy337 schrieb:
Daher schade, dass die Nachfolger HDMI und Display Port keine 6 Leitungen mehr dafür erübrigen konnten..
Der Alternate Mode von USB C stellt 4 Leitungen zur Verfügung, da könnte man S-Video als Alternate Mode implementieren. CRT(dafür ist Analog gut!) am MacBook... Aber dann bekommen sie wahrscheinlich hiermit Probleme:
Jesterfox schrieb:
Der große Vorteil digitaler Daten ist das man sie durch das hinzufügen von Fehlerkorrektur unglaublich robust machen kann. Während man bei analoger Übertragung immer mit Störeinflüssen und Verlusten zu kämpfen hat.
Da der CRT mit der richtigen Ansteuerung aber auch mit DVI, HDMI oder DisplayPort läuft wird sich niemand die Mühe machen, mal abgesehen davon das keine CRTs mehr Produziert werden.
Ergänzung ()

joshy337 schrieb:
Ich bin nur etwas entrüstet/verwundert, warum oft gegen alte Standards gewettert wird, obwohl sie nicht stören.
Miniaturisierung! In den Mac mini hier bekäme man z.B schon schwer einen LPT Port, bei Notebooks, Tablets, Smartphones, Smartwatchs und Brillen wird es nicht leichter. Was es Teils für Riesen Stecker gab...

Wenn man sie wirklich braucht, kann man alles auf Thunderbolt und PCIe adaptieren, das meiste auch auf USB (FireWire wie es der Mac mini hat z.B kann man meines Wissens nicht auf USB adaptieren)
 
Zuletzt bearbeitet:
ATIst schrieb:
In den Benchmarks ist er größtenteils nach dem PowerMac der schnellste Rechner, das untermauert nicht wirklich warum er als langsam bezeichnet wird
Benchmarks sind eine Sache. In der Realität ist der IDE Bus unglaublich langsam angebunden, ebenso der FireWire Bus und, und das ist wirklich ein Problem, der RAM ist unglaublich langsam angebunden. Laut Spezifikation kein Unterschied, aber man merkt es bei DMA durch zb FireWire. Trotz nominal schnellerem Bus Talt von 167MHz ist ein 1,3 GHz iBook mit 133MHz Bus in der Realität schneller. Der Vergleich zu einem „ausgewachsenen“ PowerMac ist allein schon wegen der thermischen Limits nicht zu ziehen, fast jeder G4 Tower schlägt einen Mac Mini (egal ob 1.25, 1.42 oder 1.5 GHz)
 
  • Gefällt mir
Reaktionen: Schorsch92 und ATIst
Ein imo wunderschönes Gerät zu der Zeit, die nachgeäfften Shuttle Dinger sahen dagegen nur billig und grauenvoll aus.
 
@AlphaKaninchen:
Bei meinem Arbeitgeber ist VGA noch z.T. in Verwendung, das sind aber Industrie-PCs mit entsprechenden Monitoren (noch mit CCFL und 4:3). Bei den Anlagen wäre es aufwändig, das VGA-Kabel zu tauschen.

Probleme bekommen wir mit neuer Hardware, weil Intel praktisch unterbunden hat, mit aktuellen CPUs den CSM-Modus im BIOS beizubehalten; alles nach Skylake ist UEFI-only und kann z.B. kein Windows 7 oder DOS booten. Das gilt genauso für onboard-VGA, weil es dafür kein OptionROM mehr von Intel gibt.
Lösung: Eine veraltete Grafikkarte mit VGA-Ausgang oder spezielle Wandlerkarten stecken, die das Bildsignal "heimlich" umwandeln.
Selbst bei so lange genutzen Anlagen ist VGA längst EOL, wir verbauen bei Neuanlagen schon seit ca. 5 Jahren DVI, mittlerweile DP. Bestandsanlagen bekommen die o.g. Umrüstung oder gleich ne DVI-Strippe. Es ist seitens der Hardwarehersteller anscheinend unerwünscht, noch VGA zu verbauen. Von der Funktion wäre es egal, wobei VGA manchmal etwas störanfälliger als die digitale Verbindung ist, was aber nur ein etwas schlechteres Bild (Flimmern, Farbverschiebungen) und keinen Ausfall bedeutet.
 
  • Gefällt mir
Reaktionen: konkretor und AlphaKaninchen
So ein PowerPC-Mac Mini wäre schon ganz lustig, um damit herumzuspielen. Ist noch was ganz anderes, als die üblichen WIntel-PCs oder auch die späteren x86-Macs.
Andererseits wäre dafür ein altes Apple-Notebook wohl noch praktischer und platzsparender.

Zum Thema VGA/DVI-A:
Das ist ja nicht einfach nur ein analoges Videosignal, sondern die direkte Ansteuerung einer Bildröhre. Inklusive allen horizontalen und vertikalen Frequenzen und Pausen usw. die man brauchte, um den Elektronenstrahl zeilenweise über die Phosphorschicht zu steuern.
Dass sowas in der Zeit von digitalen Flachbildschirmen nicht mehr wirklich sinnvoll ist, ist klar, aber die Frage der Kompatibilität hat VGA lange über seine natürliche Zeit hinweg am Leben erhalten. Auch dort, wo längst gar keine Bildröhren mehr im Spiel sind.
 
  • Gefällt mir
Reaktionen: Poulton, konkretor, Schorsch92 und eine weitere Person
@Opa Hermie Dann hat Intel ihre Ankündigung also eingehalte:
Wikipedia
Ende 2010 gaben Intel und AMD bekannt, ab dem Jahr 2015 kein VGA mehr in ihren Produkten zu unterstützen. In Zukunft wird man sich auf die Schnittstellen HDMI und DisplayPort konzentrieren.
Wobei ich bei Industrie PCs eigentlich erwarten würde das es die auch mit onboard Wandler gibt.
 
Gibt es sicher auch, aber wozu das Produkt unnötig verteuern, wenn es der Kunde ev. garnicht benötigt? Und zumindest bei den bei uns genutzten Boards gibt es gegen Aufpreis vom Hersteller eine PCIe-Wandlerkarte (funktioniert nur bei einem Typ), wenn man es denn noch braucht.

IDE, Parallelport, Diskette, Lochkarten, Elektronenröhren.......alles längst abgekündigt und durch neue Technologie ersetzt, man kann selbst bei Anlagen mit langer Betriebs-/Nutzungsdauer nicht immer alles mitschleifen, letztendlich sind das betriebswirtschaftliche Entscheidungen: Vermutlich kann man alte Hardware immer noch "neu" oder repariert kaufen, aber oft wird der Neupreis aktueller Ersatzprodukte um ein Vielfaches überschritten, deswegen ist ein einmalig größerer Aufwand dann das (finanziell) kleinere Übel.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Bei 1440x900 sehe ich keinen Unterschied zwischen VGA und DVI. Bei höherer Auflösung benutze ich in der Tat kein VGA mehr.
2005 hatte man da auch keien Schwierigkeiten bei den üblichen 1280x1024 Pixeln.
 
Dr. MaRV schrieb:
@konkretor

RAM Upgrade geht, ist aber fummelig, weil eigentlich für den Benutzer nicht vorgesehen.
Beim iMac ist es einfacher. Aber meiner Erfahrung nach ist ein Mac auch sehr wählerisch beim RAM. So habe ich es nicht geschafft bei meinem iMac mit 2 vorinstallierten Modulen und zwei nachgekauften den Speicher zu erweitern.
RAM mixen geht offensichtlich nicht, auch wenn er die gleichen Spezifikationen hat.
Ich habe dann zwei doppelt so große Module gekauft und nur die eingebaut, damit ging es problemlos. Der RAM war am Ende verdoppelt. Nur liegen jetzt die alten Apple Module nutzlos im Schreibtisch.

Es gibt aber autorisierte Shops wie Gravis oder Cyberport, die rüsten den Mac nach Wunsch auf, sodass die Garantie erhalten bleibt. Sicher das Hauptproblem beim Selbstaufrüsten des Mac Mini.
"Autorisierte Händler" zum Austauschen von RAM, Lachhaft.

Imo ist auch jede Garantiebedingung ungültig nach § 307 BGB, die entweder sowas oder "das Gehäuse öffnen=Garantie futsch" vorsieht. Es gehört zum Bestimmungsgemäßen Gebrauch eines Rechners, dass man dort Bauteile austauscht.

Das ist genauso zu beurteilen wie denn Apple auf die Idee käme, man dürfe nur "autorisiertes Zubehör" verwenden und dann die Garantie verweigert, weil man einen USB-Stick angeschlossen hat der nicht von Apple kommt.
 
den hatte ich lange mittels synergy mit meinem linux arbeitsrechner gekoppelt gehabt um Safari und Iphone zu testen. Richtig schnell war er nicht, aber für meinen Zweck hats gereicht.
 
j-d-s schrieb:
"Autorisierte Händler" zum Austauschen von RAM, Lachhaft.

Imo ist auch jede Garantiebedingung ungültig nach § 307 BGB, die entweder sowas oder "das Gehäuse öffnen=Garantie futsch" vorsieht. Es gehört zum Bestimmungsgemäßen Gebrauch eines Rechners, dass man dort Bauteile austauscht.
Deine und auch meine Meinung ist ziemlich egal, solange es dazu kein richtungsweisendes Urteil gibt. Und nein es ist nicht der Bestimmungsgemäße Gebrauch eines Computers ihn nach Herzens Lust aufzuschrauben und umzubauen. Gerade bei diesen All-In-One Rechnern liegen die Netzteile offen im Gehäuse und es bedarf einer gewissen Vorsicht wie auch Fachkenntnis. Mit Strom ist nicht zu spaßen.
Ich verstehe dich und teile deine Meinung. Ich nehme auch alles auseinander und habe auch Bremsen Auspuff und alles andere an meinem Auto selbst gemacht ohne KFZ-Mechaniker zu sein. Habe mehre E-Herde angeschlossen obwohl ich kein Energieelektroniker oder Starkstromelektriker bin. In der 1. Ausbildung ist es nur der Kommunikationslektroniker - Funktechnik geworden. Dennoch, es gibt einen guten Grund, bestimmte Dinge nur Fachleute durchführen zu lassen.
 
Dr. MaRV schrieb:
Deine und auch meine Meinung ist ziemlich egal, solange es dazu kein richtungsweisendes Urteil gibt. Und nein es ist nicht der Bestimmungsgemäße Gebrauch eines Computers ihn nach Herzens Lust aufzuschrauben und umzubauen.
Zumindest im Bezug auf die Gewährleistung gibt es diese Urteile. Bei der Garantie, die ja eine freiwillige Leistung des Herstellers ist sieht es wohl etwas anders aus.
 
Candy_Cloud schrieb:
Die Firma hat mit dem Tod von Steve Jobs ihre Innovation größtenteils verspielt.
Heute sind es andere die mit ihren Visionen den Markt beleben.
Das hatte mMn nix mit Steve Jobs' Tod zu tun. Das "Aneignen" von fremden Ideen und anschließende (teure) Verkaufen als eigene Innovation war ja gerade das, wofür Jobs wie kein anderer stand. Und genauso für das regide Abschotten des eigenen Kosmos, um die eigenen Nutzer besser zu kontrollieren, zu höheren Ausgaben zu pushen und fern von Alternativen zu halten. Apple hat oftmals einfach durch pure Marktingmacht und geschicktes Imagebuilding die wirklichen Innovatoren aus dem Markt gedrängt und durch ihre (teils auch noch nicht wirklich ausgereiften) Kopien fremder Ansätze ersetzt. Gleichwohl haben sie dadurch natürlich auch viele Entwicklungen erst ins richtig Rollen gebracht, was grundsätzlich auch etwas Gutes hatte.
Das selbe Konzept hat Apple seither schlichtweg weitergeführt und mitunter haben sie sich in einigen Punkten sogar "gebessert" (das innere Design des MacPro ging ja zumindest halbwegs wieder in die richtige Richtung: modular, robust, praktisch und leise/passabel gekühlt – auch wenn Preis und Konfigurationsoptionen völlig absurd und an so zeimlich jedem realen Nutzer vorbei gingen).

Der Mann war einfach ein verdammt guter Con-Artist. So gut, dass er am Ende sogar selbst eine Form dieses perfektionierten "magischen Denkens" auf sich übertragen hat und auf eine rechtzeitige Krebstherapie verzichtet hat. Dass es in der generellen Wahrnehmung einen Verlust an Innovationskraft nach Jobs gab, dürfte eher daran liegen, dass die Allgemeinheit halt irgendwann gegenüber Marketingblabla und Hypes abstumpft und durch reine Erfahrung dann doch über die Jahre lernt, dass alle nur mit Wasser kochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: netzgestaltung
deo schrieb:
Es gibt TFT-Monitore mit nur VGA-Eingang. Außerdem habe ich einen Fall bei Bekannten, wo der Monitor DVD-D und VGA hat, das Mainboard aber HDMI und VGA. Da ist der Monitor per VGA-Kabel angeschlossen. Das wird es wahrscheinlich öfters geben, dass der Monitor älter als der PC ist und dann nicht mit den neusten Schnittstellen ausgestattet ist. Das ist gerade bei den mit 16:10 Displays so, dass man DVI und VGA hat, aber kein HDMI.
Von den Adapterkabel HDMI-DVI hast Du oder dein Bekannter aber schon mal gehört, oder :confused_alt:?
Die gehen auch in beide Richtungen, also DVI-D-Quelle auf HDMI-Monitor oder HDMI-Quelle auf DVI-D-Monitor - nutze ich selber im Office an mehreren PCs.
Nahezu alles, was es an reinen digitalen Monitor-Steckverbindern gibt, lässt sich via passiven Adapterkabeln verbinden, selbst DP zu HDMI/DVI ....
und zu guter letzt ein wenig "Klugscheiss" : Die Steckernorm DVD-D gibt es nicht, vermutlich meintest Du DVI-D ;)

edit : da war jemand schneller - https://www.computerbase.de/forum/t...r-fuer-jedermann.1959621/page-2#post-24418862
 
TierParkToni schrieb:
Von den Adapterkabel HDMI-DVI hast Du oder dein Bekannter aber schon mal gehört, oder :confused_alt:?
Ja, aber was für einen Vorteil hat man da bei 1440x900 Pixeln Auflösung? Der Monitor ist auch schon fast 10 Jahre alt und wenn er ersetzt wird, ist es ein moderner mit den gängigen Anschlüssen. Ab dann liegt das Adapterkabel aber nutzlos herum. Das VGA-Kabel war schon vorhanden und es taugt für den Zweck. Ich kann mir höchstens Ressourceneinsparung vorwerfen. ;)
 
Zurück
Oben