News Im Test vor 15 Jahren: Die erste Festplatte mit 120 GByte und SATA

Ich glaube eher Ihr verwechselt da was. Ich kann mir auch nur sehr schwer vorstellen, wie man HDD Kabel falsch stecken konnte, zumal eigentlich jede Platte eindeutig codiert war und man ja die Pins auch deutlich genug sehen konnte, um dann zu wissen, wo die Lücke für den in den allermeisten Fällen vorhandenen "Nupsi" :D ist.
Wo man sich aber tatsächlich sehr leicht vertun konnte, war das FDD (Floppy) Kabel. Das konnte man sehr leicht falsch einstecken und die Kennzeichnung war oft mangelhaft, so dass einem nur ausprobieren blieb.
 
Mini-Mi schrieb:
Denn es gab diese durchaus auch ohne "Nupsi". Einmal nicht 100% gerade reingesteckt oder rausgezogen und du konntest mit Schraubenzieher und Co. die Pins wieder richten.

Selbst wenn die Stecker diese Nase hatten, war es ohne weiteres möglich die Pins in der Buchse zu verbiegen wenn man das Kabel zur Seite weg rauagezogen hat. Manchmal saßen die Stecker auch beschissen fest und haben sich beim rausziehen schlagartig auf der einen Seite gelöst und auf der anderen Seite nicht. Das Ergebnis waren verborgene Pins :o

Wie gut das dann SATA die ätzenden PATA Kabel abgelöst hat. Ich weine diesem Rotz nicht eine Träne nach.
 
Wann kommt der Testbericht über die Seagate ST-225 mit 8-Bit MFM-Controller?. Diese hatte eine Kapazität von 20 MB.
Und dann erst der Sprung zum RLL-Controller. Wahnsinn was damals alles auf ein HD draufging. Heute ist die neue HD in gefühlten 2 Wochen voll.
 
tek9 schrieb:
Nicht zu vergessen das erst Mitte der 1990er überhaupt ein grafisches BIOS Setup gab. Davor durfte man die Boards per Jumper konfigurieren.
Ich glaube, Du meinst das CMOS Setup (aka BIOS CMOS Setup Utility), denn ein BIOS hat jeder PC.
Ohne die BIOS-Routinen könnte der PC keinen Power-On-Selftest (POST) machen btw. von Festplatte/Diskette booten. ;)

Was das CMOS-Setup betrifft, dieses gibt es seit ca. Mitte der 80er.
Beim PC/AT bzw. IBM 5170 musst es noch von Diskette geladen werden.
Außer man hat ein komptaibles BIOS verbaut (von Quadtel, zum Beispiel). Als Upgrade, sozusagen.

Ein graphisches BIOS (-Setup) im heutigen Sinne (mit Mausunterstützung, etc) gab es bereits Anfang der 90er, war keine Erfindung von UEFI.
winbios.jpg

Davor, so ca. ab '88 oder so, gab es viele verschiende BIOS-Versionen.
Diese bunte Version war sehr verbreitert (bereits mit HDD-Erkennung):
ami.jpg

tek9 schrieb:
PC Technik war damals wirklich der letzte Rotz.
Warum ? Ich höre diese Behauptung auch von ex-Amiga/Atari-Usern immer wieder.
Hatte persönlich mit 286ern/386er nie wirkliche Probleme.
Im Gegenteil, als ich mal einen Atari 520ST oder A500 ausprobierte, erschienen mir beide sehr beschränkt im Vergleich
zu einem 386SX mit DOS/Windows 3.1.

Edit: Das Einzige, was vielleicht knifflig war, war der IRQ- und Speichermangel.
Beides konnte man aber mit etwas Geduld und Planung lösen.

Bei IRQs musste man sich nur etwas Zeit nehmen, und ein paar Zeitschriften/PC-Bücher lesen.
Gab viele Tipps dazu, damals. Speicherprobleme konnten mit QEMM, QRAM, 386MAX und später MemMaker gelöst werden (oft automatisch). Oder eben per Hand.

Ähnliche Probleme gab es aber auch mit anderen Platformen. Der Mac hatte z.B. afangs die 24-Bit Adressierung. Als dann 32-Bit kam, liefen viele alte Programme nicht mehr.
Oder der Amiga. Slow-RAM, Fast-RAM, Chip-RAM, etc. Alles nicht gerade einfach.


Sowohl Amiga wie auch Atari ST konnten keine einfachen Auflösungen wie z.B. 640x480 mit 16 Farben darstellen.
Es gab standardmäßig keine eingebaute Festplatte. Keine Zusatzprogramme wie z.B. Write, Paintbrush, Terminal. Keine On-Line-Hilfe.
Keine Laufwerkskompression, keine Festplattendefragmentierung, kein Bildschirmschoner. Klar, man konnte sicher
alles nachkaufen wie z.B. DeluxePaint (Nur, haben in der Praxis viele Atari/Amiga-Leutchen jemals Software gekauft ?
War das damals nicht gegen den Ehrenkodex, oder so ? ;) ).
Kurzum: Mit dem nackten Gerät konnte man praktisch nichts machen, außer Spiele von Diskette booten.

tek9 schrieb:
Das haben Apple, Atari und Amiga alles viel besser gemacht, und zwar automatisch... :evillol:
Amiga hatte AutoConfig, ja. Die PCs bekamen mit den späten 80ern dann aber Aufwind.
Ab 1987 gab es dann VGA, AdLib und später mit EISA/MCA dann auch Plug&Play. Die oben genannten
Plattformen waren da zu Beginn der 90er praktisch schon tot. Nicht nur wegen dem PC, sondern weil die Entwicklung dort stehenblieb. Schade, eigentlich.
 
Zuletzt bearbeitet:
Bin irgendwann von den Flachbändern auf die Rundkabel gewechselt... Die sahen im Rechner einfach besser aus.

Ich vermisse aber weder IDE noch den Jumper für Master und Slave ^^. Wirklich begeistert bin ich von SATA aber auch nicht. Allein je ein Kabel für Strom und Daten wirkt heute eher nervig. Mein Umstieg auf M2 wird allerdings noch etwas dauern. Dazu benötigt es erst einmal ein neues MOBO.
Zum anderen nutze ich auch ganz gern mal mehr als nur eine oder zwei Platten. Und da wird es mit M2 schon schwer. Schön wäre auch intern eine Lösung wie etwa USB
 
120 Gb sind heute gar nix mehr bei PCs aber damals war man noch der größte damit, selbst mit 512MB MP3-Player wurde man damals von Schulkameraden beneidet.

Mein aktueller PC hat 2,5 Terabyte also grob das zwanzig fache von 120 Gb.
 
Genau dieses Festplatten-Exemplar hatte ich in meinem ersten Rechner, von besagten Problemen habe ich aber Gott sei Dank nichts mitbekommen. Mit dabei waren ein Northwood-Pentium mit 2,5GHz und satten 128MB RAM. Grafikkarte war eine Geforce4800ti.

Eine schöne Erinnerung an die alte Zeit, danke für den Artikel CB :)
 
@joshy337: Was die Bios-Themen angeht, lerne ich gerne dazu. Ich hab erst nach 1990 aktiv angefangen, mich damit zu beschäftigen. :)

joshy337 schrieb:
Warum ? Ich höre diese Behauptung auch von ex-Amiga/Atari-Usern immer wieder.
Hatte persönlich mit 286ern/386er nie wirkliche Probleme.
Im Gegenteil, als ich mal einen Atari 520ST oder A500 ausprobierte, erschienen mir beide sehr beschränkt im Vergleich
zu einem 386SX mit DOS/Windows 3.1.
Du vergleichst einen 2000 Mark 386SX mit DOS und Win 3.0 (Win3.1 gab es damals noch nicht) mit einem A500, der nichtmal ein Dritte kostete?

Edit: Das Einzige, was vielleicht knifflig war, war der IRQ- und Speichermangel.
Beides konnte man aber mit etwas Geduld und Planung lösen.

Bei IRQs musste man sich nur etwas Zeit nehmen, und ein paar Zeitschriften/PC-Bücher lesen.
Gab viele Tipps dazu, damals. Speicherprobleme konnten mit QEMM, QRAM, 386MAX und später MemMaker gelöst werden (oft automatisch). Oder eben per Hand.
Sorry, aber auch da verklärst Du die Vergangenheit etwas. QEMM und Co kamen erst Mitte der 90er und war da, um bei späteren Spielen RAM aufzupolieren. Dark Forces z.B. lief damit auch auf PCs, die nur 4 MB RAM hatten. Das Spiel benötigt sonst 8 und kam auch mit Hilfsmitteln nicht über die ersten Missionen hinaus. Auch sonst war es eine Qual, Spiele auf dem PC zum Laufen zu kriegen. Wir hatten separate config.ini-Settings, ob man mehr "lowmem" (unterhalb des ersten MBs) brauchte oder EMM386.sys - gab es schon deutlich früher - einbinden musste (was massiv im Lowmem Speicher kostete. Auch musste man je Spiel festlegen, welche Treiber man brauchte. CD-Treiber? Maustreiber? Soundkarte? Der Kampf um die "unteren 700kb" war unter x86 eine Qual. Und nur, weil jemand aus Redmond mal meinte, dass 640kb für ALLES reichen würden.

Und mal ehrlich... Sich durch Dokus und "wildfremde Zeitschriften schlagen", um den eigenen Rechner mit einer neuen Komponente konfigurieren zu können? Nennst Du das gutes Produktdesign, wenn man sowas nötig hat?

Ähnliche Probleme gab es aber auch mit anderen Platformen. Der Mac hatte z.B. afangs die 24-Bit Adressierung. Als dann 32-Bit kam, liefen viele alte Programme nicht mehr.
Kann ich nicht viel zu sagen. Macs hab ich damals nicht genutzt.

Oder der Amiga. Slow-RAM, Fast-RAM, Chip-RAM, etc. Alles nicht gerade einfach.
Also im Vergleich zu den Querelen, die ich auf dem PC später kennenlernen durfte, waren die RAM-Probleme des Amiga lächerlich gering. Es gab eigentlich nur zwei Kategorien. SLOW und FAST. Im Prinzip eine Entsprechung von der Aufteilung des Speichers mit EMM386. "Lowmem" und "extended". Allerdings war das Problem mit Kickstart 2.0 obsolet, da der Amiga dann mehr FastRAM ansprechen konnte.

Sowohl Amiga wie auch Atari ST konnten keine einfachen Auflösungen wie z.B. 640x480 mit 16 Farben darstellen.
Es gab standardmäßig keine eingebaute Festplatte. Keine Zusatzprogramme wie z.B. Write, Paintbrush, Terminal. Keine On-Line-Hilfe.
Keine Laufwerkskompression, keine Festplattendefragmentierung, kein Bildschirmschoner. Klar, man konnte sicher
alles nachkaufen wie z.B. DeluxePaint (Nur, haben in der Praxis viele Atari/Amiga-Leutchen jemals Software gekauft ?
War das damals nicht gegen den Ehrenkodex, oder so ? ;) ).
Kurzum: Mit dem nackten Gerät konnte man praktisch nichts machen, außer Spiele von Diskette booten.

Auch hier machst Du es Dir sehr, sehr einfach. Die Amigas waren zu ihrer Zeit mit zu EGA-Grafik vergleichbaren Modi durchaus auf der Höhe der Zeit. Im Gegenteil: Gerade die Amigas hatten durch ihre Grafik-Fähigkeiten noch lange nach ihrer Hoch-Zeit Einsatzszenarien im Fernseh-Umfeld. (Kleinere Fernsehsender haben sie bis Mitte/Ende der Neunziger noch für Video-Overlays und ähnliches genutzt. Unser Regionalsender war wahrscheinlich einer der letzten, die dann vor der Jahrtausendwende irgendwann umgestellt haben. :D ) VGA-Karten kamen ansatzweise bezahlbar auch erst Anfang der 1990er Jahre auf den Markt.

Auch gab es zu Amiga-Zeiten auf keinem anderen System Speicherdefrag oder Laufwerkskompression. Onlinehilfe? Für Offline-Systeme? Du verwechselst hier das Jahrzehnt. Als das alles aufkam, war der Amiga - Mitte der 90er - dann tatsächlich schon tot. Und nein, man konnte nicht nur von Diskette booten. Der Amiga hatte z.B. durchaus ein Malprogramm, eine Programmier-Umgebung und sonstige Extras. Allerdings tatsächlich rudimentär. Denn wer mit dem Amiga NICHT spielen wollte (für den Heimnutzer mit Spiele-Ambitionen war er nunmal konstruiert), sollte sich die restliche Software tatsächlich kaufen. Man wollte die Kosten nicht den Nicht-Arbeitern aufbürden. Die sollten weiterhin ein günstiges Spielesystem haben.

Was meinst Du eigentlich mit Ehrenkodex? Nur weil es unter Kids verpönt war, Spiele tatsächlich zu erwerben, galt das doch noch lange nicht für die Leute, die mit dem Ding arbeiten wollten?! o.0

Amiga hatte AutoConfig, ja. Die PCs bekamen mit den späten 80ern dann aber Aufwind.
Mit den späten, gut ausgestattenen 386ern ja, vorher waren sie hoffnungslos unterlegen.

Ab 1987 gab es dann VGA, AdLib und später mit EISA/MCA dann auch Plug&Play.
Also erstens wurde VGA 1987 grademal vorgestellt. Bezahlbar war das noch lange nicht. Und wie gut EISA/MCA funktioniert hat, lässt der Spruch "Plug and Pray" nur ansatzweise durchblicken. Weil, wenn bei den Autoconfigs was schief lief, hatte man gelitten. Besser wurde das erst, als Mitte der 90er dann Windows95 (für die x86er-Welt zumindest) erschien und eine halbwegs brauchbare UI zur Konfiguration der ganzen Sauerei anbot. Wirklich benutzbar wurde das aber erst mit Win95B.

Und ehrlich... Du vergleichst Adlib mit den Amiga-Audiofähigkeiten? :o

Die oben genannten Plattformen waren da zu Beginn der 90er praktisch schon tot. Nicht nur wegen dem PC, sondern weil die Entwicklung dort stehenblieb. Schade, eigentlich.

Da muss ich Dich enttäuschen. Die Entwicklung des Amiga ging durchaus weiter. Nur eben nicht mehr als Spiele-Plattform. Die 4000er Serie hatte durchaus ihre Nutzer und auch ich bin erst endgültig 94 umgestiegen, weil sich die Spiele tatsächlich primär dort abspielten und auch ein Amiga 1200 - als bezahlbares Modell - dann nicht mehr gegen einen sich als bezahlbar abzeichnenden 486er anstinken konnte. Amiga hat seine Plattformstabilität hier tatsächlich das Genick gebrochen.

Ich hatte einen A2000 mit 286er Bridgeboard, ein Bekannter den neu aufkommenden A1200, wieder andere stiegen gleich (also später dann halt) mit PCs ein. Ich kannte/kenne durchaus beide Welten. :)

Regards, Bigfoot29
 
Zuletzt bearbeitet:
Also IDE Kabel PATA habe ich nie verpolt. Da war immer der Nupsi drauf. Da müsste man schon viel Gewalt anwenden.

Was aber bei billigen Kabeln ging war das Kabel vom USB Header falschrum aufsetzen. Do not try this at home or at all 😄
Bei mir war das eine gleissend helle Flamme und hinterher ein winziges Loch am Header. USB war hin aber das Board funktionierte noch.
 
Bigfoot29 schrieb:
@CS74ES: Ich hatte damals ne 350MB-Platte, als ich mir mein erstes CD-Laufwerk - Doublespeed mit separater Controllerkarte - geholt habe. Es war deprimierend. Man war wieder auf Zeiten vor der Festplatte zurückgeworfen. Die Platte war nur noch ein Zwischenspeicher, um das benutzen zu können, was da grad im CD-Laufwerk liegt... ^^

Regards, Bigfoot29

Ja, sämtliche größeren Spiele konnte man gar nicht voll installieren. Videos und Musik lief alles von CD.
Ich erinnere mich an Wing Commander (Prophecy?), das hatte etliche CDs.
 
Die 68000er Rechner hatten einen entscheidenden Vorteil, zumindest beim ST: der Speicher war vollständig linear zu addressieren, sowas wie 64KB-Segmentierung und brauchten auch keine Real- und Protected-Modes, keine EMS/LIM/XMM-Memory Expander.
Als ich von Atari auf DOS ging, hatte ich dauernd irgendwelche Limits. Arrays oder Strings nicht größer als 64K, Kämpfen mit 640k abzgl. Treibern bei Kommandozeilenprogrammen. Und im Büro gabs viele Zusatztreiber im DOS-Speicher: Netzwerk (zuerst Netbeui, später TCP/IP), Treiber für Terminalemulatoren (z.B. BS2000), etc.
450k frei waren Luxus oft.

Der Nachteil war, das es nur wenig wirklich gute Spezialsoftware gab und der große Rest aus Spielen bestand. Auch die Betriebssysteme waren teilw. starke Kompromisse und zusammengeschachtelt, so dass die volle 68k-Power nicht immer zum Tragen kam.

Zurück zu Sata.
Sata Express kam einfach viel zu spät und wurde von den massiv steigenden sequentiellen Durchsätzen der NVMe-SSDs überrundet, bevor es in die Masse gehen konnte. Vom Durchsatz her limitieren da einfach die 2 Lanes. Und selbst die heutigen M.2 x4 sind eigentlich am Anschlag, so manche SSDs könnte mehr. Nur ist das Limit dort noch so hoch, dass es einfach von den Anwendungen in der Masse noch länger nicht ausbremst. Für viele Anwendungen reicht ja der Sata 6G noch gut aus, weil es oft auf Zugriffszeit und nur bei weniger Dingen auf langen, hohen seq. Durchsatz ankommt.
 
joshy337 schrieb:
Warum ? Ich höre diese Behauptung auch von ex-Amiga/Atari-Usern immer wieder.
Hatte persönlich mit 286ern/386er nie wirkliche Probleme.
Im Gegenteil, als ich mal einen Atari 520ST oder A500 ausprobierte, erschienen mir beide sehr beschränkt im Vergleich
zu einem 386SX mit DOS/Windows 3.1.

Das ist ein typischer hinkender Vergleich eines PC Fanboy Ende der 1980er

Du vergleichst einen Amiga 500 für 800 DM ernsthaft mit einem 386er der im gleichen Zeitraum nicht unter 3000 DM gekostet hat?

Ernsthaft?

Der bessere Vergleich wäre ein 286er vs Amiga 2000 oder ein 386er vs Amiga 3000. Natürlich mit Harddisk und 2 bis 8MB RAM.

Diese Kisten waren dem DOS Rotz der 1980er definitiv haushoch überlegen.

Das gleiche gilt für Atari Mega ST.

Das die PC mit Windows 3.1. dann endlich aufgeschlossen haben und zeitgleich sehr viel mehr Software für Windows auf den Markt kam, hat Anfang der 1990er die schlecht gemanagten Mitbewerber ins aus katapultiert. Die Stärke von Microsoft war durch die Schwäche der Konkurrenz begründet, nicht durch sonderlich gute Produkte.
 
Die Flachbandkabel haben mich eigentlich nie großartig gestört.
Hab die direkt immer mit Kabelbinder und Skalpell gemodded.
Nach jedem Zentimeter die Adern getrennt und mit den Kabelbindern selber "Rundkabel" fabriziert bis es fertige gab.
Aktuell hab ich in meinem betagten AM3-X6 System noch die 2 optischen Laufwerke (DVD-RW und DVD-Rom) an PATA hängen.
Der Bootvorgang verlängert sich durch den Marvell Zusatzcontroller auf dem Board zwar etwas und ein SATA Brenner kostet nur ein paar Euro, aber für die 2mal im Jahr wo ich noch einen Silberling in die Hand nehme wäre das schon rausgeworfenes Geld.
Muss wohl am steigenden Altersgeiz liegen. :D
Die erste SATA Platte war bei mir eine 160er Maxtor glaub ich.

Nett dass mich der Herr Redakteur mit der Tabelle auch wieder an diese unsägliche IBM DTLA-Serie erinnert. :mad:
Bei mir und im Freundeskreis sind gefühlt 100% dieser Platten (30 und 45GB Versionen) spätestens nach 12 Monaten über den Jordan gegangen.
Zumindest gabs dann nach einsenden der defekten innerhalb von 2-3 Wochen noch durch die Garantie abgedeckten kostenlosen Ersatz...
 
Zuletzt bearbeitet:
gustlegga schrieb:
Bei mir und im Freundeskreis sind gefühlt 100% dieser Platten (30 und 45GB Versionen) spätestens nach 12 Monaten über den Jordan gegangen.

Bei mir ist eine Western Digital Hops gegangen, mit 4 Monaten "Arbeit" drauf. (Habe damals Level für Caslte Wolfenstein und Enemy Territory gebaut). Hab sie dann in unseren Computerladen gebracht. Der meinte, wenn ich etliche 100 Euro hätte, könnten sie die Daten retten :/
 
Ja, deswegen hat IBM auch die HDD-Sparte an Hitachi verkauft, neuer Name, neues Glück. ;)

Ich meine mich zu erinnern, das beim IDE-Kabel immer die rote Ader zum Stromstecker gehörte, dort war nämlich die rote Leitung dann auf der entsprechenden Seite, so lagen die beiden paarweise beieinander.

Pins verbiegen war vor allem beim Abziehen der Stecker kein Problem, abbrechen aber schon schwierig. Da sind schon eher mal CPU-Pins beim "Gradebiegen" weg geflogen. ;)


R.
 
@CS74ES
Ja sowas ist ärgerlich...
Bei mir waren "nur" einige Kachelofenplanungen futsch abgesehen von den Emails und ein paar eigene Dateien, da ich den PC sowohl berufich als auch privat nutze.
Datenrettung war damals auch ein teurer Spaß und ist es wohl immer noch je nach Schwere des Defekts.
Ontrack hatte damals um den Jahrtausendwechsel irgendwas um 1DM pro MB glaub ich.
Backups waren oft ziemlich nervig da HDDs relativ teuer waren wenn man mehr Kapazität brauchte, und mit der dauernden CD-Brennerei lagen bald mal zig 25er Spindeln rum... RWs sind einfach zu unzuverlässig für sowas.

Die IBM DTLA Serie war damals aber berüchtigt für massenweise Ausfälle...
Bis das aber aufkam hatte aber fast jeder eine solche angeschafft da es einfach die performanteste Platte war für vernünftig Geld, wenn man keine SCSI wollte.

Vor einigen Jahren ist mir dann nur mal eine externe Seagate 1TB kaputt gegangen
Firmware Bug, bei der nach einer gewissen Anzahl an Starts ein Register überlief und die Platte nicht mehr ansprechbar war. Das es bereits ein Firmwareupdate gab hab ich dann erst eine Woche später erfahren...
("sie geht" oder "sie geht nicht" war ein geflügeltes Wort für den Namen Seagate... ^^"
Nach dem IBM Desaster bin ich dann dazu übergegangen mir einen Batchjob in einem Synchronisierungsprogramm anzulegen,
der jedes mal wenn ich am Abend die Kiste ausgemacht hab alles auf eine zweite Platte gesynct hat bevor das Programm den PC runterfuhr.
Ansonsten läuft soweit alles Problemlos.. eine alte Samsung F3 mit 500GB läuft immer noch tadellos nach 23000Stunden und 4700 Starts, die Samsung 830SSD-128GB hat immer noch knapp 100% Zustand bei 30TB geschrieben, 19k Stunden und 4200 Starts, und die 3TB Seagate IronWolf NAS Platte hat auch noch einwandfreie SMART Werte.
Trotzdem wird das ganze immer noch beinahe wöchentlich auf eine externe Platte über eSATA gesichert .
Kein Backup, kein Mitleid wie es bei c´t uplink immer so schön heisst. :)
 
Zuletzt bearbeitet:
Zwar sind HDDs und 2,5 Zoll große SSDs noch immer über die Schnittstelle angebunden
Es gibt auch 2.5" SSDs mit PCIe Anbindung, die U.2 SSDs. Die meisten sind Enterprise SSDs, aber es gibt auch die Intel 750 und Optane 900P in diesem Formfaktor.
 
Bigfoot29 schrieb:
Du vergleichst einen 2000 Mark 386SX mit DOS und Win 3.0 (Win3.1 gab es damals noch nicht) mit einem A500, der nichtmal ein Dritte kostete?
Gut, sagen wir 286er mit on-board VGA. Gabs ca. 92-93 gebraucht für 150 Mark. Firmen haben die sehr schnell ausgemustert und Spieler brauchten 32_bit für DOS4GW-Spiele. Ging mir aber nicht ums Geld.
Heute kosten gebrauchte Amigas gebraucht mehr, als damals zum Neupreis.
Sektenkult/Nostalgie eben. Wie beim Mac.

Bigfoot29 schrieb:
Sorry, aber auch da verklärst Du die Vergangenheit etwas. QEMM und Co kamen erst Mitte der 90er und war da, um bei späteren Spielen RAM aufzupolieren.
QEMM und QRAM gab es bereits in den 80ern. Damals gabs auch EMS-Karten und UMB-Karten,
so daß man EMM386 garnicht brauchte. Einige 286er konnten EMS/UMBs auch "in Hardware" über Chipsatz
verwalten (Stichwort NEAT-Chipsatz). Erst mit dem 486er (ungefähr), wurden die Mainboards wieder "dumm", da man Dank EMM386 und der paging-fähigen 386er-MMU Geld sparen konnten und die Chipsätze nicht mehr so intelligent sein mussten.
https://en.wikipedia.org/wiki/QEMM#QEMM-386_v4.2_(1988-11-22)
Bigfoot29 schrieb:
Auch sonst war es eine Qual, Spiele auf dem PC zum Laufen zu kriegen. Wir hatten separate config.ini-Settings, ob man mehr "lowmem" (unterhalb des ersten MBs) brauchte oder EMM386.sys - gab es schon deutlich früher - einbinden musste (was massiv im Lowmem Speicher kostete. Auch musste man je Spiel festlegen, welche Treiber man brauchte. CD-Treiber? Maustreiber? Soundkarte? Der Kampf um die "unteren 700kb" war unter x86 eine Qual. Und nur, weil jemand aus Redmond mal meinte, dass 640kb für ALLES reichen würden.
Ja, habe ich alles mitgemacht. War interessant, aber keine Qual für mich. Mit etwas Geduld und Besonnenheit kein Problem. Nebenbei, mir steht gerade ein 286er auf dem Tisch. Mit handoptimierter Config.sys/Autoexec.bat.
Die Soundkarte (SB2) hat Steckbrücken und braucht keine Treiber. Maustreiber ist MS-Mouse 6.24.
Plattencache brauche ich nicht. Freier konventioneller Speicher: 575KB.
Bigfoot29 schrieb:
Und mal ehrlich... Sich durch Dokus und "wildfremde Zeitschriften schlagen", um den eigenen Rechner mit einer neuen Komponente konfigurieren zu können? Nennst Du das gutes Produktdesign, wenn man sowas nötig hat?
Naja, aber das war ja bei allen Rechnern so üblich. In jedem Kiosk/Zeitschriftenladen gabs die die Hefte.
Beim Atari/Amiga wurde auch viel gebastelt, auch mit dem heißen Lötkolben.
RAM-Upgrades einlöten, OCS Chips gegen ECS tauschen, PC-Emulatoren mit Zwischensockel für M86k, Kick1.3/Kick2.x-Platinen mit Umschalter, etc.

Bigfoot29 schrieb:
Kann ich nicht viel zu sagen. Macs hab ich damals nicht genutzt.
Ich auch nicht so sehr. Nur soviel: Manche Macs waren nicht 32-Bit "clean", und konnte nicht richtig aufgerüstet werden.
http://lowendmac.com/2015/32-bit-addressing-on-older-macs/
Bigfoot29 schrieb:
Auch hier machst Du es Dir sehr, sehr einfach. Die Amigas waren zu ihrer Zeit mit zu EGA-Grafik vergleichbaren Modi durchaus auf der Höhe der Zeit.
Im Gegenteil: Gerade die Amigas hatten durch ihre Grafik-Fähigkeiten noch lange nach ihrer Hoch-Zeit Einsatzszenarien im Fernseh-Umfeld. (Kleinere Fernsehsender haben sie bis Mitte/Ende der Neunziger noch für Video-Overlays und ähnliches genutzt. Unser Regionalsender war wahrscheinlich einer der letzten, die dann vor der Jahrtausendwende irgendwann umgestellt haben. :D ) VGA-Karten kamen ansatzweise bezahlbar auch erst Anfang der 1990er Jahre auf den Markt.
EGA war nie Mainstream. Es war vergleichsweise teuer und kurzlebig. Lediglich ca. 87/88/89 gab es ein paar Clones
mit Verbesserungen, die aber eher Multi-Mode-Karten (CGA,Hercules,EGA, 16-Farben VGA-Emulation) waren. Das wird von der Amiga-Szene gerne vergessen. :)
VGA war von Beginn an als "billig" Lösung geplant.. Daher auch der Name Video Graphics Array. VGA wurde x-mal geklont und kopiert
und wurde bei sehr vielen PCs direkt aufs Mainboard verlötet. Es war kein teures Upgrade. Karten mit Chips wie Oak 67, Realtek und Trident 8900 waren sehr billig. Sogar XTs wurden nachträglich damit aufgerüstet.

Bigfoot29 schrieb:
Auch gab es zu Amiga-Zeiten auf keinem anderen System Speicherdefrag oder Laufwerkskompression. Onlinehilfe? Für Offline-Systeme? Du verwechselst hier das Jahrzehnt. Als das alles aufkam, war der Amiga - Mitte der 90er - dann tatsächlich schon tot. [..].
Die Online-Hilfe, die ich meine, hat nichts mit dem Internet bzw. Mailboxen zutun. Es handelt sich um einen alten Begriff (Online Help),
der aus dem Englischen kam aber auch bei uns hin-und-wieder als Online-Hilfe Verwendung fand.
Damals bedeutete er, dass die Hilfe im Programm eingebaut war. So wie die Windows-Hilfe in Windows 3.1/95.
https://en.wikipedia.org/wiki/Online_help

Bigfoot29 schrieb:
Was meinst Du eigentlich mit Ehrenkodex? Nur weil es unter Kids verpönt war, Spiele tatsächlich zu erwerben, galt das doch noch lange nicht für die Leute, die mit dem Ding arbeiten wollten?! o.0
War nicht ganz ernst gemeint (daher auch der Smiley). Allerdings gab es beim Amiga wohl auch sehr viele junge Scener und Spieler..

Apropos Spieler: Der A500 als Spielekonsole war dort sehr erfolgreich. Trozdem bzw. genau deshalb hat dieser dem Image von Commodore als seriöser Computer-Hersteller auch geschadet, obwohl der A1000 sowie A2000 richtige, aufrüstbarere Computer waren.

In den 90ern war aus dem Amiga -leider- nurnoch eine Randerscheinung geworden. Außer Spielen und Multimediaprogrammen (Tracker, Stereoskopie, Raytracing,..) gab es kaum noch neue Amiga-Software.

Damit meine ich Software, die "normale" Menschen (Nicht-Computerfans) verwendet haben.
Buchaltung, Astronomie, Lexikon-Programme, Software für Videotheken, Elektroniksoftware (Platinen, Halbleiterdatenbank), Software für Backrezepte, Origami, Gedichte-Datenbank, Übersetzungssoftware (Deutsch-Englisch), Briefmarkenkataloge, Steuerung für die Modelleisenbahn, Scheinwerfersteuerung für die Disco, etc.
Bis ca. 90/91 gab es solche Programme von der Vielfalt her für alle Platformen. Dannach gabs praktisch nur noch Software von Amiga-Fans für Amiga-Fans.

Beste Grüße,
Joshy337

Edit: Erstes Zitat repariert.
 
Zuletzt bearbeitet:
Ralph schrieb:
Ja, deswegen hat IBM auch die HDD-Sparte an Hitachi verkauft, neuer Name, neues Glück. ;).
Ja, da war mal was, da kann ich mich auch noch dunkel dran erinnern. :D
Für mich war das Thema dann aber gegessen und hab jahrelang nur noch Maxtor gekauft.
 
Zurück
Oben