News Im Test vor 15 Jahren: Spiele profitierten nicht von Windows XP 64 Bit

Bigeagle schrieb:
Gerade Spieler sollten froh sein dass sich AMD64 durchgesetzt hat, ansonsten müsste man 32 Bit spiele auf uralter Hardware spielen damit es vernünftig läuft.

Bei Intel schon, wenn sie nicht die Lizenz von AMD bekommen hätten. :D
 
War auch beim Pentium Pro schon viel früher ein Thema.
Da liefen 16 bit Programme auch langsamer.
In meinem Umfeld kannte ich nur einen der so einen Rechner besaß.
Und dieser machte nur AutoCAD darauf. Quasi eine Workstation für genau 1 Anwendung.
 
borizb schrieb:
Ich glaube das war so der zentrale Punkt bei 64 Bit, genau wie bei 32 Bit in der Anfangszeit:
Es hat für 99% der User in den ersten Monaten oder besser gesagt Jahren keine Vorteile gebracht.
Ich frage mich wie es in 50 Jahren wird bei der Umstellung auf 128 Bit :D
die nächste Generation sollten doch Quantencomputer sein.
 
Windows XP 64 war gar nicht so schlecht, allerdings scheiterte es meiner Meinung nach an fehlenden Treibern für Altgeräte und Softwaresupport. Auch die Grafiktreiber waren lange Zeit geringfügig langsamer so das sich wirkliche Vorteile nicht zeigen konnten.
Desweiteren haben auch Kopierschütze das Leben schwer gemacht wenn die gar nicht erst (richtig) liefen.

Dann kam noch hinzu das zu den Anfangszeiten nicht jeder Rechner über ausreichend RAM verfügte um den Speicherbonus nutzen zu können. Und selbst wenn der Speicher da war dann gab es leider zu wenige Anwendungen insbesondere Spiele die das nutzten.
Ansonsten war die Umgebung voll lauffähig und der Unterschied kaum zu sehen.
 
cbtestarossa schrieb:
Ja tut es. Starte mal CMD und daraus ein altes Dos Programm.
Du kannst auch direkt eine Verknüpfung zu diesem Programm anlegen und dann gewisse Eigenschaften zuteilen.
Das ging sogar schon mit Win95.

Und selbst im DOS Text Modus gibt es verschiedene Text Modis.
zb statt 25 Zeilen dann 43 Zeilen (EGA Lines)
Konnte sogar schon Norton Commander selbst umschalten.

Und da du nicht mal weißt was der DOS Grafikmode ist empfehle ich dir das selbst zu ergoogeln.
Aber einfacher ausgedrückt. Spiele sind zb. so etwas.

Und dann schau dir auch gleich noch an was VESA Modis und VGA Text Modis sind.


Itanium war selbst nicht mal zu 32bit x86 Hardware kompatibel und diese 32bit Programme liefen schnarchlahm durch Firmware Emulation.
Darum lizensierte Intel dann auch AMDs Lösung.
Im Gegenzug bekam dann AMD wenn mich nicht alles täuscht von Intel Dinge wie SSE.

Die Welt war nicht bereit alles über Bord zu werfen was es bereits gab.
Das musste selbst Intel erkennen.
Damals waren auch die CPUs noch nicht so leistungsfähig dass man sagte naja bisschen langsamer nehm ich in Kauf.

War auch bei IBMs Microchannel so.
Keiner machte mit und das Ende kennen wir ja.
Google hab ich erfolglos bemüht. Ich bin mit DOS aufgewachsen und kenne u.a. auch noch Qbasic. Auch das zusammengeschrumpfte CMD-Fenster ist mir bestens bekannt. Aber die Modi waren mir egal. Hauptsache Norton Commander funktionierte und meine Spiele. Ob das jetzt Text oder Grafikmodi bzw. VESA oder wie auch immer war -> war mir damals egal und heute umso mehr.

Und wann ia64 nun rauskam ist jetzt auch egal. Jedenfalls gab es dafür auch eine WinXP 64Bit Edition.

Und wie sich rausstellte, hat MS mit Win10 die 16Bit-Unterstützung noch nicht aufgegeben.
 
lowrider20 schrieb:
Die 8086 rechneten zwar intern mit 16Bit, nach außen gings aber nur mit 8Bit. Aber ja, es ist 16Bit.
Das war der 8088er

Der 8086er war ein reiner 16bit Prozessor mit 20bit Adressbus um 1 MByte Ram adressieren zu können.
Wobei das noch umständlich mit Segment:Offset Adresse zweigeteilt angesprochen wurde.

Beim 386er wiederholte sich das Spiel.
Der 80386DX kann 4 GB, der 386SX nur 16 MB adressieren.
Beide sind intern aber echte 32bit CPUs

p.s. Der c64 war eine 8bit CPU mit 16bit Adressbus um 64KByte adressieren zu können.
 
wann hat eigentlich das mit diesen mebi- und gibibyte angefangen?

seit ich denken konnte war 1 Megabyte (MB, mb, MByte, mB) immer 1024 Kilobyte (KB, kb, Kbyte, kB). auf einmal wurde aus einem megabyte dann 1000 kilobyte und aus einem kilobyte 1000 byte und das eigentliche megabyte wurde in mebibyte umbenannt...
 
Mickey Cohen schrieb:
wann hat eigentlich das mit diesen mebi- und gibibyte angefangen?

seit ich denken konnte war 1 Megabyte (MB, mb, MByte, mB) immer 1024 Kilobyte (KB, kb, Kbyte, kB). auf einmal wurde aus einem megabyte dann 1000 kilobyte und aus einem kilobyte 1000 byte und das eigentliche megabyte wurde in mebibyte umbenannt...
Weil Kilo, Mega, usw. eigentlich 1000er Prefixe (Basis 10) und damit falsch sind, wenn man eigentlich die 1024er Umrechnung meint. Deswegen wurde ..bi- als Binärprefix (Basis 2) eingeführt. Daher wird dir das Platz von Datenträgern in Windows (rechnet mit 1024 um) auch "kleiner" angezeigt als es in den techn. Daten (rechnen mit 1000 um) steht.
Umbenannt wurde da eigentlich nichts, nur ein Prefix eingeführt, dass der binären Rechenweise von Computern entspricht.
 
  • Gefällt mir
Reaktionen: cbtestarossa, Ned Flanders und new Account()
lowrider20 schrieb:
Ich bin mit DOS aufgewachsen. Aber die Modi waren mir egal.
Ich habe mich zwangsläufig damit befasst da ich sowohl Programme im DOS Text- als auch im Grafikmode schrieb.
Selbst noch unter Win98 kam es manchmal noch vor dass ich schnell etwas bastelte.
Ein Programm war zb. dass ich den Teletext aus meiner Videokarte auslas und danach mit einem eigenen Programm konvertierte und filterte.

Aber selbst im Grafikmode gab es noch einiges was ich schrieb. Barcode Generator war zB. so etwas.
Machte auch Spaß und war einfacher als Borland Pascal für Windows oder Delphi.
Alleine die elendlangen Bezeichnungen für Befehle waren mir da schon ein Graus.

C hasste ich schon damals und tue es heute noch.
Basic geht auch noch zur Not da ich damit am ZX81 und C64 anfing zu programmieren.
Und geil war auch wenn man noch Assembler Routinen verwendete die das Program dann noch extra beschleunigten.
Auch gab es schon immer Compiler die noch etwas mehr Speed herausholten.

lowrider20 schrieb:
Google hab ich erfolglos bemüht.
https://en.wikipedia.org/wiki/VGA-compatible_text_mode
https://en.wikipedia.org/wiki/Text_mode
https://de.wikipedia.org/wiki/Video_Graphics_Array
https://de.wikipedia.org/wiki/VESA_BIOS_Extension

Dafür brauchte ich exakt 1 Minute suchen und hier reinkopieren.
 
Zuletzt bearbeitet:
Es ist zwar korrekt das der 64 Bit Support keine zusätzliche Leistung brachte aber das hat natürlich auch eine sehr einfache Ursache. Die Spiele wurden für die 32 Bit Beschränkungen entwickelt und so brachte der gräßere Speicherbereich keine Vorteile. Die Übergangszeit fing erst deutlich später an und da konnte man bei einigen Spielen durchaus Unterschiede erkennen denn die 64Bit Version lief dann nicht selten ein gutes Stück runder. Ich glaube Rage war bei mir so ein Kandidat, ein später erschienendes Spiel mit der gleichen Engine kam dann nur noch in der 64 Bit Version auf den Markt.

Genau das ist auch das Hauptproblem bei der Geschichte. Wird das Spiel für den kleineren Speicherbereich der 32 Bit Version entwickelt bringt ein 64 Bit OS keine wirklichen Vorteile, nutzt es hingegen den größeren Speicherbereich des 64 Bit OS gibt es praktisch kein zurück.
 
  • Gefällt mir
Reaktionen: konkretor und cbtestarossa
@Wadenbeisser

Wobei man auch sagen könnte dass durch die 32bit Beschränkung die Entwickler vielleicht noch gezwungen waren ihre Spiele etwas besser zu optimieren.

Gutes Beispiel war damals ELITE wo um jedes Bit gekämpft und so gut wie jeder Trick angewandt wurde um es auf den alten 8bit Rechnern mit max. 64KB RAM lauffähig zu bekommen.

Mit 64bit könnte dann wieder der altbewährte Schlendrian einziehen und die Hardware Vorraussetzungen ins Gigantische wachsen lassen.

@lowrider20

Ist eh egal. Nun hast du die Links und kannst dich schlauer machen.
 
@cbtestarossa
Machen wir uns nichts vor, die Zeiten der ernsthaften Optimierungen sind schon lange vorbei.
Dabei ging es seinerzeit auch eher darum das maximum aus der Leistung der verfügbaren Hardware raus zu holen aber seitdem die Leistung der Hardware der Software meilenweit davon gelaufen ist wird darin kaum noch investiert sondern legt sie so aus das es bei den meisten gut genug läuft.
 
  • Gefällt mir
Reaktionen: konkretor
@Wadenbeisser

Ja ausser bei Freeware-, Hobby- oder Community Projekten.
Bei den großen Firmen wird nur noch gespart.
Möchte ungern in dieser Branche als Programmierer oder Designer tätig sein.
Schlechte Bezahlung ist noch ein zusätzlicher Grund.

Aber die Industrie ist auch gut darin sich solche Leute heranzuzüchten und gleichzuschalten.
Heutzutage muss du austauschbar sein. Erst dann kann man Druck auf dich ausüben.
Übrig bleibt meist Mittelmäßigkeit in allen Breichen inkl des Produktes selbst.
Oder ein Klon eines Klones eines Klones.
 
Zuletzt bearbeitet:
cbtestarossa schrieb:
Ich habe mich zwangsläufig damit befasst da ich sowohl Programme im DOS Text- als auch im Grafikmode schrieb.
Selbst noch unter Win98 kam es manchmal noch vor dass ich schnell etwas bastelte.
Ein Programm war zb. dass ich den Teletext aus meiner Videokarte auslas und danach mit einem eigenen Programm konvertierte und filterte.

Kann mich noch dran erinnern, damals in DOS den Speicher einer Hercules-Grafikkarte (286er + sw-Monitor) als Ram-Disk genutzt zu haben. Hatte was von einer mini-SSD und brachte gegenüber der HDD entsprechende Vorteile.

Diese 'kleinen Programme' waren/sind sehr hilfreich.

Angefangen hat es ua mit einem Vokabeltrainer beim C64 für Latein. Daten wurden auf Datasette gesichert. :-)

Das waren noch Zeiten.
 
@cbtestarossa

Selbst da, am offensichtlichsten ist es doch beim Multicore Support.
Lieber begnügt man sich selbst bei limitierenden Programmen damit nur einen Bruchteil der verfügbaren Rechenleistung zu nutzen als ernsthaft in Optimierung zu investieren und die vorgeschobene Rechtfertigung ist seit fast 20 Jahren immer die gleiche. "nicht alles ist parallelisierbar"
Schon eigenartig das dennoch immer mehr Kerne nutzbar wurden. Es ist für mich offensichtlich das erheblich an der Weiterbildung gespart wird und selbst ausgetretene Pfande bis vor dem Kollaps weiter ausgelatscht werden.
 
Ja oder die Engines selbst müssten schon mehr Features bieten.
Oder bei Compilern die das irgendwie selbständig verteilen und optimieren könnem.
Was weiß ich was man noch alles machen könnte um das alles zu vereinfachen.
 
mibbio schrieb:
Weil Kilo, Mega, usw. eigentlich 1000er Prefixe (Basis 10) und damit falsch sind, wenn man eigentlich die 1024er Umrechnung meint. Deswegen wurde ..bi- als Binärprefix (Basis 2) eingeführt. Daher wird dir das Platz von Datenträgern in Windows (rechnet mit 1024 um) auch "kleiner" angezeigt als es in den techn. Daten (rechnen mit 1000 um) steht.
Umbenannt wurde da eigentlich nichts, nur ein Prefix eingeführt, dass der binären Rechenweise von Computern entspricht.

ich bin mir sicher, vor 10 jahren hat jeder unter megabyte noch 1024^2 byte verstanden. nur (und nur) bei massenspeichern und internetvolumen wird die 1000er potenz verwendet (da, wo es für die hersteller oder provider günstig ist, welch wunder)

arbeitsspeicher wird ja auch noch nach wie vor in gigabyte angegeben. meine 16gb ram sind 16 * 1024^3 byte und nicht 16 * 1000^3 byte. da spricht niemand von gibibyte.

nur weil die massenspeicherhersteller die konvention, dass man die präfixe zu byte halt eben nicht anhand 1000er-basen bestimmt halt mal in vermutlich mehr oder weniger betrügerischer absicht ignoriert haben muss msn sich diese kacke jetzt geben?
 
Gerade bei Spielen ist das extrem, siehe DirectX.
Früher kamen in deutlich kürzeren Intervallen neue Versionen raus die dann auch in kurzer Zeit in den Spielen umgesetzt wurden. DX12 ist seit 5 Jahren raus und dennoch wird hauptsächlich auf die deutlich älteren Vorgänger gesetzt. Selbst DX9C kommt noch zum Einsatz....die API ist über 15 Jahre alt.
Mit dem DirectX Rumgemurkse ab Vista, um darüber die Betriebssysteme in den Markt zu drücken, fing die Stagnation meiner Meinung nach erst so richtig an. Überhaupt hat sich die Qualität der Software nochmal massiv verschlechtert seit Gaming zum Massenmarkt wurde. Es gibt halt immer genug Leute die selbst den Schrott kaufen solange er in ist.
 
  • Gefällt mir
Reaktionen: adius
@Mickey Cohen Naja, man hätte eigentlich gar nicht erst die 1000er-Prefixe nehmen dürfen, wenn man Werte angibt, die auf binärer Zählweise basieren. Die jetzige Verwirrung ist ja gerade dadurch entstanden, weil man versucht hat, nachträglich "korrekte" Prefixe einzuführen, nachdem sich die "falschen" eingebürgert haben.
 
Zurück
Oben