Sind Computerspiele wirklich noch Technologietreiber?

fanatiXalpha

Fleet Admiral
Registriert
Aug. 2011
Beiträge
13.558
Anstoß dazu war folgender Artikel den ich zufällig in der VDI meines Vaters gelesen hatte: https://www.vdi-nachrichten.com/Technik-Gesellschaft/Computerspiele-Technologietreiber

Eingans wurde als Beispiel Chris Roberts "Wing Commander 3" genannt, welches dem CD bzw. später DVD-Laufwerk den Weg als Datenträger ebnete.
Ob das wirklich so ausschlaggeben ist/war weiß ich ehrlich gesagt nicht. War ja nicht meine Zeit.

Dann wird folgendes geschrieben:
Spiele sind die Anwendungen für einen Computer, die am meisten Leistung erfordern. [...] In Computerspielen hingegen zählen aufwendige Fließkomma-Berechnungen, die Übertragung großer Datenmengen, eine anspruchsvolle 3-D-Grafik, Musik und Sound in DVD-Qualität. Bei Mehrspielerverbindungen müssen vielfach pro Sekunde die Positionsdaten Tausender Teilnehmer ausgewertet und miteinander abgeglichen werden – das erfordert eine enorme Rechenkapazität sowie die Notwendigkeit, viele Aufgaben gleichzeitig zu erledigen: Ohne Computer mit Mehrkernprozessoren geht nichts mehr.
Das mit "am meisten" würde ich persönlich durch "mit am meisten" oder sowas ersetzen.
Egal. Was ich hier bei der Textpassage nicht so ganz weiß, da ich zu wenig in der Materie bin, ist, ob dem wirklich so ist.
Ich bin schon etwas länger eher der Meinung, dass einfach die Software nicht bis ins letzte optimiert ist. Ist ja auch keine professionelle Anwendung oder dergleichen (e-Sport mal ausgenommen ;) ).
Dementsprechend dürfte da ja noch Luft nach oben sein, wobei man halt nicht weiß wie viel (zumindest nicht ich^^).
Dennoch, grundlegend kann ich dem hier irgendwo schon etwas zu stimmen.

Computerspiele haben auch die Verbreitung optischer Mäuse vorangetrieben. Schnelle 3-D-Shooter benötigen ein Maß an Geschwindigkeit und Präzision, mit dem mechanische Kugelmäuse überfordert waren – in Computerspiel-Ligen, in denen teilweise um viel echtes Geld gespielt wird, gilt es, rasend schnell und millimetergenau bestimmte Punkte auf dem Monitor anklicken zu können.
Ob Computerspiele wirklich für den Umschwung von mechanisch auf optisch verantwortlich waren vermag ich hier überhaupt nicht zu sagen. Zudem hatte ich den Eindruck, dass da aktuell nichts mehr großes kommt (also keine großen Verbesserungen o.ä.).
Die Vorteile einer optischen Maus liegen nicht nur in dem im Artikel genanntem finde ich.

Und hier ein Absatz, dem ich persönlich irgendwie nicht so wirklich zustimmen konnte:
Nicht zuletzt besitzen Computerspiele als Technologietreiber für die Unterhaltungsbranche ein hohes Anschubpotenzial. So trieben vor allem Computerspiele die Auflösung von Monitoren und Fernsehern hoch – vom VGA-Modus, der Mitte der 90er-Jahre 640 x 480 Bildpunkten darstellen konnte, auf mittlerweile „4K“-Auflösungen mit 4096 x 3072 Bildpunkten – das bedeutet, dass gleichzeitig 12,6 Mio. unterschiedlich eingefärbte Punkte ausgegeben werden.
Gerade bei der Auflösung profitiert erstens der professionelle Sektor (CAD, Videoschnitt, Bildbearbeitung und vllt. noch anderes was mir nicht einfällt) mindestens genauso wenn nicht sogar mehr. Und zudem ist es dort wesentlich einfacher um zu setzen, zumindest hinsichtlich des Budgets. Wie es bei der Leistung aussieht, da muss ich eherlich eingestehen, hab ich mich noch nicht informiert. Also ob bzw. wieviel das ein und das selbe CAD-Modell auf einer höheren Auflösung an Leistung frisst.


Grundlegend, so hab ich ja auch den Titel verfasst, geht es mir um die Frage, ob Computerspiele wirklich noch Technologietreibend sind. Problem hierbei ist: wenn in der Industrie irgendwie etwas entwickelt wird, genutzt wird usw. bekomme ich das als Privatperson nicht immer mit, sofern ich da jetzt nicht in dem Bereich arbeite oder so.
Ich finde, das Computerspiele zwar schon irgendwo pushen, aber nur in begrenztem Maße. Inbesondere das schon vorhin angesprochene Budget macht hier des öfteren einen Strich durch die Rechnung und somit kann es sein, dass es ungemein länger dauert, bis sich mal etwas durchsetzt als wenn es was mit der Industrie zu tun hat.

Ein Beispiel was mir so in den Sinn kam:
Wir haben bei uns an der Hochschule einen Fahrsimulator. Das ist ein ausrangiertet Smart und vorne halt drei große Monitore. Zumindest hatte ich das noch so in Erinnerung. Dann hatte ich zu dem Zeitpunkt irgendwie auf ne Meldung von VR (ich glaub das war die Occulus) und im Prinzip wäre es eigentlich wesentlich besser, statt der drei Monitore einfach eine VR-Brille zu nehmen.
Die Immersion in die Simulation dürfte hier weit aus größer sein.
Ein weiteres Anwendugsfeld wäre auch zum Beispiel die Automobilindustrie. Wenn man jetzt zum Beispiel die Nutzung von Bedienelementen und deren Anordnung sowie andere Sachen (optischer Eindruck vom Interieur eines Wagens vom Tester)testet, dann ist man theo. nicht mehr gezwungen direkt einen Prototyp zu entwickeln sondern kann sich eines "Gerüsts" bedienen, welches man einfach anpassen und verändern kann. Mit der VR wird dann eben über das Gerüst eine Oberfläche usw. gelegt, sodass das nachher für den Tester so aussieht, als säße er in einem schon fertigen Wagen usw.
Einfach wegen der Immersion.
Naja, so ein Hirngespinst von mir :D


So, jetzt mal her mit eurer Meinung, vor allem eurer persönlichen Erfahrung und insbesondere auch der Richtigstellung von Dingen die ich geschrieben hab und falsch sind oder Erklärung von Gegebenheiten.
Und eben insbesondere zum Thema ;)

Ach ja, bitte bleibt bei einem freundlichen Umgangston. Beleidungen dulde ich nicht (bin zwar kein Mod, aber ich hab hier kein Problem was zu melden).
Zudem sollte das nachher auch nicht in einer Flame-War o.ä. ausbrechen.
Also bleibt bitte gesittet und lasst nicht die gute Kinderstube daheim (was eigentlich blödsinnig ist wenn ihr daheim vorm Rechner hockt :D)
 
Es ist zwar "absurd" aber, die ganzen neuen Radeons werden wohl die meisten in ner Bitcoin-Farm enden.
 
Also ich kann die These nur Unterstützen. Es sind u.a. auch Computerspiele verantwortlich dafür, dass neue Technologien entwickelt werden und auch für die Geschwindigkeit der Neuerungen sind sie ein Treiber. Es muss dabei ja auch beachtet werden, dass auch in Spielekonsolen mit zu den Nutznießer bzw. Treiber gehören.

Bsp. Ich hab mein ersten PC nur mit einem double-Speed CD Laufwerk aufgerüstet, da nach und nach bei den PC Zeitschriften auch CDs beilagen mit aktuellen Computerspieldemos. Auch gab es dann die ersten Spiele auf CD und nicht mehr auf Diskette. (Beispiel Command & Conquer) Auch meine Grafikkarte habe ich von einer 512KB VGA Karte mit 256 Farben dann aufgerüstet auf eine 1MB SVGA Karte mit 16bit Farbunterstützung.
Und über die Jahre kann ich zumindest bei mir beobachten, dass ich alle paar Jahre mein PC aufrüste/neu kaufe - um die neusten Games zu zocken.
 
Und über die Jahre kann ich zumindest bei mir beobachten, dass ich alle paar Jahre mein PC aufrüste/neu kaufe - um die neusten Games zu zocken.
ja, aber das liegt ja nur dem zugrunde, dass die Leistungsanforderung steigt
aber es geht mir hier ja mehr um wirklich neue Technologien, die durch die Computerspiele erst wirklich möglich gemacht wurden.
Blu-Ray hat bspw. nicht die DVD abgelöst beim Medium. Ob das noch kommt ist fraglich.
Eher irgendein anderes Medium. Weil Internet alleine ist doch noch zu oft zu langsam.
 
Du musst ja nur mal schauen, welche Technologien die Grafikkarten unterstützen. Mit den Berechnungen von Dreiecken angefangen. Auch der Sprung von 256 Farben zu 16bit Farbtiefe war sehr groß. Man sieht es aber auch heute, vergleich doch nur mal Spiele mit unterschiedlichen DirectX Versionen. Neue Befehlsstrukturen bringen neue Möglichkeiten für die Entwickler, welche diese dann auch nutzen.

BlueRays wurden aber auch nicht primär für den Spielemarkt entwickelt sondern um HD Filme speichern zu können. Anders aber Soundkarten mit 5.1 Unterstützung. Wenn ich meine Soundblaster Karte mit meiner aktuellen X-Fi vergleiche liegen da Welten dazwischen. Natürlich wecken die Midi Sounds ein gewisses Nostalgie Gefühl in mir - aber in aktuellen Shootern möchte ich die 5.1 Unterstützung nicht missen. ;)
 
fanatiXalpha schrieb:
naja, ich dachte der Bitcoin-Zug ist doch eh schon wieder abgefahren

Der ist hier in DE schon abgefahren das stimmt, aber in anderen Ländern gehts weiter ;)

http://coinpolice.com/gpu/

Genutzt werden die GPUs aber dennoch, weis nicht wie rentabel das aber ist, wohl überall verschieden, wird der Strompreis regeln : D
 
fanatiXalpha schrieb:
Wie es bei der Leistung aussieht, da muss ich eherlich eingestehen, hab ich mich noch nicht informiert. Also ob bzw. wieviel das ein und das selbe CAD-Modell auf einer höheren Auflösung an Leistung frisst.
Das 3D Modell selbst nicht, denn das sind Vektoren, die man nicht in Pixeln misst. Aber das rendern wird dementsprechend ca 4x so lange brauchen. Wenn man heute eine 5 Sekunden lange Hollywood-Film Szene in 1080p mit 100 Servern in einer Nacht berechnen lassen konnte, brauch man bei 4k 400 Server für die gleiche Zeit oder 4x schnellere oder eben 4 Nächte, bis man sich die 5 Sekunden dann mal anschauen kann...
 
Aber das rendern wird dementsprechend ca 4x so lange brauchen
Wieso sollte das rendern 4x mal so lange dauern
ich glaub ich hab verpennt mich da korrekt aus zu drücken
im Falle von Videobearbeitung meinte ich es so:
du hast einen 4k-Film (nehmen wir mal den Hobbit)
und dann bearbeitest du ihn einmal unter FullHD und einmal direkt unter 4k oder meinetwegen 5k
warum würde dass dann 4x mal so lange dauern ihn zu bearbeiten.
Die Datei ist ja die gleiche. Nur dass ich bei FullHD das nicht in der eigentlichen Größe hab
oder lieg ich da falsch?

@emeraldine: ja gut, das mit dem Stromverbrauch war mir irgendwo auch klar
aber die ASICs sind doch nicht nur stromsparender sondern auch schneller, oder?

@_killy_:
puh, okay
so gesehen irgendwo schon
aber es ist recht beschränkt, oder?
also Computerspiele sind Technologietreiber, aber eben nur oder eher nur Technologien, die dann eben im Bereich der Computerspiele sind
 
Zuletzt bearbeitet:
@fanatiXalpha
Ich bin schon etwas länger eher der Meinung, dass einfach die Software nicht bis ins letzte optimiert ist. Ist ja auch keine professionelle Anwendung oder dergleichen. Dementsprechend dürfte da ja noch Luft nach oben sein, wobei man halt nicht weiß wie viel (zumindest nicht ich^^).
Siehe die Konsolen. Mit einer Konsole wird das Spiel rund um die Konsole gebaut, damit das Spiel ruckelfrei sowie Spielmechanisch einwandfrei funktioniert. Es wird abgestimmt. Bei Computerhardware hat jede Wurst einen eigenen Computer mit Grafikkarte und Prozessor und will für SEINE Hardware die maximale Leistung haben. Das so etwas nicht funktioniert wird einleuchtend sein, auch meint dann jeder Hunz und Kunz, er könne mit seiner Hardware genau DIESES Spiel mit DIESEN Einstellungen spielen. Auch das ist nicht möglich, es macht sich aber kaum einer die Mühe, in einem Spiel erst einmal 100 Tests zu machen, wie es optimal laufen KANN. Und daher sind Konsolen bei Spielen eigentlich besser, da es abgestimmt ist. (leider haben die keine Tastatur mit WASD und ne Maus) Die Software KANN also gar nicht optimal hergestellt werden aufgrund der Fülle an Hardware.

Computerspiele haben auch die Verbreitung optischer Mäuse vorangetrieben. Schnelle 3-D-Shooter benötigen ein Maß an Geschwindigkeit und Präzision, mit dem mechanische Kugelmäuse überfordert waren – in Computerspiel-Ligen, in denen teilweise um viel echtes Geld gespielt wird, gilt es, rasend schnell und millimetergenau bestimmte Punkte auf dem Monitor anklicken zu können.
Das mit den Mäusen mag stimmen, ich erinnere mich aber an folgendes: Damals, als ich noch jung war, haben wir 3-D Shooter gespielt. Ich mit einer billigen Aldi-Laser-Maus (die im übrigen immer noch funktioniert) von 30€ und als Mauspad ein Stück Pappe von einem Schreibblock. Neben mir der Super-Nerdi mit einer Razor-XY und Klickibunti Aufklebern, Super-Duper-Zusatztasten, eine Tastatur von Logitech mit 20 Zusatztasten, dazu einen Computer mit einem Bling-Bling-Gehäuse und Ausstattung für 1500€. Er kam dennoch nicht an mich ran. Es liegt nicht an dem, was man an Hardware im und am Computer hat, sondern auch, wer davor sitzt.

Vorher gab es noch CRT Monitore. Ich hatte einen damals sehr teuren mit Trinitron Bildröhre und 100Hz. Der Vergleich zu einer Standard-Bildröhre mit 85Hz oder dergleichen war wie Tag und Nacht. Ebenso der Unterschied zwischen billigen Kopfhörern für 20€ und einem Headset von Sennheiser (7 Jahre gehalten; 50€), bei dem man einfach mehr hört.

Selbst bei einfachen Spielen wie damals Team Fortress Classic war ein Unterschied auszumachen. Aber es nützt die Beste Hardware nichts, wenn der davor ne taube Nuss war.

Später dann, als wirklich nur noch das Zusammenspiel von teurer Hardware gleichbedeutend mit den Fähigkeiten der Nutzer war, da habe ich gemerkt was läuft und aufgehört Hardware zu kaufen. Damals begann es auch, dass Spiele im monatlichen Abo erhältlich wurden, wie Warcraft etc. So etwas wollte ich als Spieler niemals haben und habe daraufhin aufgehört.

Dennoch hat es in der Zeit unmengen an Hardware gegeben, auch die ich gekauft habe, ohne Spiele wäre das niemals geschehen. Heute trauer ich nicht um das Geld, es hat mir immerhin Freude gebracht, dennoch muss ich sagen, dass ich einiges hätte lieber anderweitig investiert, in Möbel etc. würde ich heute noch drauf sitzen.

In der heutigen Zeit springe ich dem Hype nicht mehr hinterher und seitdem so ist, gehts auch besser.

PS: Und demnächst wird ein Holzherd für die Küche gekauft. Das Alte ist manchmal doch brauchbarer als das neue Zeug. ;)

PPS: Und Office, Surfen, E-Mail, das schafft auch ne alte Gurke noch. Da braucht man keinen neuen PC mit Klickibunti-Windows. Man muss sich eigentlich nur klarmachen was man tatsächlich braucht und haben will.
 
fanatiXalpha schrieb:
ASICs sind doch nicht nur stromsparender sondern auch schneller, oder?

Selbstverständlich, aber nicht günstiger in der Anschaffung wie GPUs, da wartet man paar Monate dann kann man günstig nachrüsten.
Die ASICs sind laut dem Link da oben vor mir nicht sehr verbreitet.

ok, ich würde mal sagen, wenn man mit GPUs nicht zocken könnte, würde sich keiner überlegen sich ne GPU zum "Mining" zu kaufen. 50:50
 
Zuletzt bearbeitet von einem Moderator:
Computerspiele sind Technologietreiber soweit es die für die Spiele notwendige Hardware betrifft, das wären hauptsächlich Hauptprozessor und Grafikkarte.

Wobei Grafikkarte in erster Linie im Sinne von immer weiter steigender Leistung, nicht im Sinne von immer höheren unterstützten Auflösungen. Beispiel: 1997 gab es bereits Monitore mit 1600*1200 und auch Grafikkarten, die das unterstützten, die Standardauflösung in Spielen war aber immer noch 640*480, 3 Jahre später waren es dann immerhin schon 1024*768. In Sachen Auflösung hängen Spiele also eher anderen Anwendungen hinterher, ist ja auch kein Wunder: höhere Auflösung erfordert leistungsstärkere Hardware, folglich ist man als Spieleentwickler eher bemüht, so lange wie möglich (sprich: so lange die Kunden es akzeptieren) mit niedrigen Auflösungen auszukommen.

Dass Spiele zum Siegeszug der CDROM-Laufwerke sowie der Soundkarten beigetragen haben, waren auch eher nur Einzelereignisse: sobald beides einmal etabliert war, gab es da nichts mehr voranzutreiben. Dafür, dass das CDROM-Laufwerk schließlich vom DVD-Laufwerk abgelöst wurde, waren nicht Spiele verantwortlich (dass Spiele verstärkt auf DVD erschienen, geschah erst, als DVD-Laufwerke schon längst Standard waren), ebensowenig für die Weiterentwicklung der Soundkarte.
 
@onkelhitman:
Die Software KANN also gar nicht optimal hergestellt werden aufgrund der Fülle an Hardware.
ja, das stimmt. Aber es ist meiner Meinung noch dennoch immer noch etwas Luft nach oben als wie es jetzt ist.
*hust*Skyrim*hust*

für den Rest: ja da stimm ich dir zu
das Projekt was ich anstrebe ist das letzte Aufbäumen bis dann erstmal wieder Ruhe ist die Zeit, bis gar nichts mehr geht (5-10 Jahre)

@Sculetto:
ja, ich denke da so wie du
nicht nur hinsichtlich der Auflösung, sondern auch dem Rest.
 
Zuletzt bearbeitet:
fanatiXalpha schrieb:
Wieso sollte das rendern 4x mal so lange dauern
ich glaub ich hab verpennt mich da korrekt aus zu drücken
im Falle von Videobearbeitung meinte ich es so:
du hast einen 4k-Film (nehmen wir mal den Hobbit)
und dann bearbeitest du ihn einmal unter FullHD und einmal direkt unter 4k oder meinetwegen 5k
warum würde dass dann 4x mal so lange dauern ihn zu bearbeiten.
Die Datei ist ja die gleiche. Nur dass ich bei FullHD das nicht in der eigentlichen Größe hab
oder lieg ich da falsch?

Jain. Also nochmal von vorne. Leistungstechnisch bei 3D/CAD oder Videobearbeitung brauch man, wenn man mit 4k arbeitet auch bessere Rechenleistung/Hardware.
Die Dauer der Bearbeitung die du jetzt ansprichst, also das was der Mensch vor dem Rechner macht, ist im Grunde (fast) bei beiden Formaten gleichauf.
Aber wenn man das Video dann speichern möchte (rendern) oder während dem schneiden anschauen möchte (vorrendern), dann rendert man bei 4K eben auch 4x länger bei gleicher Hardware.

Wenn der Cutter das, was er gerade am 1080p Video gemacht hat, anschauen möchte, klickt er auf "rendern" - holt sich ein Kaffee - und wenn er zurück kommt, kann er sich seine Arbeit (Video) flüssig anschauen. Wenn er an einem 4K Video arbeitet, sollte er lieber gleich in die Mittagspause gehen oder das Ding über Nacht laufen lassen und es sich Morgens anschauen.
Bspl zu deinem Hobbit-Film: Das ist so umfangreich, dass die das Mateial über Monate hinweg von ganzen Serverfarmen berechnen lassen, damit du es dir dann flüssig im Kino anschauen kannst. Wenn man 4K hat, dauert das berechnen dieser Server also auch 4x so lange wie mit 2k, oder man baut eben bessere Server. Weswegen Spiele noch weiterhin große Technologietreiber sind, denn dort muss "live gerendert" werden und nicht Monate lang/zuvor, wie das bei Filmen der Fall ist. Je besser die Qualität und Auflösung der Spiele, desto bessere HW brauchen sie somit auch. Und da kann in Zukunft noch einiges passieren.
 
Zuletzt bearbeitet:
Autsch :D
Bin wieder ich schuld.
Sorry
Ich meinte, einmal bearbeitest du einen 4k Film auf einem FullHd Bildschirm und einmal auf einem Bildschirm mit höherer Auflösung.
Da dürfte das rendern doch beides mal gleich lang sein, oder?
Weil es ja beides mal die gleiche Datei ist mit dem gleichen Informationsgehalt
 
Was auf alle Fälle ein Argument herstellerseitig FÜR Computerspiele ist dass man damit Technologien und Entwicklungen die man eigentlich generell eh gemacht hätte weil der Massenmarkt es verlangt mit einer nicht zu unterschätzenden Marge an den Mann/Frau bringen kann.
Während das grosse Geld mit Teilen gemacht wird wo sich grosse Summen absetzten bietet der "Gamer-Markt" den Vorteil dass die Leute bereit sind für Hardware welche man Professionell entwickelt hat und danach künstlich zurechtstutzt mit einer sehr hohen Marge verkaufen kann. Graphikkarten, Mäuse etc.. alles wo speziell für Gamer entwickelt ist kann auch gern mal doppelt so viel kosten wie es eigentlich würde, die Gruppe zahlt das ja meistens gern. Ne GTX Titan für 1.000 Euro, da gibt's genug Gläubige die das gern hinblättern. Die Dafür entwickelten Workstation-Chips sind ja eh schon da, also warum nedd da noch bisse Kohle abgreifen :D

Man muss da auch viel unterscheiden, vor allem im GPU, CPU Bereich etc. wird das Geld nicht mit den Gamern verdient, so gern sie sich das auch einreden. Weder Intel, AMD oder Nvidia würde von Computerspielen leben können. Aber sie ermöglichen sicherlich eine grössere Verbreitung.
 
Wenn überhaupt unterstützen die den ewigen GraKa-Hype. Guck dir mal Hardcoregamer an - die haben so gut wie alle jedes zweite Jahr neue Teile in der Kiste.

Für CPUs gilt das imo überhaupt nicht. Die meisten Games unterstützen ja immer noch nicht alle verfügbaren Kerne der aktuellen CPUs und Mehrkerner gibt es schon verdammt lange. Zum Teil wird ja auch mittlerweile benötigte Rechenleistung schon auf die Graka ausgelagert.

Die Konsolen haben eher dazu geführt, dass die Games auf die Konsolen ausgelegt sind und werden, weil da mehr Kohle zu machen ist. Darunter leidet die Programmierung für den PC. Und manche Spiele sind eh einfach schlampig gecodet.

Und die CPU-Entwicklung - seit Sandy - stagniert eher. Das sind nur noch Optimierungsbröckchen. Und ein Wettbewerb ist dort zunächst mal nicht in Sicht AMD hat sich nicht umsonst mittlerweile in den Konsolen Bereich bewegt. Da kann man noch Taler machen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben