Wie fing das an?

doubleballend

Ensign
Registriert
Dez. 2019
Beiträge
183
und wie geht es weiter?

IT meine ich.

Hi @All und ein gutes neues Jahr.

Als ich ganz jung war, las ich Grusel-Krimis von Dan Shocker. Darin wurde immer wieder der blinde X-ray 1 und sein Gebäude umfassender Supercomputer erwähnt. Spielekonsolen waren noch alle analog.

Ich denke, der Bankensektor war zuerst dran. Bei meinem Berufsstart (Bundeswehr) 1977 hatten wir einerseits ein offline- und andererseits ein online-System.

Das offline-System hatte zu tun mit Formularen und mehrfachen Prüfungen/Unterschriften. Es war zuverlässig, vor allem weil es finanzrelevant war. Fehler von Datentypistinnen habe ich nicht erlebt

Das online-System war punktuell als Truppenversuch eingeführt worden. Manche "Älteren" warfen alles, was damit zu tun hatte unter den Schreibtisch. Mich hatte es gebockt. Fand es "geil", "Befehle" zu erteilen und damit automatisch (Support-)Listen erstellen zu lassen. Wichtig war natürlich gründliche Datenpflege. Kein Problem. Zeit und Motivation hatte ich dafür.

Nach dem "Bund" weitere Ausbildung. Datenbankprogrammierung. Lernte neben einem Großrechnersystem mit clients die ersten IBM PCs kennen. DOS und zwei Diskettenlaufwerke;)

Weiter, in der Kommunalverwaltung, herrschte noch Steinzeit. Offline alles und erst nach und nach erste PC-Technik. Die "Textmaschine" (natürlich offline) wurde nur von wenigen genutzt.

Dann überstürzte sich nach und nach alles. Jeder hatte nun einen eigenen PC. Hatte bis zu meiner vorzeitigen Pensionierung einen Job als "Anwenderbetreuer" und die "user" beschwerten sich mehrfach darüber, dass sie ihre eigentliche Aufgabe nicht mehr erfüllen können wegen der ständigen technischen Neuerungen.

Junge Leute heute sehen das anders. Sie sind mit digitaler Technik aufgewachsen und fragen sich, was in diesem Zusammenhang "Wandel" bedeuten soll. Was wohl?

Wie seht ihr das?
 
  • Gefällt mir
Reaktionen: Herdware und areiland
Der Wandel liegt da drin das die heutige Jugend gar nicht mehr weis was Hardware so ist und was sie kann.
Also die Intelligenz der Anwender wandelt sich ins Anwenden.
 
  • Gefällt mir
Reaktionen: Linuxfreakgraz, areiland, doubleballend und eine weitere Person
Lest mal die Wikiartikel zur "Analytical Engine", von dort kann man sich gut in alle Richtungen weiterlesen.
 
  • Gefällt mir
Reaktionen: doubleballend
Ist das ein reines IT Ding oder nicht eher was grundsätzliches?
Ganz provokant gesprochen ist doch alles, was immer/überall/günstig zu bekommen ist nicht mehr so spannend, dass man sich damit auseinandersetzt.

In der IT (dein Beispiel) gab es damals wenig PCs und jeder der ran gekommen ist hat sich damit auseinandergesetzt.
Gleiches gilt doch auch für Autos, Hifi oder Lebensmittel.
Irgendwann gab es Massenware, jeder kann sich heut zu Tage irgendwas in Richtung Tablet, Smartphone, PC, Laptop kaufen. Die die nichts davon haben entscheiden sich meist bewusst dagegen.
Alles was eben so einfach zu bekommen ist wird normal und das was normal ist hinterfragt man seltener und kümmert sich nicht mehr allzu sehr darum, es ist ja da und wenn es kaputt geht gibts was neues.
Wenn dann schaut man, was besseres kommt, aber eben nicht, wie es funktioniert.
Ich wage mal zu behaupten, dass kaum einer der Smartphone Nutzer Ahnung davon hat, wie sein Smartphone Funktioniert, was Widerstände, Transistoren, seltene Erden etc. sind.
Wenn es bald wieder irgendwas gibt, was ganz Neu ist dann werden sich wieder einige damit beschäftigen, Experten sein und irgendwann, wenn es sich durchsetzt, dann wird es auch wieder "normal". Es wird genutzt aber nicht mehr zwangsläufig verstanden.
 
@Millkaa ich glaube kaum das noch eine Zeit kommt wo Leute sich mit etwas so auseinandersetzen müssen um es gut zu verstehen.

Dafür wird es einfach gut erklärt und man muss es als Anwender nur noch nutzen.
 
  • Gefällt mir
Reaktionen: Millkaa
john.smiles schrieb:
Lest mal die Wikiartikel zur "Analytical Engine", von dort kann man sich gut in alle Richtungen weiterlesen.
HOCH interessant. Muss ich gleich noch einmal lesen.
(witzig: Die erste Rechenmaschine, die ich kennenlernte, hatte ein eingebautes Netzteil und für Notfälle eine Handkurbel. Niemand wollte das Teil mehr. Kein Wunder: Um eine Million durch eins zu teilen, brauchte die Maschine im Netzbetrieb über einen Tag. Kaputt gekriegt haben wir das Ding allerdings nicht und bekamen deshalb auch keinen "Elektronenrechner")
Ergänzung ()

Hi nochmal,

ich fürchte, es könnte in die falsche Richtung gehen. IT bedeutet Informationstechnik und das waren anfangs Telefonleitungen, Fernschreiber usw. Wie hies das vor Internet nochmal? Ich komme im Moment nicht darauf...
 
Zuletzt bearbeitet:
BTX ...
Arpanet..
 
BTX?
 
Habs auch grad gegoogelt:)

Mann, waren das Zeiten. Sound- oder Grafikkarte klang wie "Bahnhof"...
Ergänzung ()

xxMuahdibxx schrieb:
Der Wandel liegt da drin das die heutige Jugend gar nicht mehr weis was Hardware so ist und was sie kann.
Also die Intelligenz der Anwender wandelt sich ins Anwenden.

Stimmt:D

Mich hat auch noch nie interessiert, wie genau ein Zimmermannshammer produziert wird...:)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nciht
Ich denke auch nicht, dass es zukünftig noch einem echten Wandel geben wird. So starke Veränderungen in kurzer Zeit würden eine neue Technik bedingen; heutzutage ist aber alles nur eine Weiterentwicklung von etwas Bestehendem - Mark 2; Mark 3; ...; G2; G3; ...
Es ist sogar so, dass erst recht User, als auch Programmierer und die, die sich die Schaltpläne ausdenken, nur mit einem Teilbereich beschäftigen und nichtmal mehr das Grosse und Ganze betrachten (müssen). Das war früher meiner Meinung nach nicht der Fall. So wird man auch nichtmal im Geringsten in die Nähe eines irgendwann auftauchenden Wandels kommen. Damit meine ich, da in Zukunft alles immer grösser und umfangreicher wird, wird es auch immer schwieriger, bis hin zu unmöglich um Dinge und deren grössere Änderungen / Neuerungen / Wandel zu begreifen und eben zu erkennen.
Ergänzung ()

doubleballend schrieb:
Mich hat auch noch nie interessiert, wie genau ein Zimmermannshammer produziert wird...:)
Mich interessiert alles ... leider.
Da ging zu meinen Schuleiten ziemlich viel Zeit für das Wie und Wieso drauf, die ich lieber mit anderen Themen hätte verbringen sollen.
Einer meiner Lehrer meinte dann: ist halt so!
Mir half das aber nicht, denn ohne den Hintergrund konnte ich die Sachen nicht begreifen, die da "erklärte".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor, AlphaKaninchen, doubleballend und eine weitere Person
Darf ich eine naive Frage stellen? Um wie viel schneller ist heute ein vergleichbar günstiger Ryzen als ein i5 2500k mit damals ca. 170€?

hä?
 
Zuletzt bearbeitet:
Auffällig finde ich aber zum Beispiel auch, dass die jüngste Generation mit einem PC oftmals gar nicht richtig umgehen kann, weil privat Tablet und Smartphone meistens reichen. Hab über Bekannte schon mitbekommen, dass es an den Schulen wieder verstärkt Computerunterricht gibt. Das war zu meiner Zeit schon wieder fast ein wenig tot, weil wir das Internet ohnehin alle am PC entdeckten und deswegen recht gut mit PCs umgehen konnten. Ab und zu nochmal ne Hausaufgabe am Rechner gemacht und schon hatte man auch die Basics in Office drauf. Das muss bei jemandem der heute die Schule fertig macht, nicht zwangsläufig sein...
Denke der Bereich wird sich in Zukunft auch weiter spalten, in Leute, die es eben beruflich brauchen und sich daher auch mit PCs auskennen und andere wiederum nicht.
 
  • Gefällt mir
Reaktionen: doubleballend
IT wird immer komplexer. Irgendwann wird der Zeitpunkt kommen an dem man sich immer weiter von der Hardware entfernt hat und keiner mehr wirklich versteht wie und warum IT funktioniert.
Dann hat man die Hardwareebene, dann kommen vielleicht 10-20 andere Ebenen auf denen künstliche Intelligenzen und virtuelle Maschinen in Containern laufen, die versuchen per neuronalem Netzwerk zu interpretieren was der User genau möchte.
Am Anfang gabs Einsen und Nullen und Register zu denen die Rechenmaschine gesprungen ist wenn eine bestimmte Reihenfolge von Einsen und Nullen gelesen wurde.
Und dann haben sich die Programmiersprachen immer weiter von der Hardware entfernt. Was natürlich Vorteile hat, aber die Entwicklung wird weitergehen und die Software die der User bedient, hat immer weniger mit der eigentlichen Technologie zu tun.
Bei der Hardwareentwicklung ist es jetzt schon so, dass die Chips so komplex sind, dass kein Mensch mehr die richtig designen kann, so dass Computer das machen, z.b. bei CPUs. Irgendwann wird es so sein, dass die künstliche Intelligenz Hardware entwickelt die die künstliche Intelligenz verbessert so dass sie dann noch bessere Hardware entwickeln kann.
Und dann gibt es IT die wunderbar funktioniert und einfach zu bedienen ist, aber keiner wird mehr verstehen, warum die IT funktioniert. Und es wird auch niemand mehr in der Lage sein nachzuvollziehen wieso IT genau so funktioniert.
Programmieren wird dann in etwa so ablaufen: User: "Computer, schreibe ein Programm, das das und das kann und mach da und da buttons hin und oben links das und das Bild." Computer: "OK"

Gutes Beispiel dafür sind Quantencomputer. Wie die genau funktionieren verstehen über 99% der Bevölkerung nicht. Die Quantencomputertechnologie steckt zwar noch in den Kinderschuhen, aber irgendwann sind die überall.
Und davon wird es natürlich Nachfolgemodelle geben. Vielleicht "Hyperquantencomputer" oder "Positroniken" oder vielleicht entwickelt auch jemand künstliche Gehirne die halb organisch halb technologisch funktionieren, wer weiss. Auf jeden Fall wird IT immer komplexer werden, so dass immer weniger Menschen die Technologie dahinter verstehen werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sturmflut92
@doubleballend
Im Cinebench-Thread hat man einen ausführlichen Vergleich.
Ergänzung ()

Poati schrieb:
privat Tablet und Smartphone meistens reichen
Ich bin gerade an einem Android Tablet hier und ich mag es nicht. Ich persönlich kann nicht begreifen, wieso die Dinger so toll sein sollen. Mir feht eine richtige Tastatur, weswegen ich mich permanent vertippe, als auch eine Maus - ein BT-Tastaur hab ich zwar auch, aber das macht es nur minimal besser.
Ich werde mir also wie früher, wieder ein Notebook kaufen ... zusätzlich zu meinen PCs.

@doubleballend
Wen meinst du mit "hä?"?
Nachtrag:
OK, damit war ich gemeint. 😅
Eigentlich wollte ich noch dazu schreiben, dass mich auch die Herstellungsweise eines solchen Hammers interessiert. Es gibt nämlich die billigen aus Gusseisen und die guten geschmiedetem. Wenn man mit einem aus Guss versucht einen Nagel in die Wand zu hauen, bleibt der Nagel im Hammer stecken, anstatt in der Wand.

Nachdem ich mich also nicht mehr konzentrieren kann, sage ich gute Nacht!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: doubleballend
@doubleballend ich verstehe dich so als ob die im Folgenden verlinkte Doku genau das ist, wonach du suchst. Sie ist zwar von 1990/91 und damit schon knapp 30 Jahre alt, ist mWn aber die einzige, welche das Gesamtbild - vor allem auf ansprechendem Niveau - wiedergibt.

Und seien wir mal ehrlich - seit damals (1990/91) hat sich nicht so viel verändert, außer dass Computer generell schneller wurden, CPUs mehr Kerne bekamen, jeglicher Speicher größer wurde und damit u.a. höhere Auflösungen und feinere Grafik möglich wurden. Virtual Reality, Autonomes Fahren und Künstliche Intelligenz sind jedenfalls keine Erfindung dieses Jahrzehnts, das alles gibt es schon mind. seit den 80ern.

-> Eine Maschine verändert die Welt | Teil 1 - Wie die Computer rechnen lernten
-> Eine Maschine verändert die Welt | Teil 2 - Die Computer-Industrie entsteht
-> Eine Maschine verändert die Welt | Teil 3 - Computer für alle
-> Eine Maschine verändert die Welt | Teil 4 - Künstliche Intelligenz
-> Eine Maschine verändert die Welt | Teil 5 - Im Netz der Daten - Freiheit oder Gefahr?

(Teil 5 kannte ich bis eben selbst noch nicht... ô.O)

Klar können heutige Computer viel mehr und vor allem können sie viel benutzerfreundlicher (deppensicher) bedient werden, aber grundsätzlich ist der Stand der Dinge nach wie vor die (erweiterte oder eher ausgedehnte) John-von-Neumann-Architektur - 1945 publiziert.

von Schnitzel schrieb:
Mich interessiert alles ... leider.
Da ging zu meinen Schuleiten ziemlich viel Zeit für das Wie und Wieso drauf, die ich lieber mit anderen Themen hätte verbringen sollen.
Einer meiner Lehrer meinte dann: ist halt so!
Mir half das aber nicht, denn ohne den Hintergrund konnte ich die Sachen nicht begreifen, die da "erklärte".
Oh man...das könnte ich sein. Ich muss auch alle Hintergründe kennen, um zu verstehen, was das für einen Sinn hat oder warum das funktioniert. Mich hat das aber erst an der Uni so richtig getroffen (Schule war noch so "Aus der Hand schütteln")...da ging so viel Zeit drauf, weil ich nicht stumpf auswendig gelernt hab wie die anderen...und das auch nicht konnte! Ich kann bis heute nichts im Kopf behalten, was ich nicht grundsätzlich verstanden habe.

Da fällt mir grad ein...ich bin wohl der Antiheld im Stück Frag mich ruhig der Chefdenker...immerhin weiß ich "wie man ne Homepage verlinkt".

Viele Grüße
soggi
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor, von Schnitzel und doubleballend
von Schnitzel schrieb:
Es gibt nämlich die billigen aus Gusseisen und die guten geschmiedetem.

Du hast jene vergessen, die aus Barrenware gezogen werden. Die sind noch stabil genug, aber eben auch günstig. Aus Rohstahl geschmiedete Hämmer gibt es zwar auch noch vereinzelt, die Herstellung lohnt sich jedoch nicht wirklich. Barrenware ist günstiger und durch das Walzen ergibt sich auch eine ausreichende Härte.

Ein weiterer Vorteil ist der weichere Kern, der verhindert, daß der Kopf bricht. Gegossene Köpfe bringen das nicht.

Schmieden ist eher etwas für Klingen, wie z.B. Beile oder Äxte. Die muß man dann aber auch richtig Pflegen. Barrenware ist auch hier günstiger, bei brauchbaren Ergebnissen. Da kann man auch mal mit der Flex nachschärfen, da die Schneide eh nicht die Schärfe einer (guten) Schmiedeklinge erreichen wird und es egal ist, daß das Material spröder wird.

Eine geschmiedete Klinge schärfen ist eine langwierige Arbeit mit mehreren Arbeitsschritten. Dafür aber deutlich seltener notwendig (bei umsichtiger Anwendung des Werkzeuges. Kloppt man natürlich die Klinge auf Stein, war's das und man arbeitet die Macken stundenlang heraus).

Aber wir schweifen ab.

Der Anwender heutzutage braucht sich nicht großartig mehr damit herumzuärgern, wie etwas funktioniert. Es ist mehr Rechenleistung verfügbar, als der "normale" Anwender braucht. Das errmöglicht eine Anwendungsentwicklung aus dem Baukasten heraus (Stichwort "grafische Projektierung"), da eben genug Ressourcen vorhanden sind, den Entwurf noch einmal maschinell zu interpretieren bzw. den (letzten) Schritt, den damals der Entwickler noch leisten musste, auch maschinell ausführen zu lassen.

Der Heimanwender hat den Vorteil, daß er mit relativ wenig Kenntnissen recht viel machen kann. Auch für Unternehmen ist dies ein Vorteil. Wo man früher ein Heer von (teuren) Spezialisten brauchte für die Unterhaltung des Maschinenparks, reichen einige wenige, deren Menge man dann wieder mit günstigerem Fußvolk auffüllen kann.

Schade ist, daß es jedoch immer mehr auch in einer "Entmündigung" des Anwenders ausufert. Nicht nur, daß der Anwender aus Bequemlichkeit heraus immer weniger machen muß, teils darf er auch immer weniger bzw. hat immer seltener Zugriff auch "tiefere" Ebenen (Beispiel Android Smartphones: Standardmäßig kein Zugriff auf die Shell, und auch kein privilegiertes Nutzerkonto).

Das Microsoft in WIndows die shell noch nicht eingestampft hat, ist (angesichts der Haltung Nadellas) ein Wunder, vermutlich aber auch nur noch eine Frage der Zeit.
 
  • Gefällt mir
Reaktionen: von Schnitzel
soggi schrieb:
@doubleballend ich verstehe dich so als ob die im Folgenden verlinkte Doku genau das ist, wonach du suchst...

-> Eine Maschine verändert die Welt | Teil 5 - Im Netz der Daten - Freiheit oder Gefahr?

(Teil 5 kannte ich bis eben selbst noch nicht... ô.O)
Wäre mal ein update fällig, meine ich. :) Vielen Dank für deinen Beitrag auf jeden Fall. Beleuchtet einige Hintergründe, die allgemein (zumindest mir) nicht so geläufig sind.

Was mich interessiert, ist der viel beschworene WANDEL. Was soll das? Ich selbst habe keinen Bock auf z.B. ein smarthome.

BTW: Denke in letzter Zeit immer öfter an die ersten Perry-Rodan Hefte, wenn ich Strassenbahn fahre. Leider werden uns keine ausserirdischen Verbündete retten...
 
  • Gefällt mir
Reaktionen: soggi
doubleballend schrieb:
Ich selbst habe keinen Bock auf z.B. ein smarthome.

Na ja, ein paar Sachen kann man durchaus im Haushalt automatisieren. Smarthome ist allerdings imho der völlig falsche Ansatz, da es stets auf spezialisierte Komponenten setzt.

Der "Vorteil*)" von Smarthome-Geräten ist jedoch, daß im Prinzip das Netz von Laien betrieben werden kann (und zum Teil auch erweitert werden kann).

*) Es ist nur bedingt als Vorteil zu sehen, da der Betreiber (und ggf. auch der Planer) nicht mehr über das notwendige Fachwissen verfügen müssen, um eine solche Anlage sicher zu gestalten und zu betreiben. "Vorteil" also nur in dem Sinne, daß sich der Eigentümer die Kosten für Fachkräfte mindestens teilweise sparen kann. Also aus Blick des Eigentümers. Nicht aus fachlicher Sicht.
 
doubleballend schrieb:
Wäre mal ein update fällig, meine ich. :)
Du meinst explizit Teil 5, oder? Bin beim Ansehen heute früh eingeschlafen und kann damit diese Folge noch nicht entgültig bewerten. Am Anfang geht es ja u.a. um Onlineshopping...schon erstaunlich, dass es das vor 28 Jahren (zwei, drei Jahre vor dem WWW!) so gab.

Ansonsten ist die Doku erstaunlich aktuell, wenn man sich nicht von der alten Hardware und der überkommenen Mode (Kleidung) ablenken lässt.

doubleballend schrieb:
Was mich interessiert, ist der viel beschworene WANDEL. Was soll das? Ich selbst habe keinen Bock auf z.B. ein smarthome.
Das ist zu 98 % Buzzword-Bullshit-Bingo von Leuten, die keinen Plan haben was sie da faseln. Am liebsten kombinieren sie das noch mit Begriffen wie "Blockchain", "künstliche Intelligenz" und "Cloud". Das ist das gleiche wie damals mit dem "Web 2.0" als AJAX in Mode kam, nur zehnmal so schlimm. Ein weiterer Begriff in diese Richtung ist "Industrie 4.0". Jeder Depp schreibt und spricht von dieser Sch... ohne zu merken, dass das einfach nur hohle Worthülsen sind.

Smarthome ist in der heutigen Form totaler Müll - vorwiegend nutzlose Anwendungen mit unsicheren Geräten, die ohne die firmeneigene Cloud nicht funktionieren. Wer so einen Schrott bei sich einbaut, ist selbst schuld. Wer da was sinnvolles haben will, benötigt - wie immer - gute Kenntnisse oder zumindest das Verständnis für Technik, um sich an entsprechenden manpages abzuarbeiten.

Übrigens grad im TV gesehen...Selbstbedienungskasse im Supermarkt, Waren werden mit dem eigenen Smartphone gescannt und alle können schön Daten über einen sammeln. Dann noch ein Typ aus der Branche dieser Techniklösungen, der abfeiert wie super dieser Dreck doch ist und dass wir bald alle so bezahlen. Mal ganz von dem Privatsphäre-Leak abgesehen, dass ist der fucking Job des Supermarktes die Ware abzurechnen, vll vergeude ich noch Lebenszeit indem ich deren Arbeit mache.

Es mag ja echt Arbeiten geben, die keiner machen will und wo es eine Erlösung ist, wenn es technische Lösungen dafür gibt. Im Allgemeinen bin ich allerdings dagegen, dass Menschen durch lieblose Technik ersetzt werden und Arbeitsplätze zusammengestrichen werden unter Mehrbelastung der verbleibenden Arbeitnehmer. Das erinnert mich grad an eine Anekdote...Kumpel saß in einer Verlesung (IST - Informationssystemtechnik) in der der Prof über autonome Rettungswagen schwadronierte, wie toll das doch sei - da rief einer laut rein "Da verreck ich lieber!!!". Das ist etwa 15 Jahre her.

Viele Grüße
soggi
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: doubleballend und areiland
Zurück
Oben