Jobwechsel zur IT

dbeuebeb schrieb:
Nur programmieren halt die wenigsten Festplatten, Prozessoren, Taktgeber, Schnittstellen oder Bus-Systeme.
Wer sagt das?

dbeuebeb schrieb:
Und zu wissen, wie irgendein Prozessor aus dem Jahre 1976 aufgebaut ist, hilft dir heutzutage auch nicht mehr weiter.
Und du denkst, daß jemand, der den Z 80 nicht begreift, weiß wie der Ryzen oder i9xxx komplett funktioniert?
 
Fast niemand weiss, wie diese Prozessoren genau funktionieren und für Softwareentwicklung ist es auch grösstenteils irrelevant. Wenn ich heutzutage ein Programm schreibe, dann erwarte ich, dass dieses Programm ohne Anpassung auf allen möglichen Betriebssystemen (Linux, Windows, MacOS, ...) und Prozessorarchitekturen (x86, ARM, PowerPC, RISCV, ...) fehlerfrei funktioniert. Genau das ist mit modernen Programmiersprachen, Schnittstellen, Bibliotheken und Toolchains auch möglich.

Wenn ich das letzte bisschen Performance aus meinem Programm herauskitzeln möchte, dann muss ich genau wissen, wie irgendein Prozessor genau funktioniert (wenn ich mein Programm auf einen bestimmten Prozessortyp optimieren will). Befehle, Register, Sprungvorhersage, Pipelining, Cache und schlag mich tot. Oder auch, wenn ich einen Betriebssystemkernel oder ein Compiler Back-End schreiben will. Wobei hier auch jeweils nur geringe Teile des Codes architekturspezifisch sind. Das meiste ist generisch gehalten und funktioniert überall.
 
  • Gefällt mir
Reaktionen: RAMSoße, konkretor und new Account()
@RAMSoße:
Wer sagt, dass es in 20 Jahren ein wirklich papierloses Büro gibt? Das wird doch seit 20 Jahren behauptet, trotzdem steigt der Papierverbrauch in den Büros von Jahr zu Jahr!

Ich arbeitete mehrere Jahre für eine Firma, die Drucker und die dazugehörige Integrations-Software vertreibt und teilweise auch erarbeitet und vorhandene Software auf die jeweiligen Bedürfnisse des Kunden anpasst (Versicherungen, Autohäuser, Krankenkassen usw.); dorthin werden im Verlauf der Jahre nicht weniger, sondern immer mehr Drucker verkauft!

Natürlich werden dort wie überall im Osten von Deutschland nicht die Löhne gezahlt, die hier als vorausgesetzt gelten, von solchen Vorstellungen sollte man sich sowieso verabschieden. Wohl dem, der sich diese "Pfründe" sichern kann! Versuche doch, weiterhin auf dem Pferd mit dem hohen Lohn sitzenzubleiben, bevor es Dich (aus Altersgründen) abwirft. Dein Problem scheint eher in einer Midlife-Crisis zu bestehen.
 
Die Verischerungswirtschaft hat 2006 mit BiPro sogar eine Brancheninitiative ins Leben gerufen, um einheitliche Standards bei der Datenübermittlung für Tarifierung, Angebot und Antrag zu schaffen, um Drucker, Kopierer, Fax und Mantelbögen-Anträge mit Kohlepapier endlich weg zu bekommen. Und diese ganzen hippen Apps der Insuretechs und die Check24-KFZ-Massenvermittler dieser Welt drucken nicht mehr wirklich Kram aus. Klar sind die noch nicht zu 100% papierlos, das ist aber das mittelfristige Ziel der Versicherer und dessen angebundene Partner.
Woher ich das alle weiß? Genau DAS ist mein Job (als IT-Entwickler)... BiPro-Schnittstellen zusammen tüddeln und an unser System anbinden, inSign von i2s anbinden / f&b anbinden / gut beraten am laufen halten noch viel mehr tolles Gelumpe, was immer rangeschleppt wird, anbinden... Unsere Vertriebler arbeiten beim Kunden jetzt schon mit iPad und dem Apple Pencil... Die würden am liebsten absolut ALLES digital bekommen. Diese Berge an Papier, die da 2008 nach der VVG produziert werden mussten, will doch niemand mehr in Regalmeter voller Ordner ablegen und darin rumsuchen. Glaub mir: In der Versicherungswirtschaft stirbt das Drucken gerade einen stetigen und immer schneller werdenden Tod.
 
Zuletzt bearbeitet:
Es gibt allerdings immer noch DMS und CMS, Scanner und Drucker; viele Dokumente wie Lieferscheine mit Unterschriften und allerlei handschriftlich ausgefüllte Formulare müssen archiviert werden. Nicht alle grenzüberschreitenden Dokumente sind digital, es gibt auch noch Länder und Erdteile außerhalb der EU … glaub mir, Drucker und Scanner wird es auch in 20 Jahren noch geben. Mit manchen Außenhandelsunternehmen muss man auch heutzutage noch per Telex kommunizieren … und das per i-Telex mit zunehmender Beliebtheit, auch im Inland! Ebenso hat Telefax noch lange nicht ausgedient, auch die ausgedruckten Faxe müssen archiviert werden. Nicht jedes Unternehmen in Afrika oder Indien oder Asien hat ein Gerät, mit dem Telefaxe dokumentensicher elektronisch archiviert werden können; dessen bin ich nicht mal sicher, ob das innerhalb Deutschlands oder der EU überall der Fall ist.

Übrigens,
Nadeldrucker, die bis zu acht Durchschläge machen können, sind auf dem Vormarsch! der Brexit lässt grüßen!

https://www.tally-drucker.de/
 
Zuletzt bearbeitet:
dbeuebeb schrieb:
Kommt halt auch auf den Standort an. Irgendwo im Osten oder auf dem Land sind 40k sicher ganz gut, aber z.B. in München, Frankfurt oder Hamburg eher nicht.
Sicher ist das in den Großstädten nicht viel, aber Leben kann man davon definitiv auch. Ich wollte allerdings auch viel eher auf den Aspekt der Zielsetzung hinaus. Die "Standard"-IT-Jobs haben ja definitiv die Perspektive auf Tarifverträge und geregeltes 9to5 oder gar weniger.


ascer schrieb:
Ich z.B. bin jetzt mit 70k + Bonus in die Industrie eingestiegen (Forschung & Entwicklung im Bereich künstlicher Intelligenz / autonomes Fahren), habe davor aber auch von Bachelor bis Pausieren meiner PhD-Stelle fast 8 Jahre kaum nennenswert verdient.
dbeuebeb schrieb:
Ansonsten, klar... 8 Jahre Studium sind schon ne Ansage und da hat man sich die 70k zum Einstieg redlich verdient.
Es gibt ganz sicher auch Leute, die "eine ruhige Kugel schieben" und sehr viel verdienen. Im IT (oder eigentlich generell MINT-Bereich) sind es aber zumeist hochspezialisierte Tätigkeiten, die in den Top-Gehaltsregionen angesiedelt sind.

Für mich war es z.B. genau das richtige, ich sehe das auch eher als Berufung an und auch wenn ich durchaus mal längere Netflix-Sessions zur Entspannung benötige, bin ich eher der Typ "Workaholic":
mir wird schnell langweilig, ich brauche dauerhaft eine Beschäftigung und es muss immer eine anspruchsvolle Aufgabe sein, sonst komme ich schnell in eine "bored out"-Phase.

Das Umfeld bei solchen Tätigkeiten ist i.d.R. hochkompetitiv und zumindest bei den derzeitigen Buzzword-Themen Security/Kryptographie, Blockchain, Data Science, Robotik, Künstliche Intelligenz, ... ist es auch so, dass man nicht nur das Uni-Wissen benötigt, sondern ständig mit "cutting-edge"-Technologie zu tun hat und meistens auch derjenige ist, der neue Lösungen produzieren muss.

Damit möchte ich sagen:
ist man nicht "Einstein", überlebt man da nur, indem man relativ wenig Zeit für andere Dinge im Leben lässt.

-> Man muss das also schon wollen, es muss einen interessieren. Wenn es nur um ein hohes Gehalt geht, sind imho eher andere Berufe außerhalb von MINT angesagt.


omavoss schrieb:
Wer sagt, dass es in 20 Jahren ein wirklich papierloses Büro gibt? Das wird doch seit 20 Jahren behauptet, trotzdem steigt der Papierverbrauch in den Büros von Jahr zu Jahr!
Man benötigt jetzt nicht besonders viel Fantasie, um die Überlegenheit von "all-digital"-Lösungen zu sehen. Wann das passiert, ist damit doch eher nebensächlich. Wichtiger ist doch zu erkennen, dass das Papier keine Zukunftstechnologie ist.

Die Glaskugelspiele von vor 20 Jahren haben nur zu schnell den Triumph der Digitalisierung herbeigesehnt. Lange bevor es IoT, Internet überall, stabiles WLAN, Bluetooth, iPads und ordentliche Digitizer usw. gab.

Das einzige, was das Papier heute noch am Leben hält, sind doch Kompatibilitäts- und Preisfragen: sobald Tablets leichter, robuster und samt perfektem Digitizer (den derzeit ja ausschließlich Apple bietet) günstiger verfügbar sind, man einheitliche Standards (eine Art PDF 2.0) hat und dank Deep Learning auch eine nahtlose Übersetzung von Sprache A zu B, wird der Papiermarkt sehr, sehr schnell enorm schrumpfen.

Beim derzeitigen Stand der Technik und der Geschwindigkeit des Fortschritts glaube ich nicht, dass das mehr als 5-6 weitere Tabletgenerationen oder überhaupt ein Jahrzehnt KI-Forschung noch braucht. 20 Jahre würden mich stark wundern.
 
dbeuebeb schrieb:
Fast niemand weiss, wie diese Prozessoren genau funktionieren ...
Ähem ... Quatsch.
Das Bussystem und die Register des Z80 zähle ich Dir heute noch nachts um 4 Uhr aus dem schönsten Traum gerissen vollständig und richtig auf.
dbeuebeb schrieb:
und für Softwareentwicklung ist es auch grösstenteils irrelevant.
Klar.
Träum weiter.
dbeuebeb schrieb:
Wenn ich heutzutage ein Programm schreibe, dann erwarte ich, dass dieses Programm ohne Anpassung auf allen möglichen Betriebssystemen (Linux, Windows, MacOS, ...) und Prozessorarchitekturen (x86, ARM, PowerPC, RISCV, ...) fehlerfrei funktioniert.
Anscheinend schreibst Du keine Programme.
dbeuebeb schrieb:
Genau das ist mit modernen Programmiersprachen, Schnittstellen, Bibliotheken und Toolchains auch möglich.
Sag ich mal nichts dazu.
dbeuebeb schrieb:
Das meiste ist generisch gehalten und funktioniert überall.
Lange nicht so gelacht.
 
ascer schrieb:
Sicher ist das in den Großstädten nicht viel, aber Leben kann man davon definitiv auch. Ich wollte allerdings auch viel eher auf den Aspekt der Zielsetzung hinaus. Die "Standard"-IT-Jobs haben ja definitiv die Perspektive auf Tarifverträge und geregeltes 9to5 oder gar weniger.

Naja, man kann auch von Hartz 4 leben. Wenn man jeden Tag aufsteht, und inkl. Pendeln und Pause 9-10 (!) Stunden von seiner kostbaren Lebenszeit aufopfert, möchte man doch wenigstens eine Gegenleistung dafür.
 
Pssst @wuselsurfer .... geht doch alles mit HTML ... biste Plattformunabhängig, Hardware interessiert dich eh nicht da du kein Pointer hast um den Arbeitsspeicher zu penetrieren und modern ist HTML auf alle Fälle, wird ja so beim Internet angewandt, ne? ;)
 
wuselsurfer schrieb:
Ähem ... Quatsch.
Das Bussystem und die Register des Z80 zähle ich Dir heute noch nachts um 4 Uhr aus dem schönsten Traum gerissen vollständig und richtig auf.
Ja - und ich nicht - und bin tdm Softwareentwickler
wuselsurfer schrieb:
Klar.
Träum weiter.
Faktisch, habe ich noch nie wissen müssen, wie genau ein Prozessor funktioniert.
Nicht einmal beim Entwickeln mit C++ brauche ich das.
wuselsurfer schrieb:
Sag ich mal nichts dazu.
Kannst gerne was dazu sagen...
 
  • Gefällt mir
Reaktionen: dbeuebeb
Die Register und Befehle von modernen x86-Prozessoren zählst du jedenfalls nicht im Schlaf auf. Die Prozessoren sind immernoch abwärtskompatibel zum Intel 8086 und mittlerweile haben sich da um die 1000 verschiedene Befehle akkumuliert. Genau wie der Linux-Kernel, der immer noch in C geschrieben ist und mittlerweile mehr als 17 Millionen Codezeilen enthält. Der grösste Teil des Codes besteht aus Treibern für irgendwelche exotischen Geräte/Dateisysteme/Architekturen, die fast niemand benutzt. Nicht falsch verstehen, der Linux-Kernel ist ein Musterbeispiel für gute Software, aber es hat wie x86 viel zu viel unnützen Ballast.

Ich bin da eher ein Fan von neueren Entwicklungen wie der Programmiersprache Rust oder der RISC-V Architektur. Diese sind relativ simpel gehalten, bieten aber dennoch alles, was man braucht, ohne viel unnütze Funktionen.
 
@RAMSoße In welcher handwerklichen Branche bist du denn tätig? Hast du schonmal überlegt, dich den IT Themen in dem Bereich zu widmen? Zum Beispiel digitale Themen, Branchensoftware und sowas?

Das hätte den Vorteil, dass du schon sehr viel Fachwissen vorweisen kannst.
 
@wuselsurfer grundsätzlich muss ich den anderen hier aber zustimmen.

Als ich mein Studium im Wintersemester 2010/11 begann, haben wir z.B. bei KI-Experimenten anfangs noch Dinge wie Backpropagation selber implementiert, mit Lapack, Eigen usw.

Als GPUs und CUDA ihren Siegeszug bestritten, haben wir diese Dinge in CUDA-C selbst implementiert.

Man benötigte also durchaus hardwarenahe Programmierung und abgesehen von anderen MINT-Bereichen, etwa Physiksimulationen, gibt es keine Anwendung in keinem Szenario wo man mehr "number crunching" macht als in der KI-Forschung.
Sobald größere Experimente anstehen, läuft das direkt auch immer auf Clustern/Supercomputern.

Anyways: nur ca. 6 Jahre später war das schon alles vorbei. Heute entwickle ich 99% der Zeit in Python only. Man hat Dinge wie NumPy, TensorFlow usw.
An diesen Projekten arbeiten Hunderte der besten Leute international. Die Wahrscheinlichkeit, dass du besseren/effizienteren Code schreibst als etwa NVIDIA selbst mit cuDNN ist so gering, das niemand heutzutage überhaupt noch den Versuch unternimmt. (abgesehen von anderen Hardwareherstellern, wie AMD, Intel, ...)

Und diesen Siegeszug der Libraries gibt es doch überall. Selbst Office könntest du in Python schreiben, weil du für die GUI dann z.B. Qt nutzt.

Den gleichen Ansatz verfolgen WebApps: sehr umfangreiche, einfache JavaScripts libraries für das Front-End und im Back-End laufen hochoptimierte Datenbanken usw.

Die Zeiten, in denen du selbst effizienten Code schreiben mussten, sind definitiv lange vorbei und damit auch die Notwendigkeit, sich detailliert mit der Architektur der Systeme auszukennen. Das sind Spezialisten für ARM, für GPUs, für TPUs, ... die so was Schreiben und du benutzt das dann nur noch per API in deiner Applikation.
 
matthias_nbg schrieb:
@RAMSoße In welcher handwerklichen Branche bist du denn tätig? Hast du schonmal überlegt, dich den IT Themen in dem Bereich zu widmen? Zum Beispiel digitale Themen, Branchensoftware und sowas?

Das hätte den Vorteil, dass du schon sehr viel Fachwissen vorweisen kannst.


Ich arbeite in einer Werkstatt, die Hauptsächlich Waren verpackt und als Dienstleister auftritt. Potenzial sehe ich da schon. Im App-Bereich zumindest. Aber um Apps zu machen, brauche ich Wissen. Ich habe zwar mit Python angefangen und baue meine PC´s selbst zusammen. kann auch etwas html usw. aber das reicht ja vorn und hinten nicht. In meinem Bekanntenkreis ist leider niemand mehr, der MIR was beibringen kann und um einen Job in der IT zu ergattern, brauche ich entweder Vitamin B oder einen Wisch.

Allgemein: Also ich möchte nur darauf hinweißen, dass mir das Geld nicht sooo wichtig ist 45k wären ausreichend. Hauptsache der Job macht mir wieder Spass. Es müssen am Anfang auch nicht gleich 45k sein. Etwas drunter aber die sollten bald erreicht sein. Ich brauche keine 70k im Jahr.

Wie schon weiter oben gefragt:

Was haltet ihr von einem Betirebsinformatiker? Den könnte ich in der Abendschule machen.
 
Ich empfehle dir mal folgende Fortbildungen / Themen näher anzusehen:

  • Scrum Master & Scrum Product Owner => relativ einfach, gibt einen guten Einbklick in den aktuellen Trend der Arbeitsweise
  • IREB Requirement Engineer - Foundation Level => gibt ein Buch dazu und gibt dir einen Einblick, wie man an neue Anforderungen / Herausforderungen herangehen sollte in der IT-Entwicklung.
 
matthias_nbg schrieb:
Ich empfehle dir mal folgende Fortbildungen / Themen näher anzusehen:

  • Scrum Master & Scrum Product Owner => relativ einfach, gibt einen guten Einbklick in den aktuellen Trend der Arbeitsweise
  • IREB Requirement Engineer - Foundation Level => gibt ein Buch dazu und gibt dir einen Einblick, wie man an neue Anforderungen / Herausforderungen herangehen sollte in der IT-Entwicklung.

Muss ich gestehen, höre ich zum ersten Mal davon
 
Bei der ganzen Diskussion um Vorbildung, Gehalt etc. sollte man eine Sache nicht vergessen/unter den Tisch kehren: die Branche des Arbeitgebers!

Will ich, um nur ein Beispiel zu nennen, bei NVIDIA aktiv an der Grafikkarten-Entwicklung beteiligt sein, werde ich ohne ein entsprechendes techn. Studium nicht weit kommen. Möchte ich bei SAP als Entwickler arbeiten, habe ich die gleiche Herausforderung.

Möchte ich mich z.B. bei einer Bank um Dinge wie "wie kann ich KI sinnvoll in meinem Unternehmen nutzen" juckt es in der Regel keine Sau, was man tolles in der Schule gelernt hat, oder auch nicht gelernt hat. Für KI, ML, Blockchain, und alle anderen tollen Bullshit-Bingo-Begriffe gibt es nämlich schlicht und ergreifend keine entsprechende Bildung.

Auch wenn das hier im Thread ja eher ungern gelesen wird, aber - die aktuellen Hype-Themen werden von Jungs und Mädels beherrscht, die sich das Ganze via "Try end error" oder "learning by doing" angeeignet haben. Und viele, glaubt mir, sehr sehr viele, haben nicht mal eine Ausbildung!

Einfach so, ein paar Wochen wild im Netz klicken, und div. Anleitungen zu den Themen lesen, helfen da natürlich nicht weiter.

Ich weiß @RAMSoße - dir hilft das nicht wirklich weiter :D
 
Für die Themen Maschine Learning / KI & Blockchain und auch für andere tollen Cyber-Begriffe gibt es Studiengänge, in denen man "das" und dessen Grundlagen lernt.

"ML" ist nichts anderes als diverse Algorithmen zur Mustererkennung angereichert mit statischen Modellen basierend auf Traningsdaten in ein hübsches Programm verpackt. Das ist zu "90% Mathe". Das kann man studieren. Und das machen auch viele. @ascer müsste doch so ein "Vogel" sein, ein paar Beiträge weiter oben erwähnt er ja, dass er an KI-Experimenten während seines Studiums geforscht hat. Wie kann man also darauf kommen, dass

Workstation-Fan schrieb:
Für KI, ML, Blockchain, und alle anderen tollen Bullshit-Bingo-Begriffe gibt es nämlich schlicht und ergreifend keine entsprechende Bildung.

geben würde?

"KI" ist eigentlich ein künstliches neuronales Netzwerk und das gibt es als Forschungsgegenstand schon seit Mitte des letzten Jahrhunderts. Dafür gibt es sogar die Disziplin der Neuroinformatik.

Blockchain ist dagegen schon ein fast langweiliges 0815-Thema - kann man sich aber im Studium ebenfalls rein schrauben, wenn man dann möchte. Vorwiegend jedoch im BWL, Blockchain muss man nämlich hauptsächlich "verkaufen können". OK, das war ein Scherz. Braucht trotzdem niemand.

Den ganzen "Cyber-Kram" kann man in Digitaler Forensik studieren.

Richtig ist: Es gibt da keine Ausbildungsberufe für.
 
Zurück
Oben