andy_m4 schrieb:
Naja. Das geht aber nur, wenn die betreffenden Firmen ihr eigenes Rechenzentrum betreiben. Also eine Art von "private Cloud". Denn die Grundidee hinter Cloud ist ja gerade, das man nicht eigene Rechenzentren aufbauen und betreiben muss und man die Kapazitäten bei einem Dienstleister mietet.
Das dachte ich auch immer. Und ja, ich bin nur Laie mit etwas Einblick aus dem Alltag.
Schon vor der "Cloud" wurden Rechenzentren lange selten selbst betrieben. Erst stand "nur" die Hardware woanders, dann kam irgendwann die Abstraktion z. B. via VMs.
Wenn ich mir bei Hetzner einen self-managed virtuellen Linux-Rechner miete, steht der ja auch nicht bei mir unter dem Schreibtisch. Den kann ich aber im Rahmen der Möglichkeiten sicher betreiben, ohne dass irgendein Hetzner-MA relevanten Zugriff hätte (und mir im Fall der Fälle auch nicht helfen könnte).
Das eigene RZ hilft eigentlich nur beim physischen Zugriffsschutz. Wenn jemand mal bis zum heiligen Gral vordringen sollte, darf er dennoch mit erbeuteten "Festplatten" immer noch nichts anfangen können. Genauso wenig darf er sich mit Ka-Li in den Netzwerktraffic hooken dürfen etc.
Ich kenne tatsächlich einen Fall, wo eine fremde Person in einem eigens betriebenen RZ die zwei ersten physischen Sicherheitsschleusen "nehmen" konnte (ohne Meisterdieb-Moves, einfach durch geschickte Ausnutzung der Umstände kombiniert mit eiskalter Schlagfertigkeit). Bereits diese Tatsache kreierte eine "Riesenwallung" im Management (mit - zum Glück - nochmals verschärften , aber für die betroffen MAs noch nervigeren Verhaltensvorgaben). Die wesentliche Erkenntnis war allerdings: Selbst im Zentrum hätte er nichts Relevantes abgreifen können - alleine wegen der verteilten Speicherung im SAN. Und wenn die Person die gesamte HW mitgenommen hätte, wäre immer noch wenig gewonnen gewesen (aber natürlich nicht ausgeschlossen).
Vielleicht kann/will
@Skysnake meine Worte als haltlos "in den Boden rammen".
andy_m4 schrieb:
Aber deine Grundidee war ja auch, kleine und spezialisierte (und damit auch performate) Modelle zu nehmen und dann wird das natürlich tatsächlich realistisch
Genau das.
Eine spezifische Prognose meinerseits: In Zukunft werden die meisten/viele Code-Repos von Unternehmen einen individuellen KI-"Kompagnon" haben.
Dieser erhält alle relevanten "lokalen" Vorgaben (naming conventions, unit test coverage, code smell patterns etc.) als Meta Prompt, wird auf dieser Basis initial mit einem Repo trainiert und läuft eine Weile für mit.
Nach einer gewissen Zeit "weiß" diese KI aus der Code-Basis ob (und wie weit)
- diese z. B. dem clean-code Ansatz folgt
- welchem Muster die existierenden Unit-Tests folgen
- welcher "Typ" von commits (und - mindestens pseudonymisiert - Committer) regelmäßig zu Beschwerden nachgelagerter Elemente der Tool-Chain führt ("SonarCube")
- usw. usf.
Und hilft dann "irgendwann" dem Entwickler/der Entwicklerin bei dieser täglichen "boiler-plate Arbeit".
Dieses Bild ist ganz sicher idealisiert, spiegelt
mir aber wider, auf welche Tasks Entwickler/Entwicklerinnen auch heute immer noch keine langfristigen Bock haben.
andy_m4 schrieb:
Ja. Aber Hardware "altert" ja auch weil dann die neue Generation besser ist. :-)
Sicher liefert das auch einigermaßen planbaren Umsatz. Aber das wird eines Tages der "ominösen Börse" natürlich nicht mehr reichen und zum "Absturz" führen können. Und dann wäre doch folgende Nvidia-Story nicht schlecht: "Bisher eroberten wir die KI-Städte - und ab sofort auch das regionale Land").