News „Grob fahrlässig“: Microsoft schob brisante Azure-Schwachstelle mehrere Monate auf

Ich denke es ist generell falsch Microsoft hierzu was vorzuwerfen, ich meine was hättet ihr euch erwartet bei einem sehr stark verbreitetem Betriebssystem, Programm und Cloudprovider...

Ich denke dennoch dass ich die Onpremise-Warrior gerne mit Scheiße werfen, da sie glauben dass nur weil deren Firewall-Appliance nichts findet.. dass auf deren HA Clustern, Servern, etc.. nichts passiert.. im Gegenteil.. genau da passieren die meisten Sachen... weil solche "Schandtaten" passieren gezielt und meistens nicht um irgendwelche Kundendaten zu stehlen sondern eher Rufmord zu erreichen, schließlich hat dieses Jahr Microsoft die AWS Cloud in Sache Umsatz zum ersten Mal überholt... Plus versucht Tenable wie Carbon-Black damals in Wien beim ATM Skimmer irgendwelchen CLOUT zu erlangen, welcher denen aus der finanzellen Notlage nicht raushelfen wird.. dass dann alle Onlinemagazine draufspringen und mit ihrem Halbwissen da irgendwie "Propaganda" schüren wollen, halte ich persönlich auch als sehr "schwach recherchiert..

Ich hatte schon üble Cases, in welcher Microsoft Sentinel anomalienbei Klimaanlagen festgestellt hat, welche per WLAN verbunden waren.. Im Endeffekt stellte sich heraus dass die Klimaanlagen mit Schadsoftware infiziert waren und nicht mal der Hersteller davon was wusste.

Deshalb ist eher hier wichtig generell sein Hirn einzuschalten egal ob man in der Cloud oder Onprem ist.... solche Sicherheitslücken in Azure Functions sind nicht "gravierend" oder "grob fahrlässig" jeder selbsternannte Experte auf Linkedin welcher ein TedX Speaker, proud Dad of 12 Cats, etc.. kann behaupten dass es schlimm ist....

Sorry für den Rant, aber "langsam werde ich Wild hier" - Ronny Schäfer Voice
Ergänzung ()

Caramon2 schrieb:
Azure läuft m. W. auf Linux-Servern.
korrekt.. läuft auch auf Azure Sphere OS, kein Witz.
Ergänzung ()

pseudopseudonym schrieb:
Je nach Verwendungszweck definitiv
lol
 
cansys schrieb:
Das soll jedoch nicht bedeuten, dass das RZ a. k. a. "die Cloud" keine Daseinsberechtigung hat. Sich mit Dritten die Hardware eines RZ zu teilen, ergibt z. B. bei Forschungs- und Entwicklungsszenarien einen Sinn
Also hauptsächlich da, wo man die Kapazitäten nur zeitweise braucht, hat die Cloud einen Kostenvorteil?

cansys schrieb:
Die Ressourcen eines RZ sind endlich und die Dienstqualität kann nur dann für alle Kunden gewährleistet werden, wenn nach Möglichkeit kein hoher Outbound-Traffic erzeugt wird.
Man hat in der Cloud eben nur begrenz exlusive Kapazitäten, je nach Preisstufe. Man bucht am Ende in der Regel eine "bis zu" Leistung mit einer gewissen Untergrenze. Will man eine höhere Untergrenze, also mehr garantierte Kapazitäten, muss man auch mehr Geld auf den Tisch legen und da wird es dann irgendwann teurer als die Infrastruktur selber zu betreiben. Erst recht, wenn man die dann auch noch 24/7 in Anspruch nimmt.
 
mibbio schrieb:
Also hauptsächlich da, wo man die Kapazitäten nur zeitweise braucht, hat die Cloud einen Kostenvorteil?
Jetzt müsste mir auch nur ein Unternehmen erklären, dass es täglich, vielleicht sogar noch stündlich seine teilweise oder vollständige outgesourcte Infrastruktur nach oben oder unten skalieren lässt, um etwaige "Kostenvorteile" für variierenden Kapazitätsbedarf zu erhalten.

Nach unten geht bei vielen RZ-Betreibern nicht mehr so einfach, wenn es ein solches Angebot überhaupt noch gibt. Die Flexibilität, die einst "die Cloud" versprach, ist inzwischen nur noch ein Mythos. Deswegen gehen die Anbieter dazu über, die Kunden mit "günstigeren Preisen" zu belohnen, wenn sie sich vertraglich länger an sie binden. Microsoft ist da nur ein Beispiel.

Interessant ist dabei die Logik: Die physischen Ressourcen und das Personal sollen kostentechnisch bestmöglich ausgelastet sein. Das heißt, sie verwenden jenes Argument, welches Kunden dazu veranlasste ihre On-Premises-Infrastruktur aufzulösen, weil die physischen Ressourcen nicht ausgelastet wurden oder - wie das Personal - vermeintlich zu teuer wurden. An den Bedarf anpassen? Ein Fremdwort. Was, die IT stützt das Geschäft?

mibbio schrieb:
[...] Will man eine höhere Untergrenze, also mehr garantierte Kapazitäten, muss man auch mehr Geld auf den Tisch legen und da wird es dann irgendwann teurer als die Infrastruktur selber zu betreiben. Erst recht, wenn man die dann auch noch 24/7 in Anspruch nimmt.
Bei diesem Punkt greift das Totschlagargument, dass das Outsourcing der IT-Infrastruktur am Ende Kosten spart, eben nicht mehr. Damit ist das "Cloud"-Geschäft vermutlich in 9 von 10 Fällen schlicht "unwirtschaftlich"; es rechnet sich kostentechnisch also nicht. Stattdessen werden erhebliche Mehrkosten verursacht. Diese Erkenntnis hat inzwischen auch meine aktuelle Arbeitgeberin. Hat aber lange gedauert sie davon zu überzeugen. Die indirekten Kosten und teilweise versteckten Kosten der Cloud mussten erst hervorgehoben werden. Eine Ohrfeige holte man sich von externen Wirtschaftsprüfern.
 
  • Gefällt mir
Reaktionen: Termy und Ben99
" Bisher hat das Unternehmen seine Kunden für den Zugriff auf Protokolldaten im Rahmen eines kostenpflichtigen Abonnements namens Purview Audit immer zusätzlich zur Kasse gebeten."

Auch kein schlechtes Geschäftsmodell.
Erst "unsichere Software" an den Mann bringen und um diese dann "sicherer" zu machen, abkassieren.
Respekt MS !
 
  • Gefällt mir
Reaktionen: doalwa
Vielleicht rüttelt diese ganze Geschichte ja den einen oder anderen "Entscheider" in deutschen Unternehmen wach.
Unsere Firma ist in Sachen Microsoft 365 all in gegangen..alle Postfächer in die Cloud verschoben, Intranet von On-Prem auf Sharepoint Online umgestellt, Teams ist allgegenwärtig.
Wir bezahlen mittlerweile jährlich rund 80.000€ an die Telekom, welche wiederum als Reseller scheinbar noch genug Marge abgreift, um vor ein paar Wochen unsere komplette IT-Abteilung in einem eigens angemieteten Hotel zwei Tage lang zu Microsoft Lizenzthemen zu "schulen"...inkl. fürstlicher Bewirtung...nur die Nutten fehlten noch :D

Ich bin es mittlerweile müde geworden, gegen diese Windmühlen zu kämpfen...vielleicht haben andere noch die Kraft, aber ich fürchte das alte Argument, dass Mickeysoft nunmal Industriestandard ist und man ja keine Wahl hat, wird auch diesen Sturm im Wasserglas wieder vorbei ziehen lassen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Termy, konkretor und eine weitere Person
SheepShaver schrieb:
Was hier wieder dummes Zeug über die Cloud gebrabbelt wird. 🙄
Dachte auch noch bis vor kurzem, die Cloud sei bei meinem Nachbar, da er mir mal erzählt hat, dass seine Sachen bei ihm in seiner Cloud Zuhause sicher sind. Und er ansonsten auch noch "dummes Zeug" brabbelt.
 
  • Gefällt mir
Reaktionen: Ja_Ge
Schon kommen die Cloud-Gegner aus ihren Löchern ;-) Das hier entstandene Problem hat nichts mit Technologie zutun, sondern mit dem fahrlässigen Handeln von Individuen. Ist auch klar, im Juni war das Ende von Q4 und Geschäftsjahresabschluss bei MS, somit gab es für die Verantwortlichen sicherlich kein großes Interesse, dieses Problem öffentlich aufkeimen zu lassen, so mitten in Vertragsverhandlungen mit Azure Neu- und Bestands- Kunden. Zusätzlich belasten Layoffs die Arbeitsmoral (riskiert doch mal einen Blick auf Kununu ;-) und setzen den Druck nochmals höher.

Diese menschlichen Fehlverhalten kommen genauso im eigens betriebenen Rechenzentrum vor - nur völlig vorbei an der Öffentlichkeit. Beispiele kenne ich genug, wo KMU offen wie Scheunentore stehen weil der eigenen IT mal das Wissen, mal die Sorgfalt, mal die Technologie und mal einfach die Lust gefehlt hat, so nach dem Motto wer soll uns schon angreifen. Konsequenz: Bei einigen größeren KMU standen die Bänder still nach diversen russischen Hackerangriffen auf die On Prem Infrastruktur.

Also ist doch die Frage: Bin ich (mit meiner Technologie, meinem Knowhow, meinem Einsatz der Mittel) mindestens besser als AWS, MSFT oder Google - nüchtern, emotionslos, ohne IT Selbstüberschätzung betrachtet. Meine Einschätzung: Die große Mehrheit kann und will es nicht sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und floTTes
mibbio schrieb:
Erst recht, wenn man die dann auch noch 24/7 in Anspruch nimmt.
Jup definitiv. Die Cloude lebt davon das man die Services eigentlich nicht nutzt und damit viele viele Kunden sich ein physisches Blech teilen. Das Paradebeispiel sind halt Kunden die ne Hand voll von Cores brauchen, oder vielleicht sogar weniger als einen im Schnitt. Die Cloud nutzt da dann halt den Gleichteitigkeitsfaktor. Wobei das ja oft mit den Bürozeiten zusammenhängt und durch die Nutzung von lokalen Zonen das dann auch wieder recht stark eingeschränkt wird, aber seis drum.

cansys schrieb:
Eine Ohrfeige holte man sich von externen Wirtschaftsprüfern.
Wegen?
doalwa schrieb:
Ich bin es mittlerweile müde geworden, gegen diese Windmühlen zu kämpfen...vielleicht haben andere noch die Kraft, aber ich fürchte das alte Argument, dass Mickeysoft nunmal Industriestandard ist und man ja keine Wahl hat, wird auch diesen Sturm im Wasserglas wieder vorbei ziehen lassen.
Was bin ich froh, das im HPC Bereich eben Linux der ganz klare Industriestandard ist. Es gibt auf der ganzen Welt kein bekanntes System, das auf Microsoft setzt. Damit hat sich das Thema zum Glück meist schon erledigt.

Was noch bleibt ist die Cloude und da muss man sich dann schon mit auseinander setzen. Die Angebote in dem Bereich sind aber meist einfach richtig schlecht, so das man auf der Seite Personal nichts sparen kann. Vor allem nicht, weil die 24/7 Kostenvergleiche ziemlich schlecht sind. Wir reden da eher von Faktoren an Unterschied zu OnPrem.

Wo es vielleicht noch interessant ist, ist wenn man nur zeitweise mehr Ressourcen braucht. Also z.b. ich hätte gerne 1% mehr Leistung Tagsüber um Leuten das interaktive Arbeiten zu ermöglichen. Wobei jeden Tag neu entschieden wird ob und wenn wie viel gebucht wird.

Oder ich brauche 2-10% mehr Ressourcen zweimal im Jahr für 2-4 Wochen weil da Projekte fertig werden müssen und ich die Skalierung schon als Service integriert habe. Also zumindest da keine zusätzlichen Kosten anfallen.

Aber was sieht man? Richtig man darf die Cloud fast nicht nutzen damit sich ein Kostenvorteil ergibt. Vor allem habe ich relevante Kosten für die Integration der Cloude und den Betrieb. Sprich für das Boosting um 1% tagsüber bin ich dann schnell an dem Punkt, das ich auch einfach noch paar mehr Server hinstellen kann und gut ist. Sprich Unnterauslastung ist günstiger als Cloude einführen.

Was interessant ist trotz Faktor 2-10 höheren Kosten ist das relevante Boosten über mehrere Tage/Wochen. Das ist dann nämlich auch noch günstiger als Blech extra hinstellen. Das Problem ist hier aber, die Cloude skaliert auch nicht so Mega gut wenn man mal eben 10 komplette Server äquivalent haben will dauert das auch Stunden und man muss eben die Kosten für die Integration und den Betrieb rechnen und dann wird es schon wieder fragwürdiger.

Erst mit den beiden Möglichkeiten zusammen wird es in meinem Bereich überhaupt möglich nen Gedanken auf die Cloud zu verschwenden.

Und da haben wir jetzt noch keine Kosten durch den Datentransfer drin und die Cloud als inhärent sicher betrachtet für das was man dort macht. Wobei funny fact kritische Daten dürfen nicht in die Cloud per Anweisung von oben.

Da frage ich mich dann am Ende schon warum man sich den Stress noch gibt. Aber man geht ja Ergebnis offen dran und prüft immer mal wieder ob sich was geändert hat, aber nö, das war schon seit Jahren die Bewertung und wird es wohl auch bleiben in meinem Bereich.

Ich verstehe ja echt, das nen kleiner Krauter ohne eigene IT oder 2 Mann IT in die Cloud geht. Aber Girmen mit Dutzenden oder Hunderten Leuten in der IT? Sorry ne das verstehe ich nicht wirklich.

Und die Abhängigkeit und Kostenvorteile für MS Produkte in der Cloud lasse ich da nicht gelten, denn es gibt Alternativen man muss sie nur auch bereit sein zu nutzen....
 
  • Gefällt mir
Reaktionen: doalwa, Termy und konkretor
Skysnake schrieb:
Bei der betriebswirtschaftlichen Prüfung der Bilanzen war aufgefallen, dass weder die Geschäftsführerin noch die zuständige Abteilungsleiterin einen detaillierten Überblick über die IT-Ausgaben hatten. Folglich gab es teilweise hohe Schwankungen bei den Ausgaben, für die man teilweise erst die Belege suchen musste.

Die "Ohrfeige" selbst bekam man jedoch dafür, dass bei zahlreichen Einkäufen unwirtschaftlich vorgegangen wurde. Sei es, dass man zu UVP-Preisen bestellt hat, sei es, dass wiederkehrende Einkäufe von Kleinstmengen hohe Folgekosten verursachten, die nicht notwendig gewesen wären, hätte man stattdessen einmal einen größeren Einkauf getätigt, sei es, dass Abschreibungen "vergessen" wurden. Das Ende vom Lied war, dass die zuständige Abteilungsleiterin eine Abmahnung kassierte, die Buchhaltung zur Sorgfalt aufgerufen wurde, und, dass sich die Geschäftsführerin gegenüber den Gesellschaftern erklären durfte.

Erst mit der letzten Bilanzprüfung hat sie verstanden, dass "die Cloud" wohl doch nicht so "transparent" und "kostengünstig" ist, wie sie glauben wollte.
 
  • Gefällt mir
Reaktionen: Termy und floTTes
Cloud transparent bezüglich Kosten????

Äh ja ne is klar. Was ich von Kollegen hören konnte der Cloud Anbieter selbst bei nem PoC auf mehrmalige Nachfrage nicht sagen welche Gesamtkosten XY haben wird bzw wie sich das VOR Nutzung feststellen lässt... ziemlich blemmblemm meiner Meinung nach...

Aber ok, da hat dann insbesondere die Buchhaltung echt geschlampt und zurecht eine auf den Sack bekommen. Abschreibungen vergessen geht mal gar nicht!

Ansonsten unwirtschaftliches Handeln ist halt so ne Sache. Nen Controlling sollte da immer ein Auge drauf haben, das man da nichts aus den Augen verliert. Denn wie du sagst macht der Kleinmist manchmal doch ganz schöne Summen aus wo sich der Aufwand für Lager oder Verhandlungen dann auch wieder lohnt.

Das ist am Ende eben nen Job von den Abteilungsleitern und Geschäftsführung. Also dem Management.
 
cansys schrieb:
Ich vermute, dass du noch nie einen Kostenvergleich durchgeführt oder gesehen hast.
Das brauche ich aktuell auch nicht. Unsere Infrastruktur-/Cloud-Kosten sind ein Bruchteil unserer Entwicklerkosten, die Kosten kenne ich. Sobald wir nicht mehr CDNs, Deployments, Datenbank, Auth, Backendfunctions (also das Deployment und die APIs, nicht die fertigen Functions) und co aus einer Hand bekommen, sondern versuchen, möglichst viel selbst zu machen, werden allein die Personalkosten jegliche Ersparnis zunichtemachen.
Gut, wir müssten die Leute auch erstmal bekommen, und zwar doppelt. Das ist das nächste Problem.

Vor einigen Jahren habe ich mal in einem kleineren Laden gearbeitet, der wie hier die Cloud-Gegner gedacht hat. Da war alles selbstgemacht. Gitlab, Mailserver, Webserver und die Server für das eigene Produkt. Blöd nur, wenn es nur einen gibt, der wirklich alles versteht (war viel Gefrickel seinerseits) und der nicht 24/7 verfügbar ist. Gleichzeitig war seine Zeit eigentlich auch nicht nur für Infrastruktur vorgesehen. Wenn er die Zeit, die er in Dinge investiert hat, die man sich für ein paar Euro fertig klicken kann, in das eigentliche Produkt gesteckt hätte, würde es den Laden vielleicht noch geben.

cansys schrieb:
Man muss schon ein Unternehmen mit 0815-Tätigkeiten sein, um eine "komplett fertige Lösung" zu bekommen.
Es sagt niemand, dass man auf die Cloudlösungen nichts draufsetzen kann. Wenn ich eine NoSQL-DB mit Auth, Backend-Functions, Storage und co fertig bekomme, hilft das eine Menge. Trotzdem muss ich natürlich noch eine eigene Anwendung draufbauen, um damit etwas machen zu können.

cansys schrieb:
In meiner bisherigen beruflichen Laufbahn habe ich noch kein Unternehmen gesehen, dass eine "fertige Lösung" - egal, ob On-Premises oder Off-Premises (im Rechenzentrum a. k. a. "Cloud") - einsetzen konnte.
Gut, eine "fertige Teillösung" trifft es eher. Dachte, das wäre klar.


DRAKO1337 schrieb:
Warum "lol? Guck dir mal die Produktpalette von Azure an (über 200 Produkte):
Screenshot at 2023-08-06 10-01-14.png

Natürlich kannst du statt Azure Kubernetes auch das Kubernetes von Google (https://cloud.google.com/kubernetes-engine?gad=1&gclsrc=ds oder von AWS nehmen. Ja, mit einem Doppelklick geht die Migration natürlich nicht.
Allein auf diesen einen Blick sind mir noch weiteres Produkte bei Azure aufgefallen, die Google auch hat.
Also ja, je nach Verwendungszweck sind Google Cloud und AWS definitiv Konkurrenten zu Azure.
 
pseudopseudonym schrieb:
Ja, mit einem Doppelklick geht die Migration natürlich nicht.
Das "wir machen Cloud soweit einheitlich, dass man nicht für den Rest des Lebens bei Anbieter xy gefangen ist" war übrigens einer der Ansätze bei https://de.wikipedia.org/wiki/Gaia-X
Aber das Projekt ist ja unter der Erde seitdem Habeck den Geldhahn zugedreht hat um mit dem Geld Fracking-Gas zu subventionieren.
 
pseudopseudonym schrieb:
Vor einigen Jahren habe ich mal in einem kleineren Laden gearbeitet, der wie hier die Cloud-Gegner gedacht hat.
Wenn man sich die Äußerungen der IT-Führungskräfte (CIO) so anhört / durchliest, dann scheint der "Hype um die Cloud" vorbei zu sein. Mein ehemaliger Vorgesetzter bei der vorherigen Arbeitgeberin war glühender Verfechter a) für das Outsourcing und b) für "die Cloud". Die Fachkräfte wurden gegen hohe Abfindungen peu à peu entlassen. Zwischenzeitlich habe ich erfahren, dass er vor die Tür gesetzt wurde und man zwei ehemalige Mitarbeiter zurückholte, nachdem die Versprechungen aus dem Outsourcing (bessere Performance, bessere Flexibilität, niederigere Kosten) nicht eintrafen.

pseudopseudonym schrieb:
Da war alles selbstgemacht. Gitlab, Mailserver, Webserver und die Server für das eigene Produkt. Blöd nur, wenn es nur einen gibt, der wirklich alles versteht (war viel Gefrickel seinerseits) und der nicht 24/7 verfügbar ist. Gleichzeitig war seine Zeit eigentlich auch nicht nur für Infrastruktur vorgesehen.
Genau hier liegt die Wurzel vieler Probleme in heutigen Infrastrukturen: Fachkräfte sollen sich einerseits auf das operative Geschäft, aber andererseits auch auf die strategischen Themen fokussieren. Beides gleichzeitig funktioniert nicht. Wer dann auch noch Fachkräfte in Personalunion (zwei oder mehr Stellen von einer Vollzeitkraft besetzt) beschäftigt, der hat den Stellenwert der IT noch nicht verstanden.

Ich spreche gern von "Bastellösungen" (Probleme kurzfristig, aber nicht langfristig beheben) und "Zombielösungen" (vermeintliche "Lösungen", die schon "tot" sind, weil es dafür keine weitere und vor allem sinnvolle Verwendung gibt > z. B. Office-Makros, weil Fachkenntnisse wie z. B. SQL an anderen Stellen fehlen und Office-Markos von irgendeiner Fachkraft in Microsoft Excel ohne Code-Review durch Dritte und Signierung zusammengebastelt wurden, um ein Problem "kurzfristig zu beheben", während Microsoft selbst die Daumenschrauben weiter anzieht und sich andere Beschäftigte beschweren, dass im Unternehmen über verschiedene Wege geteilte Office-Makros von Microsoft zunächst einmal blockiert werden). Halleluja.

pseudopseudonym schrieb:
Wenn er die Zeit, die er in Dinge investiert hat, die man sich für ein paar Euro fertig klicken kann, in das eigentliche Produkt gesteckt hätte, würde es den Laden vielleicht noch geben.
Lösungen, die man sich "zusammenklickt", sind keine Lösungen im engeren Sinne. Warum? Weil man den Background nicht versteht. Das erinnert mich damals an einen Kunden aus meiner Zeit im Systemhaus, der sich eine "Enterprise-ready" Website mittels Baukasten zusammenklickte und wunderte, warum dieses und jenes nicht funktionierte. Später wurde das Unternehmen gehackt. Grund: Sicherheitslücke in veralteten WordPress-Plugins, die er aus dem Baukausten bezog.

pseudopseudonym schrieb:
Trotzdem muss ich natürlich noch eine eigene Anwendung draufbauen, um damit etwas machen zu können.
Auch hier stelle ich immer wieder fest, dass das Anforderungsmanagement (neumodisch: "Demand management") in vielen Unternehmen vollkommen versagt. Applikationen, die nach Möglichkeit billig sein sollen, aber idealerweise möglichst viele Anforderungen abdecken, wo dann der Hersteller den Support nicht adäquat gewährleisten kann, weil man als Kunde selbst viel zu groß ist. Und vermeintliche "Branchenlösungen" entpuppen sich oft als Friemellösung, weil die Applikation technisch und optisch irgendwann Anfang der 2000er stehengeblieben ist.
 
DRAKO1337 schrieb:
Ich denke es ist generell falsch Microsoft hierzu was vorzuwerfen, ich meine was hättet ihr euch erwartet bei einem sehr stark verbreitetem Betriebssystem, Programm und Cloudprovider...
Meinst du wirklich, dass Microsoft hier vorbildlich gehandelt hat? Also was Informations- und Patchpolitik angeht? Wenn ja, dann kann dir vermutlich wirklich keiner mehr helfen.
Wenn deine Aussage sich nur auf 'jeder kann mal Fehler machen' bezog, dann stimme ich dir in gewissem Maße zu. Microsofts Umgang mit dem Fehler ist aber - genau wie bei der Masterkey-Katastrophe - unter aller Sau und so ziemlich in jedem Punkt ein Lehrbuchbeispiel, wie man es NICHT machen sollte.
Und DAS kann und sollte man Microsoft auf jeden Fall vorwerfen und Konsequenzen daraus ziehen...

DRAKO1337 schrieb:
weil solche "Schandtaten" passieren gezielt und meistens nicht um irgendwelche Kundendaten zu stehlen sondern eher Rufmord zu erreichen,
Du glaubst doch nicht wirklich ernsthaft, dass das hier eine Rufmordkampagne von Amazon ist?! :confused_alt:

DRAKO1337 schrieb:
dass dann alle Onlinemagazine draufspringen und mit ihrem Halbwissen da irgendwie "Propaganda" schüren wollen,
Wo siehst du denn, dass 'alle Onlinemagazine' draufspringen? Ich finde z.b. dass das Masterkeydebakel irgendwie komplett totgeschwiegen wird. Eigentlich müsste die komplette MS-Cloud plattgemacht und neu aufgesetzt werden (mit Backups von VOR der Erstellung des Schlüssels, falls man nicht mit 100%iger Sicherheit sagen kann, WANN dieser entwendet wurde), um halbwegs sicher vor verbleibender Kompromittierung sein zu können.
Aber weder Informiert Microsoft die Kunden, dass alles sperrangelweit offen stand, noch gibt es einen großen Aufschrei in den Medien...nur vereinzelt berichten Fachmedien ziemlich verschüchtert und wohlwollend davon.
Ich tu mich schwer, hier von 'gekauft' zu sprechen, aber viele andere Begründungen fallen mir tatsächlich nicht ein...

emxq schrieb:
Das hier entstandene Problem hat nichts mit Technologie zutun

Jein - das Problem ist, dass 'die Cloud' eben auch dicke Fische, die deutlich interessanter als ein kleines deutsches Hinterhofunternehmen sind, beherbergt. Dadurch laufen die kleineren Fische eben deutlich Gefahr, als 'Beifang' mitgenommen zu werden, wo sie OnPrem, selbst bei ggf. schlechter konzipierter Sicherheit, gar nicht erst ins Ziel genommen worden wären.
Von dem her darf sich ein Cloud-Anbieter nicht nur am Vergleich mit einer guten OnPrem-Lösung messen lassen, sondern muss in meinen Augen noch deutlich weiter gehen und sich keinen Patzer bei sicherheitsrelevanten Praktiken leisten.

Du hast ja z.b. in einem Rechenzentrum auch andere physische Zugangskontrollen als zum Serverraum einer Firma, auch wenn die Firma 'alles richtig' macht.
 
  • Gefällt mir
Reaktionen: Miuwa und cansys
Ich möchte gar nicht wissen wie viele Sicherheitslücken Microsoft wirklich bekannt sind und wie viele dieser Informationen dann an die USA (NSA) beziehungsweise diverse israelische Trojanerbuden (Da scheint ein Nest zu sein) und weitere Staaten zu Überwachungszwecken weitergegeben werden. Vollkommen unabhängig vom Risiko das die Lücke evt. von außen entdeckt und somit alternativ genutzt wird. Die lügen sich einfach nur durch mit ihrer Sicherheit.
 
Also wir haben 50PB an Daten, welche jede Woche mit 25000 Kernen prozessiert werden, in der Azure Cloud.

Waren vorher bei aws, war auch nicht wirklich besser.

So hoch skalierbar ist lokal einfach ein Krampf und cloud Alternativen, welche das AD direkt mit eingebunden haben, die ganze Orchestrierung, etc. Beherrschen sind mir nicht adhoc bekannt.
Klar google, aws, kriegen das sicher auch mit Aufwand hin.
Aber man hat als OS Windows inkl o365, da ists naheliegend den Rest auch bei MS zu platzieren.
 
Termy schrieb:
Wo siehst du denn, dass 'alle Onlinemagazine' draufspringen? Ich finde z.b. dass das Masterkeydebakel irgendwie komplett totgeschwiegen wird. Eigentlich müsste die komplette MS-Cloud plattgemacht und neu aufgesetzt werden (mit Backups von VOR der Erstellung des Schlüssels, falls man nicht mit 100%iger Sicherheit sagen kann, WANN dieser entwendet wurde), um halbwegs sicher vor verbleibender Kompromittierung sein zu können.
Aber weder Informiert Microsoft die Kunden, dass alles sperrangelweit offen stand, noch gibt es einen großen Aufschrei in den Medien...nur vereinzelt berichten Fachmedien ziemlich verschüchtert und wohlwollend davon.
Ich tu mich schwer, hier von 'gekauft' zu sprechen, aber viele andere Begründungen fallen mir tatsächlich nicht ein...
Das finde ich auch extrem befremdlich - Sowohl Microsofts schweigen, als auch der fehlende Wiederhall in der Presse.
 
  • Gefällt mir
Reaktionen: Termy
n00p schrieb:
Also wir haben 50PB an Daten, welche jede Woche mit 25000 Kernen prozessiert werden, in der Azure Cloud.
Warum betreibt man so was in der Cloud? Braucht ihr die 25k Kerne nur ein paar Stunden, oder wie muss man sich das vorstellen?

50PB sollten ca 1-3 Millionen im Erwerb sein und so ca 40k für Strom um Jahr. Da wirst du aber ne nette Stange mehr Geld in der Cloud hinlegen.

Die Cores hast du mit 200 Servern auch. Insgesamt also ein ganz nettes System für 2-5 Mio. Da lohnt sich auch der Betrieb sicherlich. Mehr als 5 Leute wirst du da eher nicht brauchen. Also sagen wir mal noch 1Mio im Jahr Personalkosten. Auf 5 Jahre Betrieb gerechnet also so um die 2 Mio pro Jahr an Kosten für den Eigenbetrieb.

Da seid ihr doch garantiert massiv drüber oder?

Also zumindest waren unsere Studien in nem ähnlichen Rahmen ohne Storage, der ja noch deutlich unattraktiver als Compute ist, ganz klar pro OnPrem.
 
  • Gefällt mir
Reaktionen: Termy und Sebbi
Skysnake schrieb:
Warum betreibt man so was in der Cloud? Braucht ihr die 25k Kerne nur ein paar Stunden, oder wie muss man sich das vorstellen?

Die 50PB sind selbst produzierte Daten, die immer wieder prozessiert werden müssen. Dementsprechend brauchen wir die Kerne/VMs nur auf Anfrage, ansonsten ists reiner Storage.
Durch die aktuelle Projektsituation prozessieren wir mehrmals die Woche, da geht einiges an Geld durch. Das ist aber kein Dauerzustand; irgendwann geht's in Cold Storage, dann sind die MS Preise auch nicht mehr sooo übel.

Wenn mans selber macht, muss man sich auch selbst drum kümmern, ist keine Stärke von Großkonzernen.

Zumindest wird das frontend nun selbst entwickelt, da hat MS einfach totalen Bullshit programmiert.

2Mio im Jahr reißen wir aktuell, aber ab nächstem Jahr nicht mehr. Problem werden eher Folgeprojekte, da werden die Datenmengen um Faktoren grösser
 
cansys schrieb:
Jetzt müsste mir auch nur ein Unternehmen erklären, dass es täglich, vielleicht sogar noch stündlich seine teilweise oder vollständige outgesourcte Infrastruktur nach oben oder unten skalieren lässt, um etwaige "Kostenvorteile" für variierenden Kapazitätsbedarf zu erhalten.

Nach unten geht bei vielen RZ-Betreibern nicht mehr so einfach, wenn es ein solches Angebot überhaupt noch gibt.
Wir skalieren je nach Bedarf die Anzahl der VMs, die für die Build-Pipelines zuständig sind. Das funktioniert wunderbar und hat einen direkten Einfluss auf die Kosten, da VMs im Minuten bzw. sogar im Sekundentakt abgerechnet werden.

Gleiches gilt für Kubernetes-Resourcen, die je nach Bedarf automatisiert deployed und wieder gelöscht werden.

Ich kann deine Einwürfe contra Cloud also absolut nicht nachvollziehen. Dass man Resourcen je nach Bedarf automatisch hoch und runter skaliert ist normaler Usus.


Zudem kann ich deinem orakeln bzgl. der Zukunft der Cloud nicht zustimmen. Wir bieten On-Premise und SaaS-Lösungen für unsere Kunden an. Niemand interessiert sich für OnPrem. Daher wird die Weiterentwicklung auch eingestellt.
Die meisten modernen Software-Architekturen (Microservices, Serverless) können ihre Vorteile nur auf der Cloud ausspielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: n00p
Zurück
Oben