Katastrophenmanagement zur IDF-Einstimmung

Parwez Farsan
5 Kommentare

Bereits einen Tag vor dem offiziellen Beginn des Intel Developer Forums (IDF) in San Francisco gab es die ersten Präsentationen und Vorführungen. Thematisch drehte sich dabei alles um den Nutzen von Informations- und Kommunikationstechnologie im Katastrophenmanagement, wenngleich der direkte Bezug zu Intels Produkten gering war.

Dass dem Thema Katastrophenmanagement eine immer größere Bedeutung zukommt, verdeutlichten die Sprecher anhand der Zahl der Naturkatastrophen, die stetig zunimmt. Die Fragen, wie man sich auf Katastrophen vorbereiten kann, wie man ihre möglichen Folgen für den Betrieb möglichst gering hält, wie man im Krisenfall reagiert und wie man die Folgen möglichst schnell beseitigt, sind dabei entscheidend.

IDF 2011 – Katastrophenmanagement

Insbesondere im Hinblick auf IT-Infrastrukturen sind jedoch nicht nur Naturphänomene ein Problem, sondern auch Netzwerkausfälle und technische Probleme wie das Jahr-2000-Problem. Speziell kleine Unternehmen seien Intel zufolge oftmals nicht auf solche Probleme vorbereitet, 57 Prozent von ihnen haben demnach gar keinen Plan, um sich von Katastrophen zu erholen oder digitale Daten adäquat zu sichern. Dies liege einerseits an den Kosten, andererseits aber auch an der Zeit, die dafür investiert werden muss. Der Fortschritt der Technologie biete mittlerweile allerdings verschiedene Lösungen, um den unterschiedlichen finanziellen Möglichkeiten großer und kleiner Unternehmen zur Vorsorge gerecht zu werden.

Wie die Prävention im großen Maßstab aussehen kann, erläuterte Bob Marshall, Präsident und CEO von Earth Networks, am Beispiel der Vorhersage von Naturkatastrophen. Ziel des Unternehmens ist es, durch die Kombination vieler Sensordaten mit Wettermodellen und Supercomputern möglichst frühzeitig detaillierte Informationen über den Verlauf und die Intensität von extremen Wetterphänomenen liefern zu können. Wie wichtig dies ist, sieht man bei einem Blick auf die Zahl der Naturkatastrophen, die in den vergangenen Jahrzehnten kontinuierlich zugenommen hat. Heutzutage sind Vorwarnungen oftmals nur sehr ungenau und mit einer sehr kurzen Vorwarnzeit möglich. Durch die Kombination großer Mengen unterschiedlicher Sensordaten mit neuen Rechenmodellen für die Echtzeitverarbeitung lassen sich jedoch Fortschritte erzielen.

Ein Beispiel dafür ist die Vorhersage des Verlaufs und der Intensität von Tornados oder Hurrikans. Traditionell werden die dafür genutzten Rechenmodelle vor allem mit Radardaten gefüttert. Die Ergebnisse sind jedoch vergleichsweise ungenau und die Masse der Messstationen konzentriert sich auf die reichen Industrienationen. Durch das Verfolgen der Blitzaktivität versucht das Unternehmen die Vorwarnzeiten deutlich zu verkürzen. Während mit Radardaten teilweise bestenfalls wenige Minuten gewonnen werden, habe man mit Blitzdaten eine Vorwarnzeit von 50 Minuten erzielen können. Die Warnungen könnten beispielsweise über spezielle Apps und die Mobilnetzwerke verbreitet werden, wie es jetzt bereits teilweise bei Erdbeben der Fall ist.

Erste Ergebnisse deuten außerdem darauf hin, dass sich auch die Intensität von Hurrikans genauer vorhersagen lässt. Während die traditionellen Modelle bei Hurrikan Irene eine auf Stufe 4 steigende Intensität vorhersagten, scheint die Blitzaktivität ein besserer Indikator zu sein. Das Modell der Firma habe sich zumindest in diesem Fall als genauer erwiesen. Hier sei jedoch noch eine weitere wissenschaftliche Untermauerung nötig.

Insbesondere in der Folge von größeren Katastrophen ist das Zusammenbrechen der Kommunikationsnetze ein Problem, wie das Beispiel Haiti gezeigt hat. Die Koordination und zeitnahe Bereitstellung von Hilfe und Warnungen vor sich ausbreitenden Seuchen werden dadurch deutlich erschwert, weshalb der Wiederherstellung der Kommunikationswege eine große Bedeutung zukommt.