Fragen? Antworten! Siehe auch: Alternativlos
Wenn man darauf achtet, fällt einem das nämlich ganz häufig auf, dass die Leute da draußen alle in der Wahrscheinlichkeitsrechnung geschlafen haben.
Nehmt z.B. die Schweiz. Die hat kürzlich entschieden, dass sie ihre Daten in die Cloud schieben wollen. Das ist ja an sich schon ein kapitaler Fehler, aber darum geht es hier gerade nicht.
Die haben sich gedacht: Wir nehmen einfach mehr als einen Cloudanbieter. Dann müssen wir keinem von denen voll vertrauen.
Das ist ein häufiger Irrtum beim Umgang mit Clouds und Servern.
Nehmen wir an, du hast einen Haufen Daten. Jetzt packst du die eine Hälfte auf Server A und die andere Hälfte auf Server B. Du redest dir ein, dass du jetzt weniger Risiko hast, weil ja bei einem Ausfall nur noch die Hälfte weg ist.
Aber tatsächlich ist es so, dass schon der Verlust der Hälfte der Daten ein Totalschaden ist. Wenn ein Server eine Ausfallwahrscheinlichkeit von 1 in 1000 hat, und du hast zwei Server, dann hast du jetzt eine Ausfallwahrscheinlichkeit von 2 in 1000. Du hast das Risiko für einen Totalausfall nicht gesenkt sondern verdoppelt!
OK, nehmen wir mal anders herum an: Du hast einen Haufen Daten und du packst die einmal komplett auf Server A und einmal komplett auf Server B. Jetzt bist du gegen Hardwareausfall besser geschützt.
Ja, schon, aber was ist denn mit dem Risiko eines Einbruchs? Wieder dieselbe Rechnung. Wenn das Risiko für einen erfolgreichen Hackerangriff in einem der Rechenzentren 1 in 1000 ist, und du hast jetzt zwei Rechenzentren (oder die Daten in zwei Clouds gelagert), dann hat sich damit auch das Risiko für einen erfolgreichen Angriff verdoppelt!
Also nicht ganz. Ich vereinfache das jetzt hier. Wenn das zweimal die gleiche Software ist, dann kann man auch argumentieren, dass ein erfolgreicher Angriff gegen den einen auch automatisch ein erfolgreicher Angriff gegen den anderen ist. Ja, schon, aber was ist mit der Cloudinfrastruktur außenrum? Für die gilt die Risikoverdoppelung immer noch, wenn ein Angriff über die läuft.
Ihr seht schon: Wer bei der Wahrscheinlichkeitsrechnung in Mathe gepennt hat, hat sein Leben lang Nachteile und macht einen Fehler nach dem anderen.
Update: LOL war ja klar. Ich hab das vereinfacht, um nicht noch mehr Leser durch kompliziert aussehende Formeln zu verlieren. Jetzt kommen hier die Spezialisten und korrigieren mich. Na gut, der Vollständigkeit halber.
Prämisse: Ausfallwahrscheinlichkeit der Server ist unabhängig voneinander. Stimmt in der Praxis nicht unbedingt, wenn die nebeneinanderstehen. Dann würde ein Feuer oder Stromausfall beide betreffen.
Dann ist die Wahrscheinlichkeit, dass der linke Server nicht ausfällt, 999/1000. Beim rechten genau so. Die Wahrscheinlichkeit, dass beide Ereignisse auftreten (beide fallen nicht aus) ist damit das Produkt der Einzelwahrscheinlichkeiten, also 999/1000 zum Quadrat. Das ist nach Adam Riese 99.8001%. Umgekehrt ist die Wahrscheinlichkeit, das mindestens einer ausfällt, damit 1,999 von 1000, also fast 2 / 1000 aber eben nicht ganz. Ich fürchtete, wenn ich da genauer werde, verliere ich Leser an die Achse des Guten.
Update: Ich sollte dazu sagen, dass dieser multiplikative Effekt nur bei 2 Servern so nahe an der Plus-Rechnung ist. Bei mehr Servern wird der schnell größer. Rückblickend hätte ich doch direkt die Formel sagen sollen. Mir ging es aber eigentlich um Cloud statt Servern, und da hat man halt keine 500 Clouds sondern eher so 2. Und eigentlich ging es mir auch gar nicht um die konkreten Zahlen (daher auch die absurd hohe Ausfallwahrscheinlichkeit von 1 in 1000) sondern es ging mir darum, dass die Risiken steigen, nicht sinken.