W nocy z wtorku na środę wybuchł pożar w centrum danych OVHcloud w Strasburgu (Francja). Nikt nie odniósł obrażeń, ale część klientów straciła dostęp do swoich systemów i danych. Wśród poszkodowanych są polskie instytucje i firmy, m.in. Bonito.pl, Katolicka Agencja Informacyjna, Tatrzańskie Ochotnicze Pogotowie Ratunkowe i kluby PKO BP Ekstraklasy.
Skoro nawet jeden z największych operatorów chmurowych na świecie okazał się nieodporny na sytuacje losowe, czy przedsiębiorstwa nie powinny wrócić do budowy własnych serwerowni?

– Nie każdy może sobie na to pozwolić. Szczególnie małym i średnim biznesom często brakuje pieniędzy na lokalną infrastrukturę IT i zatrudnienie wykwalifikowanych informatyków – mówi Paweł Stapf, dyrektor ds. informatyzacji i zarządzania projektami technologicznymi w spółce Kogeneracja Zachód.
Z kolei Wojciech Stramski, zarządzający Beyond.pl, wielkość firmy uważa za drugorzędną. Tym, co się według niego liczy najbardziej, jest to, jak długo dane przedsiębiorstwo może się obyć bez swoich serwerów.
– Na zapewnieniu ciągłości biznesowej zależało kiedyś głównie bankom, wielkim sklepom internetowym i serwisom VoD, dla których nawet kilkunastominutowy przestój stanowi problem. Dziś jest to priorytet większości przedsiębiorstw. Bo nawet te biznesy, które działały tylko offline, w dobie pandemii musiały przenieść się do świata online – zwraca uwagę Wojciech Stramski.
Kosztowne przestoje
Digitalizacja przyspieszyła. Praca zdalna stała się normą. Obostrzenia sanitarne i dystans społeczny sprawiły, że Kowalscy przekonali się do rozmów wideo, cyfrowej rozrywki, e-commerce, telemedycyny i edukacji na odległość. To wszystko wiąże się jednak z potrzebą zwiększenia mocy obliczeniowej. Ułatwieniem jest chmura obliczeniowa. Tylko co z bezpieczeństwem?
– Zamiast się zastanawiać, czy swoje serwery i dane powierzyć operatorom hostingowym, warto zapytać, który z nich zasługuje na zaufanie i zrobi to dobrze – podpowiada Paweł Stapf.
Jak szacuje amerykańska agencja konsultingowa ITIC, aż 85 proc. przedsiębiorstw dla utrzymania ciągłości biznesu potrzebuje bardzo wysokiej dostępności cyfrowych informacji. Oznacza to maksymalnie 52 minuty przerwy w dostępie do usług IT w skali roku. Tymczasem większość centrów danych ma standard Rated 3 (lub niższy), czyli dopuszczający niedostępność usług przez 100 minut rocznie. Wojciech Stramski zaznacza, że w UE tylko Beyond.pl ma obiekt z certyfikatem Rated 4 (ograniczenie niedostępności do 26 minut w ciągu roku). Ale bez obaw – nie każdy potrzebuje aż tak wysokich parametrów.
– Potencjalni użytkownicy powinni odpowiedzieć sobie na pytanie, jakiego poziomu niezawodności oczekują i od wyniku tej analizy uzależnić wybór rozwiązania – radzi przedstawiciel Beyond.pl.
Jest przekonany, że mała agencja reklamowa nie ucierpi zbytnio z powodu dnia przerwy. W przypadku banku czy e-sklepu straty mogą być jednak ogromne.
– Weźmy Amazona, który zaliczył 49-minutowy brak dostępu do strony internetowej i aplikacji mobilnej. Kosztowało go to 5 mln USD. Jak to możliwe? Taki przychód amerykański gigant odnotowywał w tym czasie ze sprzedaż̇y online – wskazuje Wojciech Stramski.
Beyond.pl postanowił ustalić możliwą stratę na przykładzie fikcyjnego producenta z branży mięsnej. Przyjęto dwa założenia. Pierwsze: wszystkie sfery działalności – skup surowca, przetwarzanie, sprzedaż, logistyka, utrzymanie, finanse i księgowość oraz administracja – są wspomagane przez systemy informatyczne lub automatyki przemysłowej. Drugie: zakład wytwarza 1,3 tys. ton mięsa dziennie. Wyliczono, że bez zapewnienia disaster recovery (szybkie wznowienie pracy na wypadek katastrofy) doba przestoju kosztowałby przetwórcę 26 mln zł. Taka byłaby wysokość nieosiągniętych korzyści, a trzeba przecież jeszcze uwzględnić koszty stałe i inne szkody wynikających z awarii. Zatrzymanie linii produkcyjnej może skutkować m.in. obniżeniem jakości produktu, co grozi utratą całej partii towaru, a w konsekwencji spadkiem zaufania konsumentów, jeżeli felerne artykuły trafią do sklepów.
Regularny backup
A co z kopiami zapasowymi? Czy nie są one skuteczną ochroną przed ogniem, wodą lub cyberatakiem?
– Szkopuł w tym, że backup robi się rzadko, np. raz na dobę̨, więc w przypadku awarii stracimy dane z ostatnich 24 godzin. Co więcej, samo wykonywanie kopii zapasowych nic nie daje. Konieczne są procesy disaster recovery, a one bywają różne. Dzięki niektórym innowacjom odzyskanie i przywrócenie dostępu do danych trwa tylko kilka minut, lecz trzeba w nie zainwestować. Polski standard to rozwiązania oferujące znacznie dłuższy czas odzyskania danych – liczony w godzinach, dniach, a nawet tygodniach – podkreśla Wojciech Stramski.
Jest też dobra wiadomość.
– Dzięki synchronicznej replikacji danych jesteśmy w stanie zapewnić 100 proc. dostępności systemów w razie awarii – tłumaczy Maciej Bocian, dyrektor regionalny Pure Storage na Polskę i Europę Wschodnią.
Czy chodzi o zewnętrzne serwerownie, czy backup, bariera wejścia jest coraz niższa, dzięki czemu ciągłość prowadzenia biznesu może zagwarantować sobie właściwie każdy.
