Praca bez przestoju

Jan Kaliński
opublikowano: 26-04-2006, 00:00

Stabilność komputera jest nie mniej ważna od bezpieczeństwa przechowywanych w nim danych.

To między innymi od stabilności i ciągłości pracy systemu, oprogramowania i sprzętu komputerowego zależy sprawne funkcjonowanie przedsiębiorstw. Prawie każda działalność biznesowa funkcjonuje dzięki dostępowi do danych. I nie ma tu znaczenia wielkość przedsiębiorstwa.

— Pojawiają się nowe modele biznesowe, powstaje coraz więcej danych cyfrowych. Wzrost produktywności jest uzależniony od dostępu do nich — mówi Jarosław Samonek, country manager w firmie Symantec.

Infrastruktura firmowa jest powiązana siecią połączeń z infrastrukturą klientów, partnerów i dostawców. W ramach tych zależności stale przesyłane są informacje. Do wewnątrz i na zewnątrz. Informacje to rzecz cenna i trzeba je należycie chronić.

— Inwestycje w infrastrukturę obejmującą punkty końcowe z jednej strony aż po macierze pamięci z drugiej mają na celu zapewnienie dostępu, możliwości przenoszenia, przydzielania oraz przechowywania informacji. Perspektywy rozwoju tego rynku są bardzo obiecujące, szczególnie w sektorze MŚP, gdzie świadomość i potrzeby są coraz bardziej widoczne — dodaje Jarosław Samonek.

Czas to pieniądz

— Firmy do niedawna liczyły czas bezawaryjnej pracy w dziesiętnych, setnych dzisiaj są to już tysięczne. W tej chwili każdą minutę pracy firmy potrafią przeliczyć na konkretne pieniądze — mówi Bartosz Świderski, konsultant w firmie Computer Associates.

— Ciągłość pracy i jej stabilność są kluczowymi elementami podnoszenia konkurencyjności przedsiębiorstwa — tłumaczy Sebastian Lagun z Softbanku.

Tego problemu nie można nie zauważać. Zaniechanie działania, niezapewnienie odpowiedniej ochrony stabilności i ciągłości może narazić przedsiębiorstwa na wiele kosztów.

— Od zwykłych nieprzyjemności do bankructwa włącznie. Im bardziej firma polega na systemach informatycznych, tym bardziej odczuwa ich awarie. Dzisiaj można powiedzieć, że najmniej podatna na skutki awarii systemów IT jest administracja publiczna. Instytucje tego typu zupełnie nie polegają na systemach informatycznych. Inaczej sytuacja wygląda w bankach i telekomach, gdzie awaria może spowodować paraliż nie tylko samej instytucji, ale również milionów klientów — mówi Bartosz Świderski.

Nie całkiem 24/24

Nie chodzi o to, by zapewnić ciągłość pracy całej sieci non stop. Ważne, by zapewnić funkcjonowanie tej jej części, która jest aktualnie wykorzystywana. Dokładne zdefiniowanie potrzeb i określenie godzin pracy sytemu umożliwią zoptymalizowanie kosztów.

— Wymogi przedsiębiorstwa w dziedzinie dostępności systemów warto zdefiniować w taki sposób, aby odzwierciedlały potrzeby procesów biznesowych. Jako przykład weźmy system, który powinien pracować 16 godzin na dobę w sposób ciągły w określonych godzinach, bez sobót i niedziel. Akceptowane są przerwy w czasie pracy systemu, ale nie dłuższe niż 20 minut i nie częściej niż dwa razy w ciągu doby. Mając tak zdefiniowane wymogi dotyczące ciągłości systemu, możemy dobrać właściwe rozwiązanie sprzętowe, procedury operacyjne i personel obsługi technicznej — opisuje Robert Kępczyński z IBM Polska.

Czas zaplanowanych przerw można wykorzystać wtedy na wdrażanie rozwiązań wspomagających funkcjonowanie przedsiębiorstwa.

— Wprowadzenie do powszechnego stosowania działań związanych z planowanymi przestojami ma na celu usprawnienie dostępności narzędzi wspierających działalność — podkreśla Sebastian Lagun.

Krytyczny błąd systemu

Stosowane dziś architektury sieci zapewniają ciągłość pracy nawet w krytycznych sytuacjach. Pozwala na to zastosowanie awaryjnych połączeń infrastruktury informatycznej, możliwości przełączania połączeń sieciowych tak, by odciąć niesprawne.

— W przypadku sprzętu niezbędne jest zapewnienie współdzielonych zasobów dyskowych i przynajmniej dwóch serwerów, które mogą wzajemnie przejmować swoje funkcje. Na poziomie programowym musimy zastosować odpowiednie dla danej platformy oprogramowanie wysokiej dostępności, czyli oprogramowanie klastra. Nowe możliwości daje też coraz bardziej powszechna wirtualizacja zasobów sprzętowych i oprogramowanie do zarządzania wirtualnymi serwerami — twierdzi Tomasz Wawrzonek, menedżer IT w dziale usług outsourcingowych firmy BCC.

Problem pojawia się wtedy, kiedy nie udało się powstrzymać awarii i sieć przestaje funkcjonować. Odtworzenie poprzedniego stanu to nie lada wyzwanie dla informatyków.

— Odtworzenie zasobów w przypadku awarii powstałej na skutek braku stabilności aplikacji jest długotrwałe, a prawdopodobieństwo odtworzenia bez uszczerbku kompletności i spójności środowiska niewielkie — mówi Sebastian Lagun.

Dobre praktyki

— Większość nakładów związanych z budową środowisk zapewniających stabilność i ciągłość dostępności zasobów zakłada uwzględnienie dobrych praktyk. Zaś rozwój tego segmentu zależy głównie od oferty producentów i dostawców aplikacji — twierdzi Sebastian Lagun.

Jednym z najpoważniejszych problemów IT jest brak wiedzy użytkowników. Polskie przedsiębiorstwa niechętnie biorą przykład z zagranicznych.

— Dobre praktyki powszechnie wykorzystywane przez międzynarodowe korporacje pozostają niezauważone przez lokalne firmy. Tłumaczy się to faktem, że kultura lokalna jest odmienna od kultur globalnych. Jesteśmy przekonani, że opieranie się na dobrych praktykach stanowi istotny element zapewniający stabilność i ciągłość dostępności usług, bezpieczeństwa danych oraz np. ich archiwizacji — mówi Sebastian Lagun.

Nikt nie jest doskonały, czasem warto usprawnić działanie firmy, sięgnąć po rady specjalistów.

— Z całą pewnością postępowanie zgodnie z zasadą NSPOF (non single point of fauiler) oraz ścisła współpraca z dostawcami technologii i rozwiązań istotnie przyczynią się do podniesienia ciągłości dostępności i stabilności pracy — dodaje Sebastian Lagun.

Nieprzerwane zasilanie, sprawne działanie

Ciągłość pracy systemu zapewnia się dzisiaj na wiele sposobów. Najczęściej jest to tzw. redundancja, czyli nadmiarowość w stosunku do niezbędnego minimum zapewniającego funkcjonowanie systemu. Redundancję można stosować w różnych obszarach systemu informatycznego — najlepszym sposobem jest wykorzystanie tego rozwiązania w najbardziej newralgicznych punktach infrastruktury. Niewątpliwie takim punktem jest zapewnienie ciągłej pracy serwerów oraz dostępu do internetu. Obydwa te zadania wymagają nieprzerwanych dostaw prądu — w tym szczególnym przypadku ciągłość pracy systemu sprowadza się do odpowiedniego zabezpieczenia zasilania. Wybór może paść na przeciętnej wielkości zasilacze awaryjne lub na wielkie generatory prądowe, które wymagają dużej powierzchni, nie wspominając już o przestrzeniach potrzebnych na zbiorniki paliwa. Takimi rozwiązaniami dysponują zwykle duże centra outsourcingowe. Właśnie outsourcing jest opcją wartą rozważenia przez firmy lub korporacje mające wysokie wymagania co do jakości usług informatycznych. Centrum outsourcingowe zapewnia klientowi przestrzeń na serwery, dba o bezpieczeństwo danych, zabezpiecza przed brakami zasilania oraz monitoruje stan urządzeń, także tych odpowiedzialnych za łączność z internetem.

Inną kwestią jest odpowiednie zabezpieczenie stabilności pracy w siedzibach firm. Każda placówka ma swoją własną infrastrukturę informatyczną, którą należy utrzymywać w odpowiednim stanie. Może się tym zajmować przeszkolony wewnętrzny personel IT lub zewnętrzna firma oferująca tego typu usługi. Często dane istotne dla firmy przechowywane są nie tylko na serwerach, ale również na dyskach twardych laptopów lub komputerów stacjonarnych. Dział IT musi więc wprowadzić zasady zabezpieczania tych danych oraz scenariusze postępowania na wypadek awarii sprzętowych. Niezbędne jest ustalenie harmonogramu wykonywania backupów lub obrazów całych dysków bądź partycji. Należy także wziąć pod uwagę elementy umów gwarancyjnych, np.: szybkość reakcji serwisu w sytuacji wymagającej wymiany sprzętowej.

Innym elementem bezpiecznej infrastruktury informacyjnej jest ochrona danych przed szeroko pojętym niepowołanym dostępem. Z pomocą przychodzi tutaj oprogramowanie umożliwiające szyfrowanie danych zarówno na dyskach twardych, jak i podczas transmisji w sieci. Popularne rankingi systemów IDS, firewalli oraz oprogramowania antywirusowego powinny pomóc w doborze optymalnego rozwiązania.

Ostatecznych rozwiązań w kwestii zapewnienia bezpiecznej i ciągłej pracy może być bardzo dużo, a zależeć będą od wielu aspektów, również od innowacyjności oraz pomysłowości ludzi bezpośrednio zaangażowanych w budowanie tego typu koncepcji.

Jarosław Karpiel, administrator sieci w IDS Scheer Polska

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Jan Kaliński

Polecane

Inspiracje Pulsu Biznesu

Puls Biznesu

Kariera / Praca bez przestoju