Oprogramowanie pokazuje wąskie gardła sieci

Marcin Złoch
opublikowano: 19-03-2003, 00:00

W najbliższym czasie firmy tworzące oprogramowanie dla sieci pamięci masowych będą skupiały się na wypracowaniu rozwiązania, które mogłoby współpracować z urządzeniami pochodzącymi od różnych dostawców.

Utworzenie sieci pamięci masowych wiąże się z koniecznością zastosowania oprogramowania mającego ułatwiać zarządzanie nią.

— Potrzebne jest łatwe zarządzanie siecią. Nie ma szansy na wydajną pracę, gdy administrator zajęty jest ciągłym przemieszczaniem, od jednego do drugiego urządzenia, próbując zarządzać całą infrastrukturą. Zapewnienie pożądanego poziomu bezpieczeństwa danych bez specjalistycznego oprogramowania nie jest możliwe. Poza tym w dużych systemach ważna jest niezawodność dostępu oraz czas dotarcia do danych, a to bez odpowiedniego oprogramowania jest trudne — uważa Jacek Siekiński, konsultant techniczny ds. pamięci masowych HP Polska.

— Zarządzanie pamięciami masowymi składa się z trzech obszarów. Pierwszy to ochrona danych i wykonywanie kopii zapasowych. Drugi — zarządzanie lokalizacją danych, a trzeci to administrowanie przestrzenią dyskową, planowanie jej rozwoju — dodaje Daniel Olkowski, inżynier sprzedaży Legato Polska.

Przedsiębiorstwa mogą śledzić drogę danych na całej trasie, od urządzenia źródłowego, aż do samego końca. Dzięki temu istnieje możliwość szybkiej identyfikacji i eliminacji wąskich gardeł oraz optymalizacji ustawień sieci. Dzięki temu można również łatwo przewidzieć, kiedy i w którym miejscu sieci potrzebna będzie większa przepustowość.

— Dziś w sieciach SAN rozpoczyna się etap, w którym klienci chcą oprócz możliwości konfiguracji połączeń mierzyć wydajność, sprawdzać i monitorować najbardziej obciążone ruchem miejsca systemu. Oprogramowanie w sieci pamięci masowych jest przypisane do kilku warstw. Po pierwsze odpowiada za połączenie kilku elementów sieci. Po drugie zapewnia bezpieczeństwo w sieci, poprzez zdefiniowanie, które serwery mogą mieć dostęp do konkretnych danych. Po trzecie software pokazuje elementy, które się komunikują i generuje statystyki, obrazujące wykorzystanie sieci — informuje Jacek Szczepanek, kierownik sekcji integracji platform i pamięci masowych, działu usług profesjonalnych Sun Microsystems Poland.

Dodatkowo wykorzystanie oprogramowania umożliwia automatyczne izolowanie problemów i wyznaczanie nowych tras omijających uszkodzone punkty sieci.

— Najczęściej oprogramowanie w wydzielonych sieciach pamięci masowych służy do kierunkowania ruchu, administracji i monitorowania zasobów. Kierunkowanie to np. wytyczenie strefy i zasad współpracy wielu serwerów podłączonych do jednej macierzy. Administracja to np., gdy w przypadku awarii jednej ścieżki ruch danych automatycznie znajdzie drogę obejścia i dotarcia do przydzielonych zasobów. Monitoring jest związany z diagnostyką, to wiedza, co się może stać w sieci w najbliższym czasie, ale i badanie obciążenia portów, sprawdzanie ruchu w przełącznikach — twierdzi Marek Jeznach, key account manager S&T Polska.

Firmy dostarczające urządzenia i oprogramowanie pamięci masowych opracowały rozwiązanie, które pozwala dane przechowywane w

dowolnych urządzeniach pamięci masowych, umieszczać we wspólnej puli zasobów. Można do niej uzyskać szybko dostęp i zarządzać nią z centralnego miejsca. To rozwiązanie nazwano wirtualizacją pamięci masowych.

— Wirtualizacja pozwala na lepsze wykorzystanie zasobów IT, dysponowanie wspólną powierzchnią dyskową i łatwe zarządzanie storage’em. Przynosi oszczędności, bo pozwala uzyskać niższy stosunek wolnych przestrzeni dysków twardych do zajętych, dzięki efektywniejszemu rozmieszczeniu danych — przekonuje Piotr Nogaś, architekt systemów Veritas Software Poland.

Duże firmy posiadają wiele rodzajów systemów do magazynowania danych. Szybkie systemy dyskowe przeznaczone są do trzymania danych wykorzystywanych na bieżąco, do których dostęp następuje często. Tańsze lecz wolniejsze biblioteki taśmowe, magnetooptyczne czy DVD służą do przechowywania danych wykorzystywanych sporadycznie, jak np. starsze wersje dokumentów, dane osobowe, nieużywane dane użytkowników, zdjęcia, pliki multimedialne. Wirtualizacja storage’u sprawia, że użytkownicy widzą jednolitą przestrzeń dyskową, nie wiedzą zaś, gdzie dane znajdują się fizycznie. Nieużywane pliki są automatycznie przenoszone na tańsze nośniki, będąc cały czas dostępne on-line dla użytkowników.

— Przy korzystaniu z wirtualizacji nie ma znaczenia fizyczne umiejscowienie danych, użytkownik nie ma potrzeby wiedzieć, gdzie one się znajdują. Ważne jest, żeby jak najszybciej dane udostępnić — przekonuje Andrzej Karchniwy, kierownik produktu pamięci masowe Fujitsu Siemens

Computers.

— Klient widzi jedną przestrzeń dyskową. Oprogramowanie zarządza danymi, monitoruje, kiedy ostatni raz potrzebny był dany plik i przenosi go w odpowiednie miejsce. Jeżeli plik jest mało używany, to zapisuje go na tańszych, od dysków macierzy, taśmach lub dyskach optycznych. Owocuje to mniejszym obciążeniem macierzy i serwerów. Dodatkowym zyskiem jest, że system „widzi” nie tylko najświeższe dane z macierzy, ale i te z kilku poprzednich lat zmagazynowane na taśmach. To jest niezbędne do przeprowadzania długofalowych analiz — uważa Daniel Olkowski.

Wirtualizacja w sieciach pamięci masowych jest nowym pomysłem, praktycznie nie wykorzystywanym w polskich firmach.

— Wydzielone sieci pamięci masowych i wirtualizacja to nowe i nie najtańsze rozwiązania. Jest tak, że największa część pieniędzy w budżetach działów IT jest przeznaczona na aplikacje produkcyjne, więc w teorii ta część firmowego systemu IT mogłaby zostać wzbogacona o wirtualizację. Jednak przy systemie krytycznym dla przedsiębiorstwa muszą być wykorzystywane sprawdzone rozwiązania, a nie nowości. Te podejścia wzajemnie się kłócą, dlatego obserwujemy wolne tempo akceptacji przez rynek rozwiązań wirtualizacyjnych — uważa Jacek Szczepanek.

Producenci sieciowych pamięci masowych stosują różne metody wirtualizacji pamięci: niektórzy tylko w produkowanych przez siebie urządzeniach, inni do urządzeń pamięci masowej oferowanych także przez innych producentów. Zdaniem przedstawicieli firm dostarczających pamięci masowe, na rynku nie ma takiego narzędzia, które pozwalałoby grupować wszystkie pamięci masowe i zarządzać nimi za pomocą jednego uniwersalnego i otwartego rozwiązania wirtualizacji pamięci.

— Na rynku nastąpiła pewna standaryzacja produktów. Prawdopodobieństwo wystąpienia sytuacji, w której klient zakupi nierozwojowe rozwiązanie, to znaczy rynek pójdzie w inną stronę, jest nikłe — mówi Piotr Nogaś.

Istnieją dwie metody budowania sieci pamięci masowych. Zakup od jednego dostawcy całości infrastruktury albo zbieranie fragmentów od wielu. Firmy chcące zróżnicować dostawców mają małe szanse na zarządzanie całością sieci.

— Problemem jest brak otwartych standardów zarządzania, często oprogramowanie jest indywidualne dla każdego modelu macierzy. Na rynku działa kilku najważniejszych dostawców urządzeń, każdy ma w ofercie oprogramowanie zarządzające nimi. Istotne jest, żeby udało się wypracować standardy pozwalające komunikować się w spójny sposób ze wszystkimi dostępnymi urządzeniami — twierdzi Jacek Szczepanek.

Przedstawiciele firm informatycznych zwracają uwagę na potrzebę powstania pojedynczego graficznego interfejsu do zarządzania wieloma komponentami sieci pamięci masowych.

— Administrator musi mieć sporą wiedzę zarządzając oddzielnie kilkunastoma urządzeniami, gdy każde z nich jest wyposażone w inny software. Przy modelu centralnym zarządzanie ograniczy się do kilkunastu opcji. Powoli pojawiają się takie rozwiązania, producenci wymieniają się komponentami pozwalającymi zarządzać i monitorować sprzęt innego dostawcy — mówi Andrzej Karchniwy.

Rośnie nacisk przedsiębiorstw, nie na dostarczenie poszczególnych technologii, lecz na rozwiązanie konkretnych potrzeb biznesowych. W przypadku oprogramowania zarządzającego sieciami pamięci masowych oznacza to, że użytkownicy oczekują nie backupu z określoną prędkością, lecz zagwarantowania określonego poziomu SLA (Service Level Agreement).

— Pod tym pojęciem kryją się uzgodnione między klientem a dostawcą takie parametry, jak maksymalny czas zabezpieczania danych, maksymalny czas niedostępności danych przy awarii, brak wpływu procesu zabezpieczania na pracę innych działów, klientów itp. W jaki sposób i jaką technologią dostawca zagwarantuje określony poziom SLA, ma już mniejsze znaczenie — informuje Daniel Olkowski.

Według przedstawicieli firm dostarczających systemy backupowe, w najbliższym czasie najważniejsze stanie się uproszczenie zarządzania sieciami storage.

— Według mnie, software rozwinie się w kierunku uproszczenia zarządzania siecią. Ilość danych przyrasta, trzeba je trzymać i zarządzać nimi. Chodzi o zredukowanie armii administratorów, obsługujących procesy zarządzania danymi — uważa Marek Jeznach.

Przy budowie systemu pamięci masowych nie jest regułą, że firmy zakupują oprogramowanie do zarządzania nim.

— Wśród klientów widzę zainteresowanie oprogramowaniem i badanie jego możliwości. Duże systemy są tworzone dość długo. Zdarza się, że prowadzone rozmowy o zakupie oprogramowania zarządzającego sieciami pamięci masowych finalizują się w następnym roku. Zainteresowanie z zeszłego roku będzie procentowało w bieżącym. Ten rynek ma duży potencjał — twierdzi Piotr Nogaś.

Rozwiązania umożliwiające zarządzanie sieciami pamięci masowych są w największym stopniu wykorzystywane w firmach telekomunikacyjnych i finansowych.

— Firmy tworząc sieć pamięci masowych najczęściej rezygnują z zakupu dodatkowego oprogramowania. Decydują się na urządzenia z podstawowymi funkcjami. Największe zainteresowanie widzę ze strony operatorów telekomunikcyjnych i banków. Dotarcie do przemysłu to kwestia czasu — zapowiada Jacek Siekiński.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Marcin Złoch

Być może zainteresuje Cię też:

Polecane

Inspiracje Pulsu Biznesu

Puls Biznesu

Kariera / Oprogramowanie pokazuje wąskie gardła sieci