Wraz ze wzrostem liczby przetwarzanych danych zwiększa się zapotrzebowanie na moc obliczeniową, powierzchnię dyskową i przepustowość łączy internetowych. Jednocześnie firmom nie w smak rozbudowa infrastruktury informatycznej, której utrzymywanie dużo kosztuje. Rozwiązaniem jest technologia wirtualizacji, dzięki której np. na jednej fizycznej maszynie można uruchomić dwie wirtualne, w pełni wykorzystując dostępne zasoby, zamiast inwestować w dwa osobne, pracujące na pół gwizdka serwery. W tym przypadku odchodzi konieczność zakupu dodatkowych urządzeń, poza tym oszczędza się na energii elektrycznej i miejscu w serwerowni. Według Hitachi Data Systems, technologie wirtualizacji ograniczają łączne koszty użytkowania (TCO) o co najmniej 40 proc. i zwracają się w niespełna rok.
— Wirtualizacja, która przełamuje fizyczne bariery między zasobami pamięci masowej, umożliwia ich skonsolidowanie do jednej puli. Efektem jest elastyczna infrastruktura IT, łatwiejsze zarządzanie pojemnością i aplikacjami. Dodatkowo dzięki wydajnemu wykorzystaniu posiadanego sprzętu firmy mogą ograniczyć inwestycje w nowe produkty. Zmniejsza się również zużycie prądu w serwerowniach — potwierdza Krzysztof Celmer, dyrektor zarządzający w spółce NetApp Poland.
Taśmy, dyski, platformy
Aby odpowiedzieć na coraz większe potrzeby biznesu, twórcy technologii wirtualizacji nieustannie ją zmieniają. Już dawno odeszli od tradycyjnych bibliotek taśmowych na rzecz urządzeń wykorzystujących dyski. Dziś na topie są technologie flash — dyski solid state disc (SSD) coraz częściej zastępują tradycyjne, mechaniczne dyski twarde. Bo nie dość, że zapewniają dziesięciokrotnie szybsze transfery, to jeszcze czas dostępu do danych przy ich zastosowaniu jest bliski zeru. Za znaczące zjawisko trzeba również uznać pojawienie się na rynku tzw. unified storages (US), czyli zunifikowanych pamięci masowych klasy korporacyjnej. US pozwalają przechowywać wiele typów danych (plików, bloków, obiektów) na jednej platformie w jednej przestrzeni dyskowej. Dotąd firmy musiały wykorzystywać oddzielne platformy do różnych typów danych, czyli ponosić większe koszty, lub korzystać z systemów przeznaczonych dla mniejszych podmiotów, a tym samym pozbawiać się wielu funkcji ograniczających koszty i uproszczających zarządzanie. Przykładem takiego rozwiązania jest platforma Hitachi Unified Storage VM, dzięki której łatwo rozszerzać pamięć masową w miarę rosnących potrzeb, utrzymując przy tym odpowiedni poziom usług na użytek aplikacji biznesowych.
— Zunifikowany system pamięci masowej oferuje o 90 proc. szybszą migrację danych, obniżając całkowity koszt posiadaniao 30 proc. w porównaniu z produktami niewspierającymi wirtualizacji. Wprowadzając wirtualizację pamięci masowej do środowisk naszych klientów, jesteśmy w stanie odzyskać dodatkowe 42 proc. przestrzeni z posiadanych przez nich zasobów dyskowych, co znosi konieczność zakupu dodatkowej pojemności przez dwa lata — zachwala Radosław Machnica, specjalista ds. rozwoju w Hitachi Data Systems.
Dla średniaków
Duże korporacje stawiają na wirtualizację od dawna. Sektor MŚP również się do niej przekonał. Zwłaszcza że nie trzeba stosować kosztownej infrastruktury klasy korporacyjnej, aby czerpać korzyści z zaawansowanych funkcjonalności, które ta technologia oferuje. Wystarczą średniej klasy serwery i pamięci masowe typu NAS przeznaczone dla biznesowych średniaków i maluchów.
— Im większa firma, tym bardziej odczuwalne finansowe i użytkowe korzyści z wirtualizacji. W przypadku mniejszych przedsiębiorstw, które korzystają np. z serwerów webowych, kontrolerów domen i serwerów plików, postawienie zasobów na jednym serwerze zamiast np. na trzech też znajdzie ekonomiczne uzasadnienie — wskazuje Monika Jóźwiak, kierownik sprzedaży pośredniej Focus Telecom Polska. Oszczędności są ważne, ale nie tylko one przemawiają za zastosowaniem tej technologii. Dziś szczególnie małe instytucje nie mogą sobie pozwolić na zastój spowodowany brakiem dostępu do informacji wewnętrznych. Wirtualizacja daje im większą ochronę przed awariami dzięki kontroli dostawcy usługi, który tym samym zapewnia szybkie usuwanie i minimalizację ewentualnych skutków takich zdarzeń. A kiedy warto podjąć decyzję o takim wdrożeniu?
— Wszystko zależy od obciążenia serwerów. Nawet jeśli nie jest ono znaczące (np. w granicach 15 proc.), wirtualizacja może przyczynić się do bardziej efektywnego wykorzystania zasobów sprzętowych przy zachowaniu tej samej wydajności i dostępności usług — uważa kierownik Jóźwiak.
