Nie spiesz się z zakupem macierzy

opublikowano: 29-05-2013, 00:00

Zanim rozbudujemy firmową pamięć, warto sprawdzić posiadane zasoby.

Wraz ze wzrostem liczby przetwarzanych danych zwiększa się zapotrzebowanie na moc obliczeniową, powierzchnię dyskową i przepustowość łączy internetowych. Jednocześnie firmom nie w smak rozbudowa infrastruktury informatycznej, której utrzymywanie dużo kosztuje. Rozwiązaniem jest technologia wirtualizacji, dzięki której np. na jednej fizycznej maszynie można uruchomić dwie wirtualne, w pełni wykorzystując dostępne zasoby, zamiast inwestować w dwa osobne, pracujące na pół gwizdka serwery. W tym przypadku odchodzi konieczność zakupu dodatkowych urządzeń, poza tym oszczędza się na energii elektrycznej i miejscu w serwerowni.

Zobacz więcej

TO SIĘ OPŁACA: Nawet jeśli obciążenie serwerów nie jest znaczące, wirtualizacja może przyczynić się do bardziej efektywnego wykorzystania zasobów sprzętowych przy zachowaniu tej samej wydajności i dostępności usług — mówi Monika Jóźwiak z Focus Telecom Polska. [FOT. ACR]

— Wirtualizacja, która przełamuje fizyczne bariery między zasobami pamięci masowej, umożliwia ich skonsolidowanie do jednej puli. Efektem jest elastyczna infrastruktura IT, łatwiejsze zarządzanie pojemnością i aplikacjami. Dodatkowo dzięki wydajnemu wykorzystaniu sprzętu firmy mogą ograniczyć inwestycje w nowe produkty. Zmniejsza się również zużycie prądu w serwerowniach — twierdzi Krzysztof Celmer, dyrektor zarządzający w spółce NetApp Poland.

Hamulcem są koszty

Według Hitachi Data Systems, wirtualizacja ogranicza łączne koszty użytkowania (TCO) o co najmniej 40 proc. i zwraca się w niespełna rok. — Im większa firma, tym bardziej odczuwalne finansowei użytkowe korzyści z wirtualizacji. W przypadku mniejszych przedsiębiorstw, które korzystają np. z serwerów webowych, kontrolerów domen i serwerów plików, postawienie zasobów na jednym serwerze zamiast np. na trzech też znajdzie ekonomiczne uzasadnienie — uważa Monika Jóźwiak, kierownik sprzedaży pośredniej Focus Telecom Polska. A jednak właśnie czynniki finansowe sprawiają, że wiele firm wzbrania się przed tym rozwiązaniem, co pokazuje sondaż „State of Virtualization Survey”, przeprowadzony przez Data Core Software, amerykańskiego dostawcę oprogramowania. Przedsiębiorstwa zwracają uwagę na wysokie ceny storage’u, czyli pamięci masowych, które według 52 proc. badanych stanowią ponad 25 proc. ich budżetu na wirtualizację. 44 proc. respondentów przyznało, że właśnie drogie pamięci były „poważną” lub „pewną” przeszkodą wpływającą na wirtualizację części ich zasobów. Zaś 20 proc. oświadczyło, że wydatki na storage zostały w tym roku zredukowane (w 2012 r. tylko 14 proc.).

— Zjawisko dotyczy także wielu polskich firm. Prowadząc projekty wirtualizacji serwerów lub desktopów, często zauważają, że posiadane przez nie macierze dyskowe, na których mają być przechowywane wirtualne maszyny, nie są wystarczająco wydajne. Zaś ograniczane budżety IT nie pozwalają na znaczną modernizację — podkreśla Sławomir Karpiński, dyrektor kanału sprzedaży w firmie Connect Distribution, która zajmuje się dystrybucją oprogramowania DataCore Systems w Polsce.

Wycisnąć jak najwięcej

Ale jest i dobra wiadomość dla przedsiębiorstw: często dysponują wystarczającą pamięcią, tyle że nie umieją jej zagospodarować. Na szczęście są też w firmach informatycy, którzy zanim poproszą kierownictwo o rozbudowanie pamięci, próbują dostawcom storage’u opisać problem. Ci zaś sprawdzają, czy klient nie dysponuje nieużywanymi zasobami. A dzięki stałej kontroli mogą przewidzieć niezbędne inwestycje w nowe przestrzenie dyskowe, co pozwala lepiej planować wydatki.

— Alternatywą dla inwestycji w nowy sprzęt może być oprogramowanie, które łączy w jedną pulę wszystkie posiadane przez przedsiębiorstwo pamięci masowe, zwiększając ich wydajność i ułatwiając zarządzanie całym środowiskiem — wskazuje dyrektor Karpiński. Dużo zależy jednak od wiedzy i zaangażowania firmowych informatyków.

— Działy IT mają teraz trochę inne wyzwania niż kilka lat temu — muszą całościowo podchodzić do zagadnień IT. Ich zadaniem jest przede wszystkim skuteczny SRM (storage resource management), czyli dbanie o maksymalne wykorzystanie zasobów informatycznych, które już w firmach są — podkreśla Piotr Florek, dyrektor działu handlowego w B3System. Do określenia dostępnych zasobów IT służą narzędzia SRM, wśród których jest Storczyk. Ten autorski projekt B3System zapewnia monitoring i analizę macierzy, hostów, grup wolumenów, systemów plików, aplikacji i baz danych oraz powiadamianie wybranych grup lub osób o wystąpieniu zdefiniowanego zdarzenia w systemie, np. przekroczeniu poziomu zajętości.

— Kilku operatorów telekomunikacyjnych używa naszego rozwiązania do weryfikacji zamówień na pojemność. Sprawdzają np. czy ktoś, kto zamawia nową pojemność, wykorzystał wcześniej przyznaną — tłumaczy dyrektor Florek.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Mirosław Konkel

Polecane

Inspiracje Pulsu Biznesu