Wirtualizacja nadaje ton

Dzięki sprytnym rozwiązaniom można zaoszczędzić na sprzęcie, powierzchni dyskowej i energii

Firmy chcą stworzyć możliwie oszczędny system pamięci masowej. Oznacza to nie tylko wybór rozwiązań energooszczędnych, ale także ograniczenie konieczności inwestowania w kolejny sprzęt. Częstym problemem przedsiębiorstw jest bowiem zbyt duże rozbudowanie infrastruktury IT, której utrzymywanie jest po prostu kosztowne.

— Aby odchudzić infrastrukturę, należy wybrać rozwiązania bardzo efektywne, które pozwolą przejść do modelu cloud computingu do racjonalnego zarządzania danymi i ekonomicznego wykorzystywania dostępnych zasobów. Stąd stały wzrost popularności takich funkcjonalności jak deduplikacja czy wirtualizacja — podkreśla Krzysztof Celmer, dyrektor regionalny w spółce NetApp Poland. Deduplikacja to sposób na oszczędzanie miejsca na dyskach poprzez zachowywanie tylko jednej kopii bloku danych, który — nawet kilkukrotnie zapisany w różnych plikach lub bazach danych — cały czas zajmuje tyle samo miejsca na dysku.

Natomiast wirtualizacja umożliwia skonsolidowanie w jednej puli wszystkich dostępnych zasobów pamięci masowej, co ułatwia zarządzanie nimi i optymalizuje ich wykorzystanie. Zastosowanie tych technologii przekłada się na mniejsze zużycie energii i miejsca w serwerowni, ponieważ ogranicza konieczność zakupu dodatkowych urządzeń.

— Wybranie właściwego, czyli dostosowanego do potrzeb firmy magazynu danych (storage’u), to nie jedyne wyzwanie stojące dziś przed przedsiębiorcami. Przy upowszechnianiu się cloud computingu równie ważna staje się umiejętność optymalnego zakupuusług w chmurze — wskazuje Krzysztof Celmer.

Od taśm do dysków

Niezwykle ważną tendencją ostatnich lat jest odchodzenie od tradycyjnych bibliotek taśmowych na rzecz urządzeń wykorzystujących dyski. Jednocześnie firmy coraz częściej wprowadzają technologie flash (solid state disk) jako uzupełniające, ale także zastępujące tradycyjne rozwiązania dyskowe.

— Dyski SSD pojawiają się w najmniejszych konfiguracjach macierzy, a do specyficznych zastosowań można rozważać tzw. macierze all-flash z wbudowanymi mechanizmami deduplikacji, znanymi dotąd z zastosowań archiwizacyjnych — tłumaczy Paweł Tokarski, dyrektor techniczny firmy EMC w Polsce. Jeśli chodzi o samą architekturę, coraz częściej zmienia się wyspecjalizowane elementy sprzętowe na standardowe komponenty i buduje przewagę konkurencyjną dzięki zaawansowanemu oprogramowaniu.

— Standardowe komponenty to również podstawa przy budowie rozwiązań w architekturze scale-out [system przechowywania danych, który wykorzystuje metodę skalowania — red.], wykorzystywanych w przetwarzaniu wielkich zbiorów danych (big data). W tym przypadku zastosowanie rozwiązań typu scale-up byłoby niepraktyczne i nieekonomiczne. Coraz popularniejsze są rozwiązania łączące warstwy magazynu danych, sieci i serwerów w konwergentne środowiska — wyjaśnia Paweł Tokarski.

Jedność w różnorodności

Za znaczące zjawisko trzeba uznać pojawienie się na rynku zunifikowanych pamięci masowych klasy korporacyjnej. Unified storage — bo o tym rozwiązaniu mowa — pozwala przechowywać wiele typów danych (plików, bloków, obiektów) na jednej platformie w jednej przestrzeni dyskowej. Dotąd firmy musiały wykorzystywać oddzielne platformy do różnych typów danych, czyli ponosić większe koszty, lub korzystać z systemów przeznaczonych dla mniejszych podmiotów, a tym samym pozbawiać się wielu funkcji ograniczających koszty i uproszczających zarządzanie. — Zunifikowana pamięć masowa klasy korporacyjnej pomaga ograniczać koszty poprzez funkcje zwiększające efektywność. Jedną z nich jest dynamiczne przydzielanie wirtualnej przestrzeni dyskowej, tzw. thin provisioning. Pozwala zaalokować pamięć wirtualną na użytek aplikacji bez względu na rzeczywistą dostępną pojemność fizyczną — wyjaśnia Marek Świerad, dyrektor generalny na region Europy Środkowo-Wschodniej, Bliskiego Wschodu, Północnej Afryki i Turcji w Hitachi Data Systems.

Bez thin provisioningu — dodaje — administratorzy podczas konfigurowania aplikacji musieli z góry rezerwować miejsce przekraczające bieżące potrzeby. Z wirtualnym przydzielaniem przestrzeń jest zużywana dopiero podczas zapisu danych i można ją zwiększać bez zakłócania pracy systemu. Przyszłością jest także automatyczne przenoszenie danych między warstwami pamięci masowych (tzw. dynamic tiering).

— Przedsiębiorstwa dzielą pamięć na warstwy, czyli różne typy dysków twardych przeznaczają do przechowywania różnego rodzaju danych. Szybsze i droższe najlepiej spełnią swoją rolę w obsłudze danych do aktualnie używanych i krytycznych aplikacji biznesowych. Nośniki starszej technologii posłużą do przechowania informacji archiwalnych. Wbudowana automatyzacja optymalizuje wydajność i sprawia, że staje się ona przewidywalna, dzięki czemu klienci mogą wykorzystać cały potencjał inwestycji — zachwala dyrektor Marek Świerad.

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Mirosław Konkel

Najważniejsze dzisiaj

Polecane

Inspiracje Pulsu Biznesu

Puls Biznesu

Puls Inwestora / Wirtualizacja nadaje ton