Moc cudownie rozmnożona

Mirosław KonkelMirosław Konkel
opublikowano: 2015-10-27 22:00

Technologie: Jak przechowywać i analizować coraz więcej danych, obniżając wydatki na pamięci masowe i rachunki za prąd

W „Cyberiadzie” Stanisław Lem opisał, jak zbuntowane Mądro uległo Siemianom, którzy zalali je masą bezużytecznych wiadomości. Informacyjny potop teraz grozi firmom. Mają one jednak skutecznych sprzymierzeńców — dostawców przestrzeni do składowania i analizowania danych.

— Co sekundę światowa sieć powiększa się o około 30 GB. Mniej więcej tyle „ważył” cały internet 20 lat temu. To pokazuje szalone tempo, w jakim rozwija się technologia big data, przez którą rozumiemy rozwiązanie do przechowywania i przetwarzania dużych zbiorów danych — mówi Piotr Prajsnar, dyrektor zarządzający spółki Cloud Technologies. Radomir Bordon, dyrektor działu wsparcia technicznego sprzedaży w firmie EMC, przypomina, że na świecie w użyciu jest kilkadziesiąt miliardów urządzeń przenośnych i terminali, a także dziesiątki milionów aplikacji. Do tego trzeba dodać naszą aktywność w mediach społecznościowych i nowe funkcjonalności, które oferuje chmura obliczeniowa.

— Coraz chętniej przenosimy życie, kontakty i działalność gospodarczą do świata cyfrowego. Nie pozostaje to bez wpływu na pamięci masowe. W innowacjach z tej dziedziny nie chodzi tylko o to, by gdzieś upchnąć nadmiar informacji, lecz aby wydobyć z nich jak największą wartość biznesową — tłumaczy Radomir Bordon.

Deduplikacja i dyski SSD

Rosnąca liczba danych oznacza wzrost zapotrzebowania na moc obliczeniową. Problem w tym, że firmy chcą, by związana z big data infrastruktura była nie tylko bardziej wydajna, niezawodna i bezpieczna, ale też tańsza. Wyższa efektywność i niższe koszty użytkowania? Najnowsze rozwiązania IT zdają się godzić z pozoru wykluczające się oczekiwania użytkowników biznesowych. Moda na zaciskanie pasa napędza rynek SSD (ang. solid-state drive), czyli nośników wykorzystujących pamięć flash.

Jakie są ich podstawowe zalety? Po pierwsze, zużywają znacznie mniej prądu i są efektywniejsze niż tradycyjne napędy dyskowe, wcześniej stosowane w firmach z powodu wysokiej wydajności. Po drugie, wytwarzają mniej ciepła niż tradycyjne napędy z częściami ruchomymi, dlatego ich wymagania dotyczące chłodzenia są mniejsze. Ale uwaga: oszczędności można uzyskać nie tylko przez zastosowanie bardziej wydajnych modeli pamięci masowych czy dysków SSD.

Warto też postawić na innowacyjne oprogramowanie, o czym przypomina Tomasz Krajewski, szef zespołu inżynierów Veeam Software na Europę Wschodnią. Jako przykład podaje system Veeam Availability Suite (VAS), dzięki któremu przedsiębiorstwa mogą ograniczyć koszty przez wydajniejsze eksploatowanie dostępnych pamięci masowych, nawet tych tańszych i starszej generacji.

— Wdrożenie VAS pozwala zagospodarować przestrzeń dyskową, która w tradycyjnych środowiskach back-upu zwykle pozostaje niewykorzystana. Zwiększa to efektywną pojemność pamięci masowej o co najmniej 30 proc. Następstwem jest odczuwalne ograniczenie przeznaczanych na nią wydatków — zachwala Tomasz Krajewski.

Innymi pomysłami na minimalizację kosztów są deduplikacja i kompresja danych. Jak podkreśla przedstawiciel Veeam Software, dzięki zastosowaniu tego mechanizmu Bank Polskiej Spółdzielczości (BPS) zmniejszył zużycie przestrzeni dyskowej o 64 proc.

— BPS znaczne wydłużył okres przechowywania danych bez zakupu dodatkowej mocy obliczeniowej. Przyniosło mu to od 100 do 150 tys. zł oszczędności rocznie. A warto zaznaczyć, że w tym wdrożeniu chodziło nie tyle o niższe nakłady, ile o zapewnienie wysokiej dostępności zasobów IT — tłumaczy Tomasz Krajewski.

Z otwartego źródła

Coraz większą rolę w dziedzinie pamięci masowych pełnią rozwiązania tworzone przez społeczność open source. Wojciech Furmankiewicz, architekt rozwiązań w firmie Red Hat, przekonuje, że nie jest to bynajmniej poślednia wersja softu. Inaczej — twierdzi — wśród użytkowników nie byłoby banków, ubezpieczycieli, telekomów i wyższych uczelni.

— Produkty te dostosowywane są do wymogów przedsiębiorstw, surowych kryteriów wysokiej stabilności, certyfikacji z całym ekosystemem, długiego cyklu życia i wsparcia technicznego 24x7 — argumentuje Wojciech Furmankiewicz. Wtóruje mu Dariusz Świąder z Linux Polska, według którego aplikacje z otwartego źródła są coraz lepsze i bezpieczniejsze, bo ich twórcy to użytkownicy zaangażowani w nieustanny rozwój produktu.

— Model licencyjny wymusza ciągłą innowację, eliminując powszechną w przypadku kodu zamkniętego pokusę maksymalnego wykorzystania wcześniejszych inwestycji w rozwój oprogramowania. Coraz więcej firm umie to docenić — wyjaśnia Dariusz Świąder. Pomysłów na tanie i skuteczne zarządzanie danymi nie brakuje.

A jak wybrać metodę, która sprawdzi się w naszej spółce? Eksperci IT radzą, by wszystkie decyzje zakupowe poprzedzać inwentaryzacją środowiska informatycznego, analizą wymagań technicznych i biznesowych. Zalecają też inwestycje na wyrost. Planując pojemność i dostępność zasobów IT, warto uwzględnić okres 3-5 lat — podpowiadają. Inna wskazówka: trzeba pamiętać, aby sprzęty i programy stanowiły spójną całość. © Ⓟ

Możesz zainteresować się również: