Pod ciągłą kontrolą

Jarosław Wawer
opublikowano: 08-11-2006, 00:00

Sieć raz skonfigurowana zapewne dobrze radziłaby sobie bez administratora. Nadzór nad nią wymuszają jednak użytkownicy.

Administracja siecią polega nie tylko na reagowaniu na awarie i usuwaniu ich skutków. Ciągłe monitorowanie jej zachowań ma raczej za zadanie jak najwcześniej je wykryć i zapobiec im.

— Administrator zarządzający nowoczesną siecią korporacyjną niemal każdego dnia staje oko w oko z przeróżnymi wyzwaniami. A to nowe urządzenie na rynku oferujące nowe funkcjonalności, a to nowy operator wabiący korporację niższą ceną łącza, a to konieczność wdrożenia nowej krytycznej usługi, a to siejący spustoszenie wirus itd. — wymienia Michał Czernikow, produkt manager w firmie Passus.

Bezpieczeństwo czy też kondycja samej sieci w dużym stopniu uzależnione są od sposobu administracji. Jednym z głównych jej zadań jest minimalizowanie kosztów eksploatacji sieci, a więc ograniczanie działań generujących dodatkowe koszty. Często bowiem firma wydaje dodatkowe środki na zwiększenie szerokości pasma łącza internetowego, nie będąc świadoma faktu, że 70 proc. tego pasma jest wykorzystywanych do celów prywatnych. Wiele dysków firmowych komputerów jest wręcz zapchanych plikami mp3 i filmami (bardzo często nielegalnymi) do tego stopnia, że brakuje miejsca dla danych istotnych dla działania firmy. Czujny administrator może szybko wykryć i wyeliminować takie zagrożenia.

Czułe punkty

— Obecnie najbardziej wymagającymi i najbardziej wrażliwymi usługami działającymi w sieciach korporacyjnych są systemy transmisji głosu i obrazu. Jest to spowodowane tym, że ten typ transmisji generuje bardzo dużo danych, które muszą zostać dostarczone do odbiorcy bardzo szybko i bez opóźnień — zwraca uwagę Sergiusz Stępień, IT specialist w Exanet-IT Solutions.

Rzeczywiście, w nowoczesnym biznesie telefonia IP nabiera szczególnego znaczenia, podobnie jak coraz popularniejsze aplikacje czasu rzeczywistego czy też wszelkiego rodzaju przekazy multimedialne. Jednak przede wszystkim należy sobie zadać pytanie, na awarie jakich usług organizacja nie może sobie pozwolić. Nie ma dzisiaj firmy, w której przepływ informacji nie byłby w mniejszym lub większym stopniu uzależniony od sprawności działania infrastruktury IT oraz usług ją wykorzystujących.

— Tak naprawdę ważne są usługi, których awarie mogą stanowić zagrożenie dla zachowania ciągłości produkcyjnej organizacji. Myślę, że każda usługa służąca do przekazania ważnych informacji dla danej jednostki organizacyjnej może mieć kluczowe znaczenie — podkreśla Przemysław Narewski, inżynier systemowy w Netgear Poland.

Gdy robi się za ciasno

Co robić, gdy działanie kluczowych dla firmy aplikacji zaczyna przysparzać problemów, zamierzamy uruchomić w niej nowe usługi lub po prostu użytkownicy narzekają na małą wydajność sieci i niski komfort pracy?

Ważna jest przede wszystkim analiza ruchu generowanego w sieci. Zarówno w przypadku łączy zewnętrznych, jak i wewnętrznych trzeba sprawdzić, czy aktualnie dostępna przepustowość jest wykorzystana optymalnie. Bez tej analizy tak naprawdę nie będziemy wiedzieć, czy zapotrzebowanie na pasmo wynika z wielkości ruchu „przechodzącego” przez aplikacje wykorzystywane w organizacji czy też z działań niebędących produkcją.

— Dość często zdarza się na przykład, że pracownicy siedzący w jednym pokoju wysyłają sobie e-mailem pliki, nie zdając sobie sprawy, że takie wiadomości angażują po drodze wszystkie urządzenia sieciowe. W takim wypadku wystarczy uruchomić w lokalnej sieci serwer plików, a łącze internetowe zostanie odciążone. Bardzo dobre efekty daje również optymalizacja pracy programów bazodanowych, które często utrzymują nadmierną liczbę jałowych połączeń z serwerem — wymienia Łukasz Bieńko, dyrektor techniczny firmy Embedos.

Profesjonalna ocena

Gdy już zostały zebrane informacje dotyczące sieci, pozostaje wybór najbardziej efektywnego sposobu jej usprawnienia. W przypadku małych sieci wystarczają niejednokrotnie własne doświadczenie, wiedza i intuicja. Jednak w przypadku większych — te bardzo cenne elementy nie wystarczają.

— Najważniejsze jest określenie, jakie warunki przebudowana sieć ma spełniać obecnie i w przyszłości. Następnie należy ustalić, czy obecnie stosowana technologia jest w stanie spełnić te założenia. Od tego zależy, czy rozbudowa ograniczy się do stworzenia kolejnych punktów dystrybucyjnych i wprowadzenia zmian w konfiguracji urządzeń sieciowych, czy też konieczna jest wymiana większości urządzeń sieciowych, jak również zmiana okablowania strukturalnego — wyjaśnia Sergiusz Stępień.

— W przypadku wydajności sieci najbardziej surowymi audytorami są sami użytkownicy. Każdy spadek wydajności z reguły jest bardzo szybko odnotowywany. Ale nawet jeśli wydajność sieci nie jest wystarczająca, dopóki nie obniża produktywności, nie jest problemem. Zwiększenie pasma w tym wypadku będzie tylko poprawieniem komfortu pracy. W przypadku bezpieczeństwa sieci regularne audyty wykonywane przez firmy zewnętrzne są bardzo ważne — tłumaczy Przemysław Narewski.

— W większości wypadków mamy jednak do czynienia z syndromem lęku przed dentystą, którego odwiedza się dopiero gdy ból jest nie do zniesienia. Podobnie firmy zaczynają interesować się działaniami profilaktycznymi dopiero po pierwszej poważnej awarii, wskutek której przedsiębiorstwo ponosi straty — ostrzega Łukasz Bieńko. n

Coraz więcej rozwiązań

Z punktu widzenia bezpieczeństwa trudno wyobrazić sobie tak skonfigurowaną sieć aby nie wymagała administrowania. Niestety, wieczny wyścig między tzw. twórcami zagrożeń, hackerami a producentami sprzętu i aplikacji oraz administratorami dotyka w pierwszej kolejności infrastruktury sieciowej. To oczywiste, że zewnętrzne zagrożenia pochodzące z internetu w pierwszej kolejności muszą przełamać router, firewall, IDS/IPS czy nawet switch i to na tych urządzeniach skupiona jest pierwsza faza, powiedzmy, standardowego ataku. Nawet jeżeli tak skonfigurujemy nasze urządzenia sieciowe, że będą automatycznie aktualizowały swoje oprogramowanie, wersje, sygnatury to podobnie jak dla systemów operacyjnych aplikowanie łatek wymaga dużej ostrożności i powinno odbywać się w środowisku testowym.

Coraz więcej rozwiązań, które do tej pory były postrzegane jako aplikacje, ewoluuje do urządzeń sieciowych, tak jest z rozwiązaniami antywirusowymi, antyspamowymi czy też monitorującymi różne aspekty systemu teleinformatycznego. Na pytanie kto ma nimi administrować, organizacja musi odpowiedzieć sobie sama. Najczęściej zadanie to trafia do działów odpowiedzialnych za sieć. Wynika to też z historycznych zaszłości gdzie bezpieczeństwo IT było identyfikowane ze stykiem z internetem. Zatem widzimy, że definicja sieci, urządzeń sieciowych ulega ciągłemu rozszerzaniu. Nie raz brałem udział testach penetracyjnych, gdzie najsłabszym elementem sieci okazywały się... niedocenione drukarki.

Michał Maziuk

menedżer produktu bezpieczeństwo IT w BizTech Konsulting

© ℗
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami „Regulaminu korzystania z artykułów prasowych” i po wcześniejszym uiszczeniu należności, zgodnie z cennikiem.

Podpis: Jarosław Wawer

Polecane

Inspiracje Pulsu Biznesu