A na końcu jest serwer

Łukasz Dec
opublikowano: 2003-10-20 00:00

Wybór serwera w danej firmie w większości przypadków uzależniony jest od aplikacji i od jej zastosowania.

Serwery odróżnia od zwykłych komputerów ilość i wydajność podzespołów, znacznie wyższa niezawodność, przygotowanie do pracy non stop oraz znacznie wyższa dbałość o integralność zgromadzonych danych. Efektem są wyższe ceny, ale podstawowe elementy architektury sprzętowo-operacyjnej są te same.

Masowo sprzedaje się proste maszyny, stanowiące rozbudowane pecety. Procesory Intela i system operacyjny Windows 2000 stanowi tutaj dominujący tandem, określany przez złośliwych architekturą wintel. Bardziej wymagające systemy opierane są na platformie uniksowej.

Wyższą półkę tradycyjnie pojmowanego rynku serwerów tworzą maszyny na jednej z uniksowych platform operacyjnych. Rozwiązań jest wiele, zarówno jeżeli chodzi o systemy operacyjne, jak i procesory (rodzina RISC). Omawiana klasa midrange ma bardzo szeroki zakres od jedno- do kilkudziesięcioprocesorowych serwerów. Ceny zaczynają się od kilku tysięcy dolarów a kończą na... negocjowanych. Serwery uniksowe stanowią platformę operacyjną dla wszystkich popularnych systemów ERP. Najbardziej wydajne produkty tej klasy, jak HP Superdome, Sun Enterprise czy IBM iSeries, śmiało mogą rywalizować jako narzędzie dla biznesu z najpotężniejszymi na rynku mainframe’ami. Nawet największe systemy nie muszą wymagać maszyn tak specyficznych, wydajnych, zaawansowanych technologicznie i drogich, jak te niszowe serwery IBM. Ich ceny zaczynają się od kilkuset tysięcy dolarów. W Polsce na platformie mainframe’owej oparto m.in. centralne bazy danych KGHM, PZU czy Telekomunikacja Polska.

Serwery uniksowe ekspandują horyzontalnie w kierunku mainframe’ów, ale z drugiej strony same odczuwają konkurencję niegdyś mniej wydajnych architektur intelowskich. Serwery z 16 procesorami Intel Xeon z systemem operacyjnym Windows 2000, to pod względem wydajności już klasa średnia. Microsoft robi wiele, aby Windows wydarł rynek uniksowym systemom operacyjnym. Jego atutami są finansowa i marketingowa potęga oraz dominacja w niższym segmencie rynku, a także wsparcie Intela.

Cenowa konkurencyjność platformy wintel powoduje, że znajduje ona bardzo wielu chętnych. To ważne na polskim rynku, gdzie kryterium kosztowe jest najważniejszym czynnikiem wyboru. Poza tym istnieje bardzo wiele aplikacji opracowanych pod Windows 2000. Wybór tego systemu operacyjnego implikuje automatycznie wybór serwera intelowskiego.

Procesory Intel Xeon pozwalają już dzisiaj na budowę bardzo wydajnych środowisk, natomiast klasa procesorów Intanium ma zawojować najwyższy segment rynku serwerowego. HP ogłosił wsparcie tej technologii oraz optymalizację dla niej swojego uniksowego systemu operacyjnego. Na procesorach Itanium oparty będzie m.in. okręt flagowy koncernu: serwer SuperDome 9000, który na razie wykorzystuje rodzime procesory PA-RISC. Intel dotąd nie jest w stanie wywindować systemów operacyjnych Microsoftu do segmentu wyższego, chociaż bardzo silnie promuje wersję Windows 2003 Data Center. Systemy uniksowe wciąż stanowią dominującą platformę operacyjną bardziej wymagających rozwiązań informatycznych. Warto tutaj zwrócić uwagę na różne zastosowania Linuksa, które instalowane są od najprostszych serwerów intelowskich aż po mainframe’y.

Niebezpiecznej dla dolnego segmentu rynku hegemonii wintela próbuje się przeciwstawić AMD ze swoim nowym 64-bitowym procesorem Opteron dla serwerów oraz deweloperzy Linuksa. AMD dostał jednak zadyszki w ciągu ostatniego roku, natomiast Linuks nie ma takiego wsparcia jak Windows.

Pośród serwerów intelowskich można wybierać od globalnych marek, przez polskie produkty znanych firm (np. Optimus, NTT, JTT), do „składaków” różnej proweniencji. Polskie serwery są tańsze w detalu, ale przy dużych dostawach światowi producenci mogą zaoferować korzystniejsze warunki. Klienci, dla których cena jest najistotniejsza, wybierają serwery z „małego montażu”. Nie mogą liczyć na warunki serwisowe, jakie oferują markowi producenci, ale w ich przypadku rzadko niezawodność platformy sprzętowej ma rzeczywiście krytyczne znaczenie.

Inteligentne maszyny

Przy wdrażaniu aplikacji wspomagających kluczowe procesy w firmie (np: ERP, BI, CRM) wybór serwera powinien być podyktowany takimi parametrami, jak: cykl życia, bezawaryjność, funkcje samozarządzania i samonaprawy, współczynnik cena/wydajność, bezpieczeństwo inwestycji. Z drugiej strony, w przypadku wdrażania mniej ważnych aplikacji (serwery plików, wydruków, aplikacje pomocnicze) zapewne klient będzie się sugerował ceną początkową, systemem operacyjnym czy wydajnością.

Jednak niezależnie od tego, jaka aplikacja jest wdrażana, warto odpowiedzieć sobie na proste pytanie: Ile kosztuje mnie nieplanowny przestój serwera? A jak zapobiegać przestojom serwerów? No cóż — inwestować w inteligentne urządzenia. Jeszcze dwa lata temu takie pojęcie budziło lekki uśmiech na twarzach klientów, teraz już nie. Mechanizmy inteligencji maszyn, które znane były tylko użytkownikom mainframe’ów, zagościły na dobre w serwerach klasy midrange i pewnie za rok lub dwa będą obecne również w serwerach low-endowych.

Piotr Pająk, menedżer linii midrange IBM Polska.

Wybór po analizie potrzeb

Planując wdrożenie systemu zaczynamy od pytania: jakiego rodzaju usługi ma on świadczyć. Za tym następuje dobór odpowiednich narzędzi informatycznych. Ścieżka biegnie od potrzeb, przez aplikacje, narzędzia — bazy danych czy serwery aplikacji, do systemu operacyjnego i wreszcie platformy sprzętowej.

Druga sprawa — to rola serwera w architekturze systemu. Różnych platform będziemy potrzebować dla: ośrodka obliczeniowego, dużego systemu bazodanowego, serwera aplikacji czy serwera internetowego. W pierwszym przypadku zasadnicze znaczenie ma moc obliczeniowa i możliwość jej dynamicznego dzielenia pomiędzy zadaniami. Integralność i dostępność danych, przetwarzanych na serwerze bazodanowym wymaga sprzętu o bardzo wysokim poziomie bezawaryjności, redundantnych zasilaczy, wydajnych macierzy dyskowych, wydajnych urządzeń do archiwizacji danych. Jako serwer internetowy natomiast — nawet w dużej firmie — wystarczy serwer o parametrach nowoczesnego peceta. Awaria czy też potrzeba rekonfiguracji i restartu takiego serwera nie grozi na ogół poważniejszymi konsekwencjami dla przedsiębiorstwa, jeżeli nie jest to oczywiście portal czy duży serwis handlowy. Planując zakup sprzętu warto pamiętać o dopasowaniu rozwiązania funkcjonalnością, wydajnością, bezpieczeństwem i ceną do rzeczywistych potrzeb.

Piotr Rogulski, dyrektor infrastruktury InfoVide

Architektura serwerów

Poszczególne warstwy naszej architektury informatycznej są zorganizowane w formie klastrów serwerów, wykonujących te same operacje dla równomiernie rozdzielonych zapytań użytkowników. Warstwa webowa stanowi w zasadzie farmę kilkudziesięciu serwerów spełniających te same funkcje — nawet jednoczesna awaria kilku serwerów nie jest widoczna dla użytkowników. W warstwie tej używamy dwuprocesorowych systemów intelowskich i systemu Linuksa.

Warstwa druga to serwery aplikacyjne (dostarczające narzędzi i bibliotek do tworzenia aplikacji), serwery zarządzania treścią oraz serwery zadaniowe, realizujące określone funkcje (np. serwujące reklamy). W tej warstwie, gdzie używa się serwerów wieloprocesorowych, nie można pozwolić na jakikolwiek kompromis z jakością. Tworzenie architektur klastrowych byłoby bardzo kosztowne. Tutaj każda jednostka musi być starannie dobrana i dlatego stosujemy serwery klasy enterprise, zarówno z procesorem RISC i systemem Solaris, jak i z procesorem Intel i systemem Linux lub Windows.

Trzecia warstwa to serwery bazodanowe oraz pamięci masowe. Tutaj tylko najwyższej klasy serwery, macierze dyskowe, sprawdzone systemy operacyjne oraz motory baz danych gwarantują określoną szybkość i niezawodność. Dlatego dominują serwery uniksowe z systemem Solaris i motorem baz danych Oracle.

Krzysztof A. Jędrzejek, dyrektor pionu technologii Onet.pl

Możesz zainteresować się również: