Temat centralizacji systemu informatycznego pojawia się cyklicznie razem z tematem kosztów posiadania systemu informatycznego. Temat ten jest często odsuwany na drugi plan gdyż pozornie jest to droga inwestycja. Okazuje się często, ze głównym powodem niechęci do centralizacji jaką dostrzegam w wielu firmach jest brak chęci przejścia do skonsolidowanego budżetowania potrzeb informatycznych. Bez tego nie widać w firmie pełnego obrazu wydatków na informatykę. Najlepszym przykładem są zakupy środków eksploatacyjnych takich jak tonery czy atrament do drukarek to wydatki z budżetów poszczególnych komorek organizacyjnych.
Znam przypadki gdzie mimo posiadania sieci liczba drukarek dochodziła do jednej na trzy a nawet dwie osoby. Były to drukarki atramentowe a więc dużo droższe w eksploatacji od laserowych za to tańsze w zakupie. Ale centralizacja to nie tylko peryferia, to przede wszystkim zasoby takie jak macierze dyskowe czy systemy do tworzenia kopii zapasowych no i oczywiście aplikacje. Systemy informatyczne kiedyś były tylko systemami scentralizowanym z uwagi na ówczesną technologię. Okazało się jednak, że wraz z pojawieniem komputera PC (personal computer a więc osobisty), zachłyśnięciem się jego mocą zapomniano o niej a zaczęto wychwalać wolność jaką daje znacznie tańszy od mainframe’a osobisty komputer. Pierwsze symptomy problemów pojawiły się gdy zaczęła wzrastać rola systemów sieciowych. Systemy typu client/server rozwiązały problem wydajności dostępu do danych poprzez zastosowanie wydajnym motorów baz danych (tzw. RDBMS ang. Relational Database Management Systems) ale nie rozwiązały problemów wydajności sieci.
Idea centralizacji wróciła do łask gdy zaczęto liczyć dokładnie koszty tej wolności jednak powstające od lat aplikacje nie nadawały się pracy na jednym dużym komputerze. Dużym problemem w obecnych projektach konsolidacyjnych (bo tak także nazywa się centralizację systemu) jest centralizacja aplikacji i co za tym idzie koszty sieci WAN a dokładnie koszty łącz transmisji danych. Architektura client/server po doświadczeniach ostatnich dziesięciu lat jest uważana raczej za finansowy worek bez dna.
Badając ruch w sieciach bardzo szybko okazuje się, że największy odbywa się pomiędzy aplikacją a miejscem składowania danych. Podstawowy interfejs użytkownika jakim są klawiatura i monitor generują stosunkowo mały ruch jednak odbywa się on tylko pomiędzy stacją roboczą a tymi urządzeniami a nie po sieci LAN czy WAN. Powstała więc idea by w znowu jednym miejscu pozostawić jednostkę centralną czyli właściwy komputer wraz z danymi a użytkownikom dać do ręki tylko interfejs czyli obraz i możliwość wprowadzania znaków. Tak powstała technologia thinclient/server.
(Poniżej tekst z Sierpnia 2000, Napisałem go gdy technologia ta jeszcze raczkowała i mozolnie zdobywała sobie entuzjastów. Teraz ma już rzesze wielbicieli a mój artykuł przeistoczył się z przepowiedni w receptę. O konsolidacji systemów IT pisze szerzej TELEINFO.)
Cienki klient
Architektura „thin client/server” jest obecnie postrzegana dwojako: jako korporacyjne rozwiązanie dające wymaganą funkcjonalność przy znacznie mniejszych kosztach utrzymania w porównaniu z komputerami PC i architekturą klient/server (nazywaną też „fat client” czyli grubym klientem) oraz jako praktycznie jedyne kosztowo efektywne rozwiązanie w projektach centralizacji dostępu do aplikacji w tym dla firm typu ASP (Application Sevice Provider).
Cienki klient to od strony architektury systemu właśnie niemalże powrót do początków, czyli do czasów centralnych komputerów kiedy nikt nie martwił się siecią i jej wydolnością a jedynie tym czy serwer zdoła obsłużyć obciążenie kolejną setką użytkowników. Dostęp do systemu (szeregu aplikacji i danych) polegał jedynie na udostępnieniu tak zwanej „końcówki” czyli terminala znakowego. Wymagania sieciowe takiego terminala to 9600bps (2400bps z kompresją!) czyli typowe łącze telefoniczne tamtych czasów. Obecne wymagania na sieci lokalne są liczone megabitami.
Nowa technologia thinclient/server pozwala teraz na to samo zrobić w środowisku graficznym Windows!
W czym problem
Dostawcy aplikacji (tak wewnętrzni jak i zewnętrzni) w zasadzie nie mają problemów z samymi aplikacjami, raczej mają problem z administrowaniem „drugim końcem” czyli stanowiskiem u klienta oraz zapewnieniem mu komfortu pracy czyli przepustowości łączą. Rozwiązaniem jest tu więc technologia, która jest niezależna od tegoż „drugiego końca” oraz technologia mająca bardzo małe wymagania na pasmo. Technologią tą jest właśnie „thin client/server” co sprowadza się znowu do centralnego przetwarzania (wszystkie warstwy aplikacji posadowione są na serwerze lub farmie serwerów w „jednym pomieszczeniu”.
Powyższy wykres pokazuje prognozy sprzedaży stanowisk pracujących w tej technologii do odbiorców korporacyjnych. IDC podaje, że w ankietach 50% respondentów przyznaje, że zamierza wymienić PC-ty na terminale. Szacuje się, że obecnie wszystkich sprzedanych licencji na ten typ dostępu do Windows to już ok. 6.000.000 a użytkowników jest ok. 30.000.000 (to znaczy średnio jedna licencja jest używana „na zmianę” przez ponad cztery osoby!). Ten rezultat także daje wiele do myślenia. W ubiegłym roku Gartner Group w 200 roku prezentował swojej prognozy, gdzie między innymi stwierdzono, że w roku 2003 sprzedaż PC-tów i różnego typu terminali nie będących PC-tami zrówna się! Jak się okazuje recesja nie była aż tak silna jednak tendecnja do konsolidacji pozostała. Pokrewne tej technologii prognozy poniżej:
Co daje użytkownikowi ta technologia? Daje bardzo dużo gdyż:
-stanowisko dostępowe może być nieinteligentne co oznacza ni mniej ni więcej tylko żywotne, nie starzejące się „żelazo” na biurku co przy komputerze PC wymienianym średnio już co dwa lata jest nie lada korzyścią,
-całe oprogramowanie jest skupione w jednym miejscu co ogromnie upraszcza i zmniejsza koszty zarządzania siecią i zabezpieczenia danych (podstawowa zaleta scentralizowanego systemu),
-dostęp praktycznie z dowolnego miejsca (małe wymagania na sieć: średnio 10kbps na aktywną sesją, maksymalne 20kbps!) i z dowolnego urządzenia (oprogramowanie klienckie dostępne jest na ok. 250! typów urządzeń od PC przez Apple, UNIX do Palmtopów).
Jak widać technologia ta jest wręcz stworzona do celów konsolidacji systemów i dla usług typu ASP (także rodzaj konsolidacji ale połączony z outsourcingiem).
Popatrzmy więc na nasze sieci, nie tylko te rozproszone czyli WAN ale także lokalne: czy przypadkiem my dla siebie samych nie jesteśmy także dostawcami aplikacji? Konsolidacja systemu informatycznego to właśnie taki ASP sam dla siebie. Dostarczamy przecież zakupione za duże pieniądze oprogramowanie na biurka naszych pracowników! Więcej o możliwo?ciach i zastosowaniach technologii „thin client/server” w moim A001_Czy_natura_dazy_do_centralnego_przetwarzania.
Notatka: J.Ż. Sierpień 2000, modyfikacja Listopad 2002