Bezgłośna komunikacja w firmie, legalizacja szarej strefy?

Coraz więk­szą popu­lar­ność zdo­by­wa­ją sobie nie­gło­so­we meto­dy komu­ni­ka­cyj­ne. Wymiana zwię­złych infor­ma­cji za pomo­cą tek­stu jest znacz­nie tań­sza i łatwiej­sza. Można ją pro­wa­dzić za pomo­cą sie­ci Internet (pocz­ta elek­tro­nicz­na i komu­ni­ka­to­ry) lub tele­fo­nu komór­ko­we­go (SMS, MMS).

Analiza pro­gnoz wydat­ków na poszcze­gól­ne meto­dy komu­ni­ko­wa­nia pozwa­la na pla­no­wa­nie wła­snych inwe­sty­cji w te tech­no­lo­gie. Coraz wię­cej firm roz­wa­ża ?ukon­sty­tu­owa­nie? się wybra­nych metod komu­ni­ko­wa­na się.

Nie od dziś wia­do­mo, że pra­cow­ni­cy wie­lu firm prze­ka­zu­ją sobie infor­ma­cje za pomo­cą wia­do­mo­ści SMS lub komu­ni­ka­to­rów takich jak popu­lar­ne ICQ, Microsoft Net Meeting oraz pol­skie Tlen czy GaduGadu. Identyfikatory w tych publicz­nych sie­ciach coraz czę­ściej poda­wa­ne są na rów­ni z adre­sa­mi pocz­ty elektronicznej.

Wszystkie te meto­dy dają się okieł­znać w lokal­nej sie­ci Intranet i Extranet. Dostawcy dar­mo­wych usług typu IM (komu­ni­ka­to­ry inter­ne­to­we Instant Messaging, ang. natych­mia­sto­we wia­do­mo­ści) ofe­ru­ją tak­że wer­sje komer­cyj­ne swo­ich pro­duk­tów. Coraz czę­ściej admi­ni­stra­to­rzy zamiast wal­czyć z komu­ni­ka­to­ra­mi roz­wa­ża­ją ich lega­li­za­cję, a nawet wpro­wa­dze­nie jako stan­dar­do­wy spo­sób komu­ni­ko­wa­nia się na rów­ni z pocz­tą elektroniczną.

Osobiście pole­cam już teraz roz­wa­że­nie zain­sta­lo­wa­nia tego typu sys­te­mu gdyż bar­dzo uła­twia pra­cę na wie­lu sta­no­wi­skach w fir­mie. Dodatkową zale­tą tego typu roz­wią­zań jest łatwość wymia­ny infor­ma­cji. Metoda ta łączy zale­ty pocz­ty elek­tro­nicz­nej (wia­do­mość w posta­ci tek­stu) i roz­mo­wy tele­fo­nicz­nej (natych­mia­sto­wy prze­kaz w cza­sie rzeczywistym).

Korzyści dla firmy 
Podstawową korzy­ścią dla fir­my jest wzrost wydaj­no­ści pra­cow­ni­ków, któ­rych pra­ca pole­ga na sta­łej ich dostęp­no­ści wewnątrz fir­my. Szczególnie, że moż­na pro­wa­dzić kil­ka jed­no­cze­snych ?roz­mów? przez komu­ni­ka­tor cze­go nie moż­na powie­dzieć o tele­fo­nie. Poczta elek­tro­nicz­na nie nada­je się do pro­wa­dze­nia dia­lo­gu na żywo z uwa­gi na czas prze­sła­nia wiadomości.

Coraz czę­ściej też moż­na się spo­tkać z sys­te­ma­mi inter­ne­to­wych CallCenter zbu­do­wa­nych na bazie sys­te­mów typu IM. Ich pod­sta­wo­wą zale­tą jest to, że jeden kon­sul­tant może obsłu­gi­wać jed­no­cze­śnie kil­ka zgło­szeń a nie jed­no jak ma to miej­sce w przy­pad­ku tele­fo­nii. Dlatego jest to sku­tecz­na meto­da na obni­że­nie kosz­tów tego typu kon­tak­tów z klientami.

Telefony komór­ko­we i krót­kie wia­do­mo­ści (SMS i MMS) mają tę istot­ną zale­tę, że wysła­na wia­do­mość nie zakłó­ca pra­cy (nie prze­ry­wa adre­sa­to­wi pra­cy w celu ode­bra­na tele­fo­nu) co nie zmie­nia fak­tu, że jest dostar­cza­na pew­nie i natych­miast. Mamy tak­że moż­li­wość kon­tro­li dostar­cze­nia takich wiadomości.

Badania ryn­ku i pro­gno­zy potwier­dza­ją to, że jeże­li jakaś tech­no­lo­gia nie­sie ze sobą jakieś korzy­ści zwią­za­ne z wygo­dą i popra­wą sku­tecz­no­ści szyb­ko zosta­nie zaadap­to­wa­na do pra­cy jako jed­na z metod popra­wy wła­snej wydajności.

Wnioski i zalecenia 
Podstawową radą jako mogę w tym miej­scy dać jest prze­ana­li­zo­wa­nie stru­mie­ni komu­ni­ka­cyj­nych w fir­mie oraz ich wpły­wu na jakość i wydaj­ność pra­cy. Analiza taka powin­na pole­gać na nanie­sie­niu na mapę pro­ce­sów w fir­mie gra­fu obra­zu­ją­ce­go natę­że­nie wymia­ny informacji.

Następnie powin­no się prze­ana­li­zo­wać nie to, czy dana infor­ma­cja jest obec­nie prze­ka­zy­wa­na w posta­ci tek­stu czy też jako roz­mo­wa tele­fo­nicz­na, ale podzie­lić kon­tak­ty pomię­dzy pra­cow­ni­ka­mi na pro­ces doko­ny­wa­nia usta­leń (dys­ku­sje) i pro­ces prze­ka­zy­wa­nia infor­ma­cji. Drugi typ w więk­szo­ści przy­pad­ków sku­tecz­niej­szy jest za pomo­cą metod pisem­nych z uwa­gi na skłon­ność ludzi do ?roz­ga­dy­wa­nia? się w kon­tak­tach wer­bal­nych i do zwię­złe­go for­mu­ło­wa­nia myśli w posta­ci tekstu.

Mając taką mapę moż­na wska­zać rela­cje podat­ne na zmia­nę meto­dy komu­ni­ka­cji z gło­so­wej na pisem­ną. Można też następ­nie oce­nić sto­pę zwro­tu w tego typu inwe­sty­cje bio­rą za pod­sta­wę wzrost wydaj­no­ści i koszt rozwiązania.

Oczywiście war­to roz­wa­żyć sko­rzy­sta­nie z dar­mo­wych narzę­dzi dostęp­nych w sie­ci Internet trze­ba jed­nak mieć świa­do­mość zwią­za­nych z tym zagro­żeń ale też nie prze­ce­niać ich.

Notatka: Może się oka­zać, że meto­da ta oka­że się tań­sza i sku­tecz­niej­sza od budo­wa­nia sys­te­mów VoIP. Ma też tę doda­to­wą zale­tę, że z uwa­gi na małe wyma­ga­nia, dosko­na­le nada­je się do roz­wia­zań mobilnych.

Co tak na prawdę się outsoursuje?

META Group i Rubin Systems prze­pro­wa­dzi­ły bada­nie firm celem oce­ny popu­lar­no­ści out­so­ur­cin­gu w kil­ku domi­nu­ją­cych sek­to­rach ryn­ku IT w cią­gu ostat­nich czte­rech lat. Wyniki są cie­ka­we i dość poucza­ją­ce. Cztery lata (1999 ? 2002) to dość dłu­gi okres i pozwa­la on już na doszu­ki­wa­nie się tren­dów. Jakie one są?
Czytaj dalej… Co tak na praw­dę się out­so­ur­su­je?”

Sposoby dostępu do sieci, ocena wpływu szerokopasmowych technologii dostępowych

Rynek Internetowy to tak­że rynek usług dostę­po­wych i urzą­dzeń udo­stęp­nia­ją­cych sieć Internet. Rodzaj dostę­pu dosyć ści­śle okre­śla to co może­my sku­tecz­nie zaofe­ro­wać, w jaki spo­sób czy wręcz w jakiej ilo­ści. Adresaci usług i pro­duk­tów udo­stęp­nia­nych przez sieć mają do nich dostęp ści­śle uza­leż­nio­ny od tego jakim łączem dys­po­nu­ją. Ten arty­kuł to pró­ba wska­za­nia czyn­ni­ków wpły­wa­ją­cych na rynek B2C i rynek sprzę­tu komu­ni­ka­cyj­ne­go i usług dostę­po­wych świad­czo­nych przez ISP.
Czytaj dalej… Sposoby dostę­pu do sie­ci, oce­na wpły­wu sze­ro­ko­pa­smo­wych tech­no­lo­gii dostę­po­wych”

Znowu cienki klient

Temat cen­tra­li­za­cji sys­te­mu infor­ma­tycz­ne­go poja­wia się cyklicz­nie razem z tema­tem kosz­tów posia­da­nia sys­te­mu infor­ma­tycz­ne­go. Temat ten jest czę­sto odsu­wa­ny na dru­gi plan gdyż pozor­nie jest to dro­ga inwe­sty­cja. Okazuje się czę­sto, ze głów­nym powo­dem nie­chę­ci do cen­tra­li­za­cji jaką dostrze­gam w wie­lu fir­mach jest brak chę­ci przej­ścia do skon­so­li­do­wa­ne­go budże­to­wa­nia potrzeb infor­ma­tycz­nych. Bez tego nie widać w fir­mie peł­ne­go obra­zu wydat­ków na infor­ma­ty­kę. Najlepszym przy­kła­dem są zaku­py środ­ków eks­plo­ata­cyj­nych takich jak tone­ry czy atra­ment do dru­ka­rek to wydat­ki z budże­tów poszcze­gól­nych komo­rek organizacyjnych.

Znam przy­pad­ki gdzie mimo posia­da­nia sie­ci licz­ba dru­ka­rek docho­dzi­ła do jed­nej na trzy a nawet dwie oso­by. Były to dru­kar­ki atra­men­to­we a więc dużo droż­sze w eks­plo­ata­cji od lase­ro­wych za to tań­sze w zaku­pie. Ale cen­tra­li­za­cja to nie tyl­ko pery­fe­ria, to przede wszyst­kim zaso­by takie jak macie­rze dys­ko­we czy sys­te­my do two­rze­nia kopii zapa­so­wych no i oczy­wi­ście apli­ka­cje. Systemy infor­ma­tycz­ne kie­dyś były tyl­ko sys­te­ma­mi scen­tra­li­zo­wa­nym z uwa­gi na ówcze­sną tech­no­lo­gię. Okazało się jed­nak, że wraz z poja­wie­niem kom­pu­te­ra PC (per­so­nal com­pu­ter a więc oso­bi­sty), zachły­śnię­ciem się jego mocą zapo­mnia­no o niej a zaczę­to wychwa­lać wol­ność jaką daje znacz­nie tań­szy od main­fra­me­’a oso­bi­sty kom­pu­ter. Pierwsze symp­to­my pro­ble­mów poja­wi­ły się gdy zaczę­ła wzra­stać rola sys­te­mów sie­cio­wych. Systemy typu client/server roz­wią­za­ły pro­blem wydaj­no­ści dostę­pu do danych poprzez zasto­so­wa­nie wydaj­nym moto­rów baz danych (tzw. RDBMS ang. Relational Database Management Systems) ale nie roz­wią­za­ły pro­ble­mów wydaj­no­ści sieci.

Idea cen­tra­li­za­cji wró­ci­ła do łask gdy zaczę­to liczyć dokład­nie kosz­ty tej wol­no­ści jed­nak powsta­ją­ce od lat apli­ka­cje nie nada­wa­ły się pra­cy na jed­nym dużym kom­pu­te­rze. Dużym pro­ble­mem w obec­nych pro­jek­tach kon­so­li­da­cyj­nych (bo tak tak­że nazy­wa się cen­tra­li­za­cję sys­te­mu) jest cen­tra­li­za­cja apli­ka­cji i co za tym idzie kosz­ty sie­ci WAN a dokład­nie kosz­ty łącz trans­mi­sji danych. Architektura client/server po doświad­cze­niach ostat­nich dzie­się­ciu lat jest uwa­ża­na raczej za finan­so­wy worek bez dna.

Badając ruch w sie­ciach bar­dzo szyb­ko oka­zu­je się, że naj­więk­szy odby­wa się pomię­dzy apli­ka­cją a miej­scem skła­do­wa­nia danych. Podstawowy inter­fejs użyt­kow­ni­ka jakim są kla­wia­tu­ra i moni­tor gene­ru­ją sto­sun­ko­wo mały ruch jed­nak odby­wa się on tyl­ko pomię­dzy sta­cją robo­czą a tymi urzą­dze­nia­mi a nie po sie­ci LAN czy WAN. Powstała więc idea by w zno­wu jed­nym miej­scu pozo­sta­wić jed­nost­kę cen­tral­ną czy­li wła­ści­wy kom­pu­ter wraz z dany­mi a użyt­kow­ni­kom dać do ręki tyl­ko inter­fejs czy­li obraz i moż­li­wość wpro­wa­dza­nia zna­ków. Tak powsta­ła tech­no­lo­gia thinclient/server.

(Poniżej tekst z Sierpnia 2000, Napisałem go gdy tech­no­lo­gia ta jesz­cze racz­ko­wa­ła i mozol­nie zdo­by­wa­ła sobie entu­zja­stów. Teraz ma już rze­sze wiel­bi­cie­li a mój arty­kuł prze­isto­czył się z prze­po­wied­ni w recep­tę. O kon­so­li­da­cji sys­te­mów IT pisze sze­rzej TELEINFO.)

Cienki klient

Architektura thin client/server” jest obec­nie postrze­ga­na dwo­ja­ko: jako kor­po­ra­cyj­ne roz­wią­za­nie dają­ce wyma­ga­ną funk­cjo­nal­ność przy znacz­nie mniej­szych kosz­tach utrzy­ma­nia w porów­na­niu z kom­pu­te­ra­mi PC i archi­tek­tu­rą klient/server (nazy­wa­ną też fat client” czy­li gru­bym klien­tem) oraz jako prak­tycz­nie jedy­ne kosz­to­wo efek­tyw­ne roz­wią­za­nie w pro­jek­tach cen­tra­li­za­cji dostę­pu do apli­ka­cji w tym dla firm typu ASP (Application Sevice Provider).

Cienki klient to od stro­ny archi­tek­tu­ry sys­te­mu wła­śnie nie­mal­że powrót do począt­ków, czy­li do cza­sów cen­tral­nych kom­pu­te­rów kie­dy nikt nie mar­twił się sie­cią i jej wydol­no­ścią a jedy­nie tym czy ser­wer zdo­ła obsłu­żyć obcią­że­nie kolej­ną set­ką użyt­kow­ni­ków. Dostęp do sys­te­mu (sze­re­gu apli­ka­cji i danych) pole­gał jedy­nie na udo­stęp­nie­niu tak zwa­nej koń­ców­ki” czy­li ter­mi­na­la zna­ko­we­go. Wymagania sie­cio­we takie­go ter­mi­na­la to 9600bps (2400bps z kom­pre­sją!) czy­li typo­we łącze tele­fo­nicz­ne tam­tych cza­sów. Obecne wyma­ga­nia na sie­ci lokal­ne są liczo­ne megabitami.

Nowa tech­no­lo­gia thinclient/server pozwa­la teraz na to samo zro­bić w śro­do­wi­sku gra­ficz­nym Windows!

W czym problem 

Dostawcy apli­ka­cji (tak wewnętrz­ni jak i zewnętrz­ni) w zasa­dzie nie mają pro­ble­mów z samy­mi apli­ka­cja­mi, raczej mają pro­blem z admi­ni­stro­wa­niem dru­gim koń­cem” czy­li sta­no­wi­skiem u klien­ta oraz zapew­nie­niem mu kom­for­tu pra­cy czy­li prze­pu­sto­wo­ści łączą. Rozwiązaniem jest tu więc tech­no­lo­gia, któ­ra jest nie­za­leż­na od tegoż dru­gie­go koń­ca” oraz tech­no­lo­gia mają­ca bar­dzo małe wyma­ga­nia na pasmo. Technologią tą jest wła­śnie thin client/server” co spro­wa­dza się zno­wu do cen­tral­ne­go prze­twa­rza­nia (wszyst­kie war­stwy apli­ka­cji posa­do­wio­ne są na ser­we­rze lub far­mie ser­we­rów w jed­nym pomieszczeniu”.

Powyższy wykres poka­zu­je pro­gno­zy sprze­da­ży sta­no­wisk pra­cu­ją­cych w tej tech­no­lo­gii do odbior­ców kor­po­ra­cyj­nych. IDC poda­je, że w ankie­tach 50% respon­den­tów przy­zna­je, że zamie­rza wymie­nić PC-ty na ter­mi­na­le. Szacuje się, że obec­nie wszyst­kich sprze­da­nych licen­cji na ten typ dostę­pu do Windows to już ok. 6.000.000 a użyt­kow­ni­ków jest ok. 30.000.000 (to zna­czy śred­nio jed­na licen­cja jest uży­wa­na na zmia­nę” przez ponad czte­ry oso­by!). Ten rezul­tat tak­że daje wie­le do myśle­nia. W ubie­głym roku Gartner Group w 200 roku pre­zen­to­wał swo­jej pro­gno­zy, gdzie mię­dzy inny­mi stwier­dzo­no, że w roku 2003 sprze­daż PC-tów i róż­ne­go typu ter­mi­na­li nie będą­cych PC-tami zrów­na się! Jak się oka­zu­je rece­sja nie była aż tak sil­na jed­nak ten­decn­ja do kon­so­li­da­cji pozo­sta­ła. Pokrewne tej tech­no­lo­gii pro­gno­zy poniżej:

Co daje użyt­kow­ni­ko­wi ta tech­no­lo­gia? Daje bar­dzo dużo gdyż:

-sta­no­wi­sko dostę­po­we może być nie­in­te­li­gent­ne co ozna­cza ni mniej ni wię­cej tyl­ko żywot­ne, nie sta­rze­ją­ce się żela­zo” na biur­ku co przy kom­pu­te­rze PC wymie­nia­nym śred­nio już co dwa lata jest nie lada korzyścią,

-całe opro­gra­mo­wa­nie jest sku­pio­ne w jed­nym miej­scu co ogrom­nie uprasz­cza i zmniej­sza kosz­ty zarzą­dza­nia sie­cią i zabez­pie­cze­nia danych (pod­sta­wo­wa zale­ta scen­tra­li­zo­wa­ne­go systemu),

-dostęp prak­tycz­nie z dowol­ne­go miej­sca (małe wyma­ga­nia na sieć: śred­nio 10kbps na aktyw­ną sesją, mak­sy­mal­ne 20kbps!) i z dowol­ne­go urzą­dze­nia (opro­gra­mo­wa­nie klienc­kie dostęp­ne jest na ok. 250! typów urzą­dzeń od PC przez Apple, UNIX do Palmtopów).

Jak widać tech­no­lo­gia ta jest wręcz stwo­rzo­na do celów kon­so­li­da­cji sys­te­mów i dla usług typu ASP (tak­że rodzaj kon­so­li­da­cji ale połą­czo­ny z outsourcingiem).

Popatrzmy więc na nasze sie­ci, nie tyl­ko te roz­pro­szo­ne czy­li WAN ale tak­że lokal­ne: czy przy­pad­kiem my dla sie­bie samych nie jeste­śmy tak­że dostaw­ca­mi apli­ka­cji? Konsolidacja sys­te­mu infor­ma­tycz­ne­go to wła­śnie taki ASP sam dla sie­bie. Dostarczamy prze­cież zaku­pio­ne za duże pie­nią­dze opro­gra­mo­wa­nie na biur­ka naszych pra­cow­ni­ków! Więcej o możliwo?ciach i zasto­so­wa­niach tech­no­lo­gii thin client/server” w moim A001_Czy_natura_dazy_do_centralnego_przetwarzania.

Notatka: J.Ż. Sierpień 2000, mody­fi­ka­cja Listopad 2002

Profesjonalny Menedżer e-biznesu

Historia e‑biznesu na świecie, kolejne etapy ewolucji e‑biznesu.

Hm… Historia e‑biznesu to wbrew pozo­rom bar­dzo wdzięcz­ny temat a to dla­te­go, że tak na praw­dę to wca­le nie został on wymy­ślo­ny w ubie­głym roku. Problem (a w zasa­dzie nie­do­mó­wie­nia) bio­rą się z pier­wot­ne­go zało­że­nia jakie jest przyj­mo­wa­ne w wie­lu dzien­ni­kar­skich arty­ku­łach” (a dla mnie pseu­do­fa­cho­wych atrak­cji pod publi­kę) to zna­czy: wszyst­ko zaczę­ło się od Internetu” co jest cał­ko­wi­tą nieprawdą!
Czytaj dalej… Historia e‑biznesu na świe­cie, kolej­ne eta­py ewo­lu­cji e‑biznesu.”