Chmura wykończy wdrożenia ?on-premises?. Ich śmierć ma być powolna…

Niedawno prze­czy­ta­łem, że:

Chmura obli­cze­nio­wa sztur­mem zdo­by­wa rynek IT. Liczba wdro­żeń opro­gra­mo­wa­nia w mode­lu SaaS rośnie w tem­pie 20,1 proc. rdr ? poda­ją ana­li­ty­cy z fir­my Gartner. Na naszych oczach odby­wa się rewo­lu­cja, któ­rej naj­więk­szą ofia­rą jest opro­gra­mo­wa­nie insta­lo­wa­ne na wła­snej, fir­mo­wej infra­struk­tu­rze. Agonię wdro­żeń ?on-pre­mi­ses? wie­ści Eric Kimberling, part­ner zarzą­dza­ją­cy w fir­mie dorad­czej Panorama Consulting. Jego zda­niem chmu­ra obli­cze­nio­wa posia­da tak wie­le zalet, że porzu­ce­nie przez przed­się­bior­stwa roz­wią­zań sta­cjo­nar­nych jest jedy­nie kwe­stią czasu.”

Źródło: Chmura wykoń­czy wdro­że­nia ?on-pre­mi­ses?. Ich śmierć ma być powol­na, ale defi­ni­tyw­na ? Fintek​.pl

Po pierw­sze: to, że dzi­siaj rośnie 20,1% rdr nie zna­czy (ehh, ta wia­ra w tren­dy..), że tak będzie zawsze. Po dru­gie, nie tyl­ko z uwa­gi na pra­wa autor­skie i ochro­nę know-how, zawsze będzie kla­sa sys­te­mów, któ­re w chmu­rze nigdy nie wylą­du­ją. Ten arty­kuł w moich oczach, to kla­sy­ka PR-owców two­rzą­ca sztucz­ną rze­czy­wi­stość w mediach i tak zwa­ne samo­speł­nia­ją­ce się prze­po­wied­nie”, bazu­ją­ce w 100% na kon­for­mi­zmie czy­tel­ni­ków takich prognoz.

Swego cza­su, 2016 rok, mia­łem refe­rat na kon­fe­ren­cji doty­czą­cej archi­tek­tu­ry w chmu­rze. Kilka tez, któ­re pomo­gą oce­nić wróż­by upad­ku wdro­żeń u siebie”.

Każdy pro­jekt wdro­że­nio­we ma dwa klu­czo­we, oczy­wi­ste, para­me­try: czas wdro­że­nia i łącz­ny koszt (pozy­ska­nie i posia­da­nie – utrzy­ma­nie). Jednak w dobie zmien­no­ści ryn­ku jaką mamy obec­nie, war­to brać pod uwa­gę tak­że ryzy­ko tego, że zmie­ni­my decy­zję bo zmie­ni­ły się warun­ki. Dlatego poja­wia się para­metr jakim jest czas wyj­ścia z inwe­sty­cji, co sta­je się coraz waż­niej­szym para­me­trem, z uwa­gi na ryzy­ko takich wdro­żeń i ryzy­ko wyni­ka­ją­ce ze zmien­no­ści rynku.

Co wiemy o wdrożeniach?

Pomijając, deta­licz­ne kwo­ty, wła­sna insta­la­cja jest naj­tań­sza w utrzy­ma­niu jed­nak trze­ba ponieść rela­tyw­nie duże kosz­ty pozy­ska­nia i wdro­że­nia. Na prze­ciw­nym koń­cu jest typo­wa insta­la­cja w tak zwa­nej chmu­rze, któ­ra nie wyma­ga prak­tycz­nie żad­ne­go okre­su roz­ru­chu”. Po środ­ku jest out­so­ur­cing, któ­ry ma niż­sze kosz­ty ini­cja­cji w porów­na­niu z insta­la­cją na wła­ność, ale wyż­sze kosz­ty utrzy­ma­nia (mar­ża na zaso­by ludzkie).

Na tym tle mamy typo­we, dla obec­ne­go ryn­ku, wyma­ga­nia biznesowe:

Nazwałem je impli­ku­ją­ce zasto­so­wa­nie chmu­ry”, bo jak widać są to dość typo­we wyma­ga­nia w dobie szyb­kiej zmien­no­ści oto­cze­nia ryn­ko­we­go. Jednak jest pewien haczyk: wszyst­ko w chmu­rze to naj­kosz­tow­niej­sza w utrzy­ma­niu wer­sja. Dlatego fir­my, po usta­le­niu tego co jest tak­ty­ką a co stra­te­gią, powin­ny roz­wa­żyć decy­zję: odpo­wied­nio co powin­no dać się szyb­ko zmie­nić, a co będzie jed­nak sta­łym zaso­bem. Zasoby uzna­ne za sta­łe bez­piecz­nie (jako inwe­sty­cje) moż­na pozy­skać na wła­sność co w dłuż­szej per­spek­ty­wie daje odczu­wal­ne oszczęd­no­ści. Tam gdzie ryzy­ko zmia­ny jest zbyt duże, pono­si­my wyż­sze kosz­ty chmu­ry ale rekom­pen­su­je­my sobie to tym, że kosz­ty wyj­ścia z takiej inwe­sty­cji są bli­skie zera.

Na zakoń­cze­nie kil­ka słów o archi­tek­tu­rze. Warto pamię­tać, że – pomi­ja­jąc pro­por­cje – każ­da fir­ma ma opro­gra­mo­wa­nie u sie­bie i może mieć w chmu­rze, w efek­cie ich inte­gra­cja zawsze wyma­ga, by podej­mo­wa­nie decy­zji o korzy­sta­niu z chmu­ry, było w peł­ni świa­do­me. Każda decy­zja archi­tek­to­nicz­na na swo­je konsekwencje.

Dlatego, moim zda­niem, nie gro­zi nam jed­nak nigdy cał­ko­wi­ta rezy­gna­cja z opro­gra­mo­wa­nia na własność.

Architektura korporacyjna a strategia wzrostu

Jakiś czas temu zna­la­złem taką oto statystykę:

Pod koniec 2012 roku fir­ma ana­li­tycz­na Gartner prze­pro­wa­dzi­ła ogól­no­świa­to­we bada­nia wśród 333 osób pia­stu­ją­cych funk­cje pre­ze­sa, pre­zy­den­ta lub dyrek­to­ra generalnego.

Gartner chart priorytety zarządzającej kadry 2013

Zdaniem ana­li­ty­ków Gartnera jest to moż­li­we jedy­nie poprzez skon­cen­tro­wa­nie się na klien­cie ? czy­li nale­ży zaini­cjo­wać dzia­ła­nia (nie tyl­ko infor­ma­tycz­ne, lecz przede wszyst­kim orga­ni­za­cyj­ne) w orga­ni­za­cji okre­ślo­ne pozwa­la­ją­ce stać się jej ?custo­mer cen­tric?. (Czym jest ?Customer Centric Enterprise Architecture?? | Architektura Korporacyjna).

A teraz zostaw­my Gartnera i zasta­nów­my się nad powyż­szą ankie­tą. Załóżmy, że model moty­wa­cji biz­ne­so­wej moż­na uznać za dobrze tłu­ma­czą­cy związ­ki pomię­dzy cela­mi fir­my a strategią:

BMMOvierwiev

Patrząc na powyż­sze moż­na przy­jąć, że dzia­ła­nia ope­ra­cyj­ne na pew­no mają wpływ na sku­tecz­ność dzia­łań z zakre­su wzro­stu jako­ści i sku­tecz­no­ści w obsłu­dze klien­tów. Patrząc zaś na wyni­ki ankiet moż­na uznać, że prio­ry­te­tem jest wzrost, a wzrost fir­my to głów­nie wzrost przy­cho­dów. Jeżeli uznać, że ankie­to­wa­ni nie mie­li na myśli kosme­tycz­nych wzro­stów a rynek jest nasy­co­ny, to moim zda­niem, duży wzrost” jest moż­li­wy głów­nie poprzez prze­ję­cia. Strategia prze­jęć nie­wie­le ma jed­nak wspól­ne­go z wewnętrz­ną spraw­no­ścią operacyjną.

Tak więc oso­bi­ście nie widzę bez­po­śred­nie­go związ­ku pomię­dzy archi­tek­tu­rą kor­po­ra­cyj­ną (któ­rej wdra­ża­nie jest raczej tak­ty­ką osią­ga­nia więk­szej spraw­no­ści ope­ra­cyj­nej) a stra­te­gią (znacz­ne­go) wzro­stu… ale może to temat do cie­ka­wej dyskusji…

Na szczę­ście dla archi­tek­tu­ry kor­po­ra­cyj­nej” pozo­sta­łe prio­ry­te­ty: docho­do­wość, klient, kosz­ty, mar­ke­ting i sprze­daż, to jak naj­bar­dziej ele­men­ty zależ­ne od spraw­no­ści ope­ra­cyj­nej a tu budu­je­my tak­ty­ki osią­ga­nia celów stra­te­gicz­nych. Architektura Korporacyjna, to jest, jej budo­wa i wdra­ża­nie, to jed­na z moż­li­wych tak­tyk. Jaka stra­te­gie wspie­ra? W przy­pad­ku tak­ty­ki obni­ża­nia kosz­tów w obsza­rze wdra­ża­nia nowych roz­wią­zań i zarzą­dza­nia ich zmia­ną, AK jak naj­bar­dziej wpi­su­je się tę tak­ty­kę. Ograniczając się do sys­te­mów infor­ma­cyj­nych, obec­ny rynek jest zmien­ny i zmie­nia­ją się tak­ty­ki sprze­da­ży firm, zarzą­dza­nia pro­duk­ta­mi. Zmiana tej tak­ty­ki pra­wie zawsze nie­sie za sobą potrze­bę wpro­wa­dze­nia zmian do sys­te­mu infor­ma­cyj­ne­go fir­my. Każdorazowe pro­wa­dze­nie kolej­nej nowej ana­li­zy przed-wdro­że­nio­wej” to tak na praw­dę mar­no­tra­wio­ne środ­ki, bo kolej­na nowa ana­li­za wyma­gań w sytu­acji gdy wpro­wa­dza­my jedy­nie zmia­nę, to trosz­kę jak zama­wia­nie nowe­go pro­jek­tu archi­tek­to­nicz­ne­go tyl­ko po to, by prze­sta­wić kil­ka ścian i wsta­wić nową w domu, któ­ry już stał i pozostanie.

Proszę zauwa­żyć, że prak­tycz­nie każ­da ana­li­za przed-wdro­że­nio­wa ma w swo­im zakre­sie ana­li­zę sta­nu obec­ne­go”. Czy na praw­dą każ­dy kolej­ny dostaw­ca musi to robić od zera? Nie sądzę. W zasa­dzie stan obec­ny” powi­nien być doku­men­tem na tacy” po stro­nie zama­wia­ją­ce­go nowe opro­gra­mo­wa­nie. Ale utrzy­my­wa­nie takiej doku­men­ta­cji kosz­tu­je! Owszem, ale kosz­tu­je znacz­nie mniej niż każ­do­ra­zo­we jej wytwa­rza­nie od zera…

Big data ? czy na pewno więcej znaczy lepiej?

Nagromadzenie danych to jesz­cze nie jest nauka (Galileusz)

Duże bazy danych na okre­ślo­ny temat – naj­czę­ściej mowa o zacho­wa­niach klien­tów ? to ostat­nio temat pierw­szych, naj­da­lej dru­gich, stron gazet. BigData to temat prze­wod­ni kon­fe­ren­cji i arty­ku­łów na pierw­szych stro­nach perio­dy­ków bran­ży IT. W 2011 roku arty­kuł na podob­ny temat koń­czy­łem pytając:

Budowanie mode­li na bazie małych par­tii danych jest po pierw­sze wia­ry­god­niej­sze (para­dok­sal­nie) niż pro­ste wnio­sko­wa­nie sta­ty­stycz­ne, po dru­gie daje szan­se odkry­cia cze­goś nowe­go. W czym pro­blem? To dru­gie jest nie moż­li­we z pomo­cą deter­mi­ni­stycz­nej maszy­ny jaką jest kom­pu­ter. To wyma­ga czło­wie­ka, ten jed­nak nie daje się pro­du­ko­wać maso­wo? ;), kor­po­ra­cja na nim nie zarobi.

Hm? czy przy­pad­kiem pro­mo­wa­nie sys­te­mów hur­tow­ni danych, BI, pra­cy z tera­baj­ta­mi danych itp.. to nie two­rze­nie sobie ryn­ku przez dostaw­ców tych tech­no­lo­gii? (Ujarzmić dane – ale po co ich aż tyle?). Ale po kolei. Jednak pro­blem nadal jest. Redakcja COMPUTERWORLD tak zachę­ca do udzia­łu w swo­jej kon­fe­ren­cji z BigData w tytu­le (frag­ment):

Big Data nie jest tyl­ko kolej­nym hasłem mar­ke­tin­go­wym dostaw­ców IT. To anty­cy­pa­cja zja­wi­ska prze­kro­cze­nia masy kry­tycz­nej wiel­ko­ści, róż­no­rod­no­ści, licz­by i dyna­mi­ki źró­deł gro­ma­dzo­nych w przed­się­bior­stwie danych. Gdy mamy ich napraw­dę dużo, gdy pocho­dzą one z wie­lu róż­nych miejsc, gdy są sta­le aktu­ali­zo­wa­ne i cią­gle ich przy­by­wa, wte­dy moż­li­wo­ści ana­li­tycz­ne i poten­cjał wyko­rzy­sta­nia wie­dzy zgro­ma­dzo­nej w tych danych rośnie wykład­ni­czo. Ale wyma­ga to cał­kiem nowych plat­form tech­no­lo­gicz­nych i zesta­wów kompetencji.

Wniosek jaki wysnu­to: potrzeb­na nowa, ?lep­sza? tech­no­lo­gia. Czy aby na pew­no? Jeżeli jed­nak BigData ma nie być kolej­nym hasłem mar­ke­tin­go­wym to zna­czy, że nie jest naj­lep­szym roz­wią­za­niem kupie­nie kolej­ne­go jesz­cze więk­sze­go i jesz­cze szyb­sze­go ?sprzę­tu?. Moim zda­niem w dal­szej czę­ści zapro­sze­nia zwró­co­no uwa­gę na kie­ru­nek dają­cy więk­sze szan­se powodzenia:

Liczba danych gro­ma­dzo­nych w biz­ne­sie przy­ra­sta rocz­nie o 50 pro­cent. Więcej jed­nak wca­le nie zna­czy lepiej – by hasło Big Data prze­ło­ży­ło się na Big Business potrze­ba nowych umie­jęt­no­ści, odpo­wied­nich narzę­dzi i odpo­wied­niej stra­te­gii zarzą­dza­nia infor­ma­cją. (źr. Zaproszenie na kon­fe­ren­cję BigData COMPUTERWORLD luty 2013)

Pada hasło stra­te­gia, na któ­rym posta­ram się sku­pić w dal­szej czę­ści. Wcześniej jed­nak zde­fi­niuj­my poję­cie BigData by wia­do­mo było o czym tu będę traktował:

W 2001 roku META Group (obec­nie Gartner) opu­bli­ko­wa­ła raport, któ­ry opi­su­je big data w mode­lu 3V. Wskazuje on na dużą ilość danych (Volume), dużą zmien­ność danych (Velocity) oraz dużą róż­no­rod­ność danych (Variety). W 2012 roku Gartner uzu­peł­nił poda­ną wcze­śniej defi­ni­cję wska­zu­jąc, iż ?big data to zbio­ry infor­ma­cji o dużej obję­to­ści, dużej zmien­no­ści i/lub dużej róż­no­rod­no­ści, któ­re wyma­ga­ją nowych form prze­twa­rza­nia w celu wspo­ma­ga­nia podej­mo­wa­nia decy­zji, odkry­wa­nia nowych zja­wisk oraz opty­ma­li­za­cji pro­ce­sów?. (źr. BigData WIKI)

Tak wiec mamy defi­ni­cję: big data to zbio­ry infor­ma­cji o dużej obję­to­ści, dużej zmien­no­ści i/lub dużej róż­no­rod­no­ści. Resztę pomi­ną­łem zda­nia pomi­ną­łem, gdyż to cze­go BigData wyma­ga nie jest przed­mio­tem defi­ni­cji pojęcia.

Na czym pole­ga pro­blem biz­ne­so­wy? Generalnie ludzie (o heu­ry­sty­kach już pisa­łem) sto­su­ją meto­dy induk­cyj­ne jako narzę­dzie wycią­ga­nia wnio­sków. Indukcja to w naukach empi­rycz­nych meto­da pole­ga­ją­ca na wpro­wa­dze­niu uogól­nień na pod­sta­wie eks­pe­ry­men­tów i obser­wa­cji fak­tów, for­mu­ło­wa­niu i wery­fi­ka­cji hipo­tez. Zaczątki induk­cji w sen­sie nowo­żyt­nym stwo­rzył F. Bacon, któ­ry uznał, że induk­cja i eks­pe­ry­ment to dwie sku­tecz­ne meto­dy usta­la­nia praw­dy. Słowo klucz tu to ?fak­ty?. Z induk­cją mają do czy­nie­nia wszy­scy, któ­rzy korzy­sta­ją z ana­li­zy tren­dów (np. ana­li­za tech­nicz­na w przy­pad­ku ana­li­zy kur­sów walut czy akcji).

Problem z induk­cją, jako meto­dą, pole­ga na tym, że w zasa­dzie spro­wa­dza się do pró­by oce­ny tego, z jakim praw­do­po­do­bień­stwem powtó­rzy się histo­ria bada­ne­go zja­wi­ska. Metoda ta nie pro­wa­dzi do nowych odkryć, pro­wa­dzi do mode­li opi­su­ją­cych praw­do­po­do­bień­stwo powtó­rze­nia się fak­tów, o któ­rych mamy wie­dzę, że wystąpiły.

Firmy, w mia­rę roz­wo­ju tech­no­lo­gii i roz­bu­do­wy swo­ich pro­ce­sów biz­ne­so­wych, gro­ma­dzą coraz więk­sze ilo­ści danych o zna­nych im fak­tach ze swo­jej histo­rii. Rejestrowane są coraz dokład­niej i ?gęściej? w cza­sie, wszel­kie zda­rze­nia na fir­mo­wych stro­nach WWW, wszel­ka wie­dza o zda­rze­niach w pro­wa­dzo­nej dzia­łal­no­ści. Firmy popy­cha do tego wia­ra w to, że im wię­cej danych tym lep­sze wnio­ski. Praktyka jed­nak poka­zu­je, że rosną­ca dokład­ność ?prób­ko­wa­nia? np. zacho­wań klien­tów nie pro­wa­dzi do pro­por­cjo­nal­ne­go wzro­stu zamó­wień. Owszem, pozna­jąc te zacho­wa­nia moż­na lepiej zaadre­so­wać ofer­tę, to praw­da ale nie jest to zależ­ność liniowa.

Do 2015 roku ponad 85 proc. firm skla­sy­fi­ko­wa­nych w ran­kin­gu Fortune 500 nie będzie potra­fi­ło efek­tyw­nie wyko­rzy­stać posia­da­nych zbio­rów danych, bowiem wystą­pi efekt tzw. big data. Co więc z tymi dany­mi robić? Ignorować je trosz­kę. Jeżeli praw­dą jest, że dziś, w cią­gu zale­d­wie dwóch dni pro­du­ku­je­my tyle danych, ile ludz­kość wytwo­rzy­ła od zara­nia dzie­jów do roku 2003, to porów­nu­jąc to z postę­pem doko­na­nym w cią­gu ostat­niej deka­dy z postę­pem ostat­nich dwóch tysię­cy lat, wnio­sek nasu­wa się jeden: raczej nie ilość danych decy­du­je o wie­dzy i postę­pie. Więc co?

W opo­zy­cji do induk­cji jako meto­dy pozna­nia (epi­ste­mo­lo­gia) stoi deduk­cja. Dedukcja to rozu­mo­wa­nie pole­ga­ją­ce na wypro­wa­dza­niu z prze­sła­nek (zdań) uzna­nych za praw­dzi­we na pod­sta­wie fak­tów, następ­stwa będą­ce­go logicz­nym i praw­dzi­wym wnio­skiem. Innymi sło­wy, deduk­cja pole­ga posta­wie­niu hipo­te­zy na pod­sta­wie pew­nej ogra­ni­czo­nej licz­by danych (fak­tów), udo­wod­nie­niu jej słusz­no­ści (poprzez brak fak­tów prze­czą­cych tej tezie – nie­uda­na fal­sy­fi­ka­cja) i wycią­ga­niu wnio­sków o przy­szło­ści. Jak dowo­dzi się takiej hipo­te­zy? Testuje się spraw­dza­jąc, czy popraw­nie opi­su­je zna­ny z histo­rii fak­ty. Innymi sło­wy: jeże­li nie odkry­to fak­tów oba­la­ją­cych tezę (poka­zu­ją­cych, że jest nie­praw­dzi­wa) uzna­je się ją za poprawną.

Typowym przy­kła­dem induk­cji jest pro­gno­zo­wa­nie pogo­dy na bazie zna­nych z histo­rii fak­tów: pro­gno­za była uzna­niem, że powtó­rzy się okre­ślo­na sytu­acja zaob­ser­wo­wa­na w prze­szło­ści (np. nisko lata­ją­ce jaskół­ki zapo­wia­da­ją desz­cze). Obecne pro­gno­zy to deduk­cja: na bazie okre­ślo­nej par­tii danych opra­co­wa­no tezę: model fizycz­ny atmos­fe­ry i zja­wisk w niej zacho­dzą­cych. Model ten, po poda­niu danych o sta­nie obec­nym atmos­fe­ry, pozwa­la na wnio­sko­wa­nie (wyli­cze­nie) jego sta­nu na dzień lub tydzień następ­ny (tu krót­ko i śred­nio­ter­mi­no­wa pro­gno­za). Co cie­ka­we, ta meto­da (deduk­cja) pozwa­la na prze­wi­dy­wa­nie fak­tów, któ­re nie zaszły w prze­szło­ści (z praw­do­po­do­bień­stwem wyni­ka­ją­cym z jako­ści uży­te­go mode­lu i kosz­tu obliczeń).

Dedukcję jako meto­dę pozna­nia (meto­da dowo­dze­nia poprzez sta­wia­nie hipo­tez i ich fal­sy­fi­ka­cję) opi­sał Karl Popper. Nosi ona obec­nie nazwę ?meto­dy naukowej?.

Jak to się ma do nasze­go BigData? Moim zda­niem BigData to śle­pa ulicz­ka. Rosnące nakła­dy na sprzęt i opro­gra­mo­wa­nie zmniej­sza­ją jedy­nie błąd sta­ty­stycz­ny obli­czeń nie wno­sząc nic do ich jako­ści w rozu­mie­niu ?jako­ści pro­gno­zo­wa­nia?. Co do ?odkry­wa­nia? cze­go­kol­wiek nie ma mowy, udo­wod­nio­no, że meto­da­mi induk­cyj­ny­mi nie da się nicze­go nowe­go odkryć, moż­na co naj­wy­żej udo­ku­men­to­wać trend. Owszem, pozo­sta­je kwe­stia ana­li­zy kore­la­cyj­nej, czy­li wykry­wa­nia związ­ków pomię­dzy fak­ta­mi (np. czy pora dnia wpły­wa na decy­zje zaku­po­we). Tego typu ana­li­zy nie są niczym nowym, są zna­ne wśród spe­cja­li­stów z zakre­su Business Inteligence od dawna.

Tak więc klu­czo­wą stra­te­gią wyda­je się tu być tak zwa­ny pro­gram reten­cyj­ny, czy­li stra­te­gia wybo­ru danych do prze­cho­wy­wa­nia (i usu­wa­nie pozo­sta­łych), bo nie da się zapa­mię­tać? wszyst­kie­go. Jednym z ?mod­nych? ele­men­tów stra­te­gii sprze­da­żo­wych są tak zwa­ne pro­gra­my part­ner­skie. Maciej Tesławski (eks­pert z zakre­su mar­ke­tin­gu) na swo­im blo­gu pisze:

Programy reten­cyj­ne mogą być B2B, B2C i mul­ti­part­ner­skie, lojal­no­ścio­we mogą być tyl­ko B2C bo w biz­ne­sie decy­zje zaku­po­we podej­mu­je się w znacz­nym stop­niu racjo­nal­nie a nie emo­cjo­nal­nie. Jeśli cho­dzi o oce­nę dzia­ła­ją­cych pro­gra­mów reten­cyj­nych, to pod­sta­wo­wy błąd jaki widzę to nie­wy­ko­rzy­sty­wa­nie bazy infor­ma­cji o uczest­ni­kach pro­gra­mu przez fir­my. To jest potęż­ny zbiór infor­ma­cji o zacho­wa­niach poszcze­gól­nych kon­su­men­tów, w połą­cze­niu z dany­mi demo­gra­ficz­ny­mi pozwa­la na ?pozna­nie? pro­fi­lu naj­bar­dziej war­to­ścio­wych kon­su­men­tów. Nie zauwa­ży­łem aby kto­kol­wiek to wyko­rzy­sty­wał. Dzieje się tak zapew­ne dla­te­go, że bazy danych rosną w postę­pie geo­me­trycz­nym i prze­ra­sta­ją moż­li­wo­ści ich bie­żą­ce­go wykorzystywania.

Skoro tak, to wie­my co ? pozo­sta­je jak. Jak zauwa­żo­no na począt­ku, przy­ra­sta­ją­ca ilość danych, a raczej korzy­sta­nie z nich, wyma­ga cał­kiem nowych plat­form tech­no­lo­gicz­nych i zesta­wów kom­pe­ten­cji. Platformy tech­no­lo­gicz­ne są, postęp tech­nicz­ny nam je zapew­nia. Wydaje się, że klu­czem jest ?nowy zestaw kompetencji?.

Moim zda­niem duży­mi kro­ka­mi nad­cho­dzi czas, gdy z ana­li­zy sta­ty­stycz­nej nale­ży się prze­rzu­cić na ana­li­zę sys­te­mo­wą ? deduk­cję, oraz odpo­wied­nie stra­te­gie reten­cji danych. W nie­daw­nej prze­szło­ści stwier­dzo­no, że rosną­ca ilość danych i dal­sze uszcze­gó­ło­wia­nie danych o zmia­nach tem­pe­ra­tu­ry, ciśnie­nia, wiel­ko­ści opa­dów nie popra­wia­ją jako­ści pro­gnoz pogo­dy. Zmieniono podej­ście i jak widać uda­ło się, pro­gno­zy pogo­dy nigdy nie były tak dokład­ne jak w ostat­niej deka­dzie a nie jest to efekt BigData.

Od tech­no­lo­gii teraz nie ocze­ki­wał bym ogrom­nych pojem­no­ści a mocy obli­cze­nio­wej, tu widzę dro­gę do suk­ce­su: ana­li­za ogra­ni­czo­nej ilo­ści fak­tów, budo­wa­nie mode­li zacho­wań np. kon­su­men­tów, pro­gno­zo­wa­nie tych zacho­wać. Myślę też, że pew­ne­go pro­gu jako­ści pro­gnoz nie prze­kro­czy­my. Filozofia dowo­dzi, że nie da się stwo­rzyć w świe­cie real­nym demiur­ga (w filo­zo­fii Platona okre­śla­no tak budow­ni­cze­go świa­ta nada­ją­ce­go kształ­ty wiecz­nej, bez­kształt­nej mate­rii według wzor­ców, jakie sta­no­wią dosko­na­łe idee; w filo­zo­fii nowo­żyt­nej demon potra­fią­cy obli­czyć przy­szły stan świa­ta na pod­sta­wie wie­dzy o wszyst­kich ato­mach i pra­wach nimi rzą­dzą­cych). Praktyka poka­zu­je, że nie ist­nie­je i dłu­go nie powsta­nie taka moc obli­cze­nio­wa by choć trosz­kę się do demiur­ga zbliżyć.

A czym jest ta ana­li­za sys­te­mo­wa i mode­lo­wa­nie? Wyobraźmy sobie kogoś, kto chce prze­wi­dy­wać zacho­wa­nia kul pod­czas gry w sno­oke­ra. Problem ten może zostać opi­sa­ny fak­ta­mi opi­su­ją­cy­mi grę powierz­chow­nie: ?Gracz ude­rza bia­łą kulę, któ­ra prze­miesz­cza się z pew­ną pręd­ko­ścią, ta po okre­ślo­nym cza­sie ude­rza czer­wo­ną kulę pod okre­ślo­nym kątem, ude­rzo­na czer­wo­na kula prze­miesz­cza się na pew­ną odle­głość w pew­nym kie­run­ku.? Można sfil­mo­wać set­ki tysię­cy takich ude­rzeń, zare­je­stro­wać z dowol­na dokład­no­ścią para­me­try każ­de­go ude­rze­nia i jego skut­ki. Jednak tą meto­dą i tak nie stwo­rzy­my nawet dość dobrej symu­la­cji. Aby stwo­rzyć na praw­dę dobrą symu­la­cję, nale­ży zro­zu­mieć pra­wa rzą­dzą­ce ruchem kul, ich zależ­ność od siły i kie­run­ku ude­rze­nia, kie­run­ku itp. Zrozumienie tych praw pozwo­li znacz­nie łatwiej prze­wi­dzieć sku­tek każ­de­go ude­rze­nia.? (na pod­sta­wie Analysis Patterns. Reusable Object Models, Martin Fowler, Addison-Wesley, 1997).

P.S.

W ramach uzu­peł­nie­nia dys­ku­sji o induk­cji zamiesz­czam cytat z Karla Poppera, jed­na z wie­lu obec­nych opi­nii o induk­cji jako metodzie:

indukcja, trendy, wnioskowanie, popper, hume

Polecam teą arty­ku­ły wcześnijesze:

Refleksje – IT w czasach nowych wyzwań rynkowych

Chwila spo­ko­ju w kolej­ny naj­dłuż­szy week­end” więc jest czas na reflek­sje. Ja mam taki zwy­czaj, że prze­glą­dam od cza­su do cza­su pro­gno­zy z przed lat by porów­nać z dniem dzi­siej­szym czym z tym co pro­gno­zo­wa­no”. Popatrzmy tu, w roku 2003 napi­sa­łem, że:

Nadwieszą war­tość ma sama apli­ka­cja a tak na praw­dę funk­cjo­nal­ność jaką oferuję.

(Zarządzanie IT w cza­sach nowych wyzwań ryn­ko­wych).

Powyższy dia­gram to pro­gno­zy nakła­dów na poszcze­gól­ne ele­men­ty sys­te­mów IT. Powyższe bada­nia były publi­ko­wa­ne w 2003 roku. Rok 2010, Gartner publi­ku­je wyni­ki ankiet (dane fak­tycz­ne za 2010):

  • sprzęt kom­pu­te­ro­wy – 353 mld USD (25%),
  • opro­gra­mo­wa­nie – 232 mld USD(17%),
  • usłu­gi IT – 821 mld USD (58%),

Tu nale­ży się uwa­ga, że znacz­ny udział usług to obec­nie usłu­gi zwią­za­ne z two­rze­niem opro­gra­mo­wa­nia tak zwa­ne­go dedy­ko­wa­ne­go lub jego dosto­so­wy­wa­nia. Moim zda­niem moż­na uznać pro­gno­zę IDC z 2003 roku za tra­fio­ną. Obserwując nie tyl­ko prze­tar­gi pro­por­cje te wyda­ją się jak naj­bar­dziej trafne.

Warto zwró­cić uwa­gę, że obec­na zło­żo­ność opro­gra­mo­wa­nia wspo­ma­ga­ją­ce­go biz­nes, prak­tycz­nie unie­moż­li­wia sku­tecz­ne wdro­że­nie bez wspar­cia. Czasy gdy kupu­ją­cy sam sobie coś zro­bił” raczej bez­pow­rot­nie minę­ły. To co obser­wu­ję, to migra­cja znacz­nej czę­ści usług z obsza­ru tech­no­lo­gicz­ne­go (głów­ny pro­blem to insta­la­cja i uru­cho­mie­nie) do obsza­ru biz­ne­so­we­go (głów­ny pro­blem to zmia­na orga­ni­za­cji jaką powo­du­je wdro­że­nie nowych narzę­dzi IT).

Na tym eta­pie poja­wia się potrze­ba poprze­dze­nia insta­la­cji opro­gra­mo­wa­nia (wybór, zakup i wdro­że­nie) ana­li­zą i pro­gno­zo­wa­niem (pre­dyk­cją, prze­wi­dy­wa­niem) skut­ków tego wdro­że­nia. Bardzo istot­ne jest, nie to czy pro­dukt zadzia­ła” a to do cze­go pla­nu­je­my go użyć i czy się spraw­dzi. Na nad­cjo­dzą­cy okres IDC prze­wi­su­je, że:

Motorem roz­wo­ju jest wymia­na prze­sta­rza­łych i skom­pli­ko­wa­nych sys­te­mów infor­ma­tycz­nych w pol­skich przed­się­bior­stwach. Według Jarosława Smulskiego, ana­li­ty­ka IDC, usłu­gi i opro­gra­mo­wa­nie w Polsce będą coraz bar­dziej docho­do­we. Na świe­cie seg­men­ty te oraz sprzęt mają mniej wię­cej po jed­nej trze­ciej udzia­łu w sprze­da­ży, w tym kie­run­ku będzie zmie­rzał i pol­ski rynek. IDC jed­no­cze­śnie wska­zu­je czyn­nik ryzy­ka, któ­ry może prze­szko­dzić w reali­za­cji pro­gno­zo­wa­ne­go sce­na­riu­sza. Są nim ostroż­ne wydat­ki inwe­sty­cyj­ne firm, zwią­za­ne z moż­li­wą kolej­ną falą kry­zy­su. (za Artykuły ? Raporty i ana­li­zy: IDC: 2011 r. na ryn­ku IT ? CRN).

Patrząc na pro­jek­ty, któ­re znam lub w któ­rych bra­łem udział teza wyda­je się być wia­ry­god­na. Osobiście mam inne wąt­pli­wo­ści: jakość tych pro­jek­tów nie raz dale­ko odbie­ga od ocze­ki­wań nabyw­ców… nie­jed­no­krot­nie dosta­je listy o tre­ści zbli­żo­nej do (frag­ment auten­tycz­ne­go listu ini­cju­ją­ce­go jeden z moich projektów):

Niestety mimo naj­wyż­szej sta­ran­no­ści i zaan­ga­żo­wa­nia z naszej stro­ny jeden z GoldPartnerów i jed­no­cze­śnie lau­re­at nagro­dy part­ne­ra roku fir­my Microsoft zdo­łał mode­lo­wo poło­żyć na łopat­ki” nasz pro­jekt. W związ­ku z tym pew­nie będę miał przy­jem­ność popra­co­wać z Panem. Jak się domy­ślam, praw­do­po­dob­nie w ten wła­śnie spo­sób tra­fia do Pana więk­szość klientów.

Niestety tak wła­śnie jest, są to skut­ki łącze­nia roli ana­li­ty­ka, pro­jek­tan­ta i wykonawcy…

Nieudane wdrożenie wielkiego systemu informatycznego w USA – a co u nas?

Jakiś czas temu pisa­łem o swo­ich prze­my­śle­niach po roz­mo­wie z pew­nym dyrek­to­rem finan­so­wym jed­ne­go z moich klien­tów. Powiedział mię­dzy inny­mi, że albo pro­jekt zosta­nie zre­ali­zo­wa­ny w roku jed­nym budże­to­wym, albo on nie wyda na zgo­dy na jego roz­po­czę­cie. W czym pro­blem? Ano w tym, że przy obec­nym tem­pie zmian na ryn­ku, pro­gno­za wykra­cza­ją­ca w przy­szłość dalej niż rok to wró­że­nie z fusów… Skutek? Jak oce­nić sto­pę zwro­tu z inwe­sty­cji w coś, co jest naj­bar­dziej płyn­nym, podat­nym na zmia­ny wyma­gań, zaso­bem w orga­ni­za­cji, czy­li sys­tem wspo­ma­ga­ją­cy zarzą­dza­nie nią?

Rynek sta­le się roz­wi­ja i doj­rze­wa. Praktycznie każ­da więk­sza fir­ma doświad­czy­ła w jakiejś for­mie wdro­że­nia goto­we­go, dosto­so­wy­wa­ne­go do potrzeb, opro­gra­mo­wa­nia ERP. Warto jed­nak pod­kre­ślić, że idea jed­ne­go ?super sys­te­mu? ERP II, odcho­dzi powo­li do lamu­sa. Moim zda­niem to kwe­stia roku, dwóch. Pierwsze symp­to­my to zale­ce­nia pro­du­cen­tów dużych sys­te­mów: wdra­żać goto­we opro­gra­mo­wa­nie w posta­ci ?goto­wej? tyl­ko tam gdzie pasu­je, obsza­ry spe­cy­ficz­ne dla fir­my opi­sać i zapro­jek­to­wać dla nich dedy­ko­wa­ne roz­wią­za­nie i zin­te­gro­wać. (czy­taj Biznes wycho­dzi z objęć sys­te­mu ? mono­li­tycz­ne­go ERP).

Co z tym zro­bić? Dzielić, jak to mawia­ją nie­któ­rzy kie­row­ni­cy pro­jek­tów: czło­wiek może zjeść nawet sło­nia, jak? Kęs po kęsie. Tak więc duży pro­jekt nale­ży podzie­lić na samo­dziel­ne” pod­sys­te­my, jed­nak ta samo­dziel­ność ma dwa aspek­ty: każ­dy pod­sys­tem musi sam z sie­bie do cze­goś słu­żyć, powi­nien wno­sić war­tość doda­ną. Drugi: każ­dy pro­jek­to­wa­ny pod­sys­tem powi­nien być zapla­no­wa­ny jako poten­cjal­nie samo­dziel­ne narzę­dzie (inwe­sty­cja) na wypa­dek gdy­by pozo­sta­łe nie zosta­ły nigdy wytwo­rzo­ne np. z powo­du zmian na rynku.

Ale o tym pisa­łem wię­cej już wcze­śniej. Kolejnym pro­ble­mem jest nie­ste­ty jakość projektowania:

Według fir­my ana­li­tycz­nej Gartner oko­ło 60 proc. wdro­żeń wiel­kich sys­te­mów infor­ma­tycz­nych koń­czy się klę­ską. Przyczyną jest m.in. nie­umie­jęt­ność prze­ło­że­nia pro­ce­sów dzia­ła­ją­cych w fir­mie na dzia­ła­nie sys­te­mu infor­ma­tycz­ne­go, brak dosta­tecz­ne­go wspar­cia ze stro­ny pra­cow­ni­ków i kie­row­nic­twa fir­my (cza­sem nawet jaw­ny opór), złe przy­go­to­wa­nie wdro­że­nia lub jego pro­wa­dze­nie. (za Serwis Nauka w Polsce – PAP SA).

Jak widać, jakość pro­jek­to­wa­nia jest klu­czem, zresz­tą nie tyl­ko w przy­pad­ków dużych sys­te­mów ale w każ­dym przy­pad­ku. Różnica jest taka, że jeże­li nie­jed­na fir­ma świa­do­mie ryzy­ku­je kil­ka­set tysię­cy rezy­gnu­jąc z eta­pu nie­za­leż­nej ana­li­zy i pro­jek­to­wa­nia war­tej ok. 10 – 20% tej kwo­ty, to podob­ne podej­ście pro­jek­ty war­te milio­nów jest już raczej nieracjonalne…

Po raz kolej­ny już spraw­dza się teza, że wdra­ża­nie jed­ne­go wiel­kie­go ERP inte­gru­ją­ce­go wszyst­ko” jest mrzon­ką… prak­ty­ka poka­zu­je, że kil­ka sys­te­mów dzie­dzi­no­wych, zin­te­gro­wa­nych ze sobą jest po pierw­sze mniej ryzy­kow­ne a po dru­gie, para­dok­sal­nie, tańsze.

Tak więc: jak dostaw­ca duże­go ERP mówi, że duży ERP jest naj­lep­szy to nale­ży to trak­to­wać tak samo jak ofer­tę dostaw­cy duże­go zesta­wu garn­ków ze sta­li nie­rdzew­nej, z któ­rych i tak na co dzień uży­wa­my jed­ne­go a nale­śni­ki i tak robi­my z pomo­cą kupio­nej wcze­śniej dobrej teflo­no­wej patel­ni bo do nale­śni­ków lep­sza a zamia­na jej na nową z nie­rdzew­ki tyl­ko dla­te­go, że ?z kom­ple­tu? prze­czy zdro­we­mu roz­sąd­ko­wi i uży­wa się jej mimo, że pokryw­ka z zesta­wu lek­ko wysta­je ? ale przy­kry­wa bo taki jest jej głów­ny cel (w zasa­dzie tyl­ko nie powin­na być mniej­sza ani zbyt duża). (Nigdy wię­cej ERP w jed­nym kawał­ku!).

Raport z Badania polskich projektów informatycznych 2010

Na stro­nie PMResearch​.pl poja­wi­ło się cie­ka­we bada­nie Raport zawie­ra rezul­ta­ty ana­li­zy 80 sta­ran­nie wyse­lek­cjo­no­wa­nych pro­jek­tów IT. Wyniki pre­zen­tu­je w zwię­zły, syn­te­tycz­ny spo­sób. Pobierz raport (za Informacje o wyni­kach bada­nia pol­skich pro­jek­tów infor­ma­tycz­nych).

Wyniki bada­nia bar­dzo pole­cam, uczą poko­ry. Pytanie moje do auto­rów: jak zde­fi­nio­wa­no meto­dy­kę Agile? Pobieżna nawet bada­nie” zaso­bów w Internecie poka­zu­je, że nie ist­nie­je jed­na defi­ni­cja tego podej­ścia”. Na stro­nie agi​le​ma​ni​fe​sto​.org czytamy:

Wytwarzając opro­gra­mo­wa­nie i poma­ga­jąc innym w tym zakresie,

odkry­wa­my lep­sze spo­so­by wyko­ny­wa­nia tej pracy.

W wyni­ku tych doświad­czeń przedkładamy:

Ludzi i inte­rak­cje ponad pro­ce­sy i narzę­dzia.

Działające opro­gra­mo­wa­nie ponad obszer­ną doku­men­ta­cję.

Współpracę z klien­tem ponad for­mal­ne usta­le­nia.

Reagowanie na zmia­ny ponad podą­ża­nie za pla­nem.

Doceniamy to, co wymie­nio­no po pra­wej stronie,

jed­nak bar­dziej ceni­my to, co po lewej.

Można by odnieść wra­że­nie, że igno­ro­wa­ne jest wszyst­ko co naka­zu­je roz­są­dek (pogru­bie­nie moje). Paradoksalnie, obser­wu­jąc pro­jek­ty, mam wra­że­nie, że zwin­ność jest jed­nak czę­sto ina­czej rozu­mia­na, nie jako igno­ro­wa­nie zło­te­go trój­ką­ta” pro­jek­to­we­go (zakres, ter­min, budżet). Ja w każ­dym razie zawsze pytam: czym jest tu Agile. Niestety sły­szę nie raz, ze tego się nie defi­niu­je”… co wywo­łu­je u mnie odruch nie defi­niu­je się zakre­su pro­jek­tu” a to pro­wa­dzi do wnio­sku, że suk­ce­sem jest sam fakt roz­po­czę­cia projektu…

Czego największe firmy technologiczne nie mówią swoim klientom?

Zasady panu­ją­ce na ryn­ku pro­duk­tów i usług IT wyda­ją się przej­rzy­ste: klient wyda­je pie­nią­dze na jakiś pro­dukt, ocze­ku­jąc w zamian okre­ślo­nych korzy­ści. Jak wyni­ka z udo­stęp­nio­nych przez Gartner Inc. ana­liz, fir­my reali­zu­ją przy oka­zji swo­ją stra­te­gię, o któ­rej wola­ły­by klien­tom nie mówić. Jakie są ich cele? […]

Omawiając stra­te­gie firm, Gaughan pod­kre­ślił rów­nież zna­cze­nie dzia­ła­ją­cych przy nich ośrod­ków badaw­czych. Ich nad­rzęd­nym celem jest two­rze­nie inno­wa­cji w takich spo­sób, aby ? zacho­wu­jąc pozo­ry roz­wo­ju ? utrzy­my­wać ist­nie­ją­cy stan rze­czy tak dłu­go, jak to tyl­ko moż­li­we.(źr. What Microsoft, Oracle, IBM, And SAP Don’t Tell Customers)

Skąd się u wie­lu użyt­kow­ni­ków tech­no­lo­gii IT bie­rze dług tech­no­lo­gicz­ny już w momen­cie pod­pi­sa­nia umo­wy na wdro­że­nie? Stąd, że zle­co­no ana­li­zę przed­wdro­że­nio­wą wyma­gań dostaw­cy tech­no­lo­gii, a w jego inte­re­sie jest dostar­czyć to co ma, a nie to cze­go potrze­bu­je klient.