Wstęp

Od pew­ne­go cza­su coraz czę­ściej poja­wia­ją się publi­ka­cje na temat zasto­so­wy­wa­nia tech­no­lo­gii sztucz­nej inte­li­gen­cji (AI, ang. arti­fi­cial intel­li­gen­ce) i ucze­nia maszyn­ko­we­go (ML, ang. Machine lear­ning, rozu­mia­ne jako ucze­nie się maszy­no­we). Pojawiają się pro­jek­ty takie jak auto­ma­ty­za­cja czy robo­ty­za­cja pro­ce­sów biz­ne­so­wych. Projekty tego typu mają czę­sto na celu ogra­ni­cza­nie zaan­ga­żo­wa­nia ludzi, jed­nak więk­sze korzy­ści osią­ga się gdy wdro­że­nia nasta­wia­ją się na wspar­cie ludzi i mini­ma­li­za­cje popeł­nia­nych błędów.

Najpierw kil­ka klu­czo­wych pojęć:

sztucz­na inte­li­gen­cja: dział infor­ma­ty­ki bada­ją­cy regu­ły rzą­dzą­ce zacho­wa­nia­mi umy­sło­wy­mi czło­wie­ka i two­rzą­cy pro­gra­my lub sys­te­my kom­pu­te­ro­we symu­lu­ją­ce ludz­kie myśle­nie (źr. Słownik Języka Polskiego PWN)

ucze­nie maszy­no­we (ang. machi­ne lear­ning): jest nauką łączą­cą takie dzie­dzi­ny jak infor­ma­ty­ka i robo­ty­ka. Głównym celem ucze­nia maszy­no­we­go jest roz­wój sztucz­nej inte­li­gen­cji poprzez samo­do­sko­na­le­nie się sys­te­mu na pod­sta­wie dostar­czo­nych danych (czy­li doświad­cze­nia) i zdo­by­wa­nie wie­dzy. (źr. Mfiles​.pl)

deep lear­ning: pro­ces, w któ­rym kom­pu­ter uczy się wyko­ny­wa­nia zadań natu­ral­nych dla ludz­kie­go mózgu, takich jak roz­po­zna­wa­nie mowy, iden­ty­fi­ko­wa­nie obra­zów lub two­rze­nie pro­gnoz. Zamiast orga­ni­zo­wać dane i wyko­ny­wać sze­reg zde­fi­nio­wa­nych rów­nań, w przy­pad­ku deep lear­ning kom­pu­ter zbie­ra pod­sta­wo­we para­me­try doty­czą­ce danych i przy­go­to­wu­je się do samo­dziel­ne­go ucze­nia, poprzez roz­po­zna­wa­nie wzor­ców z zasto­so­wa­niem wie­lu warstw prze­twa­rza­nia. (źr. SAS Inst.)

robot: urzą­dze­nie zastę­pu­ją­ce czło­wie­ka przy wyko­ny­wa­niu nie­któ­rych czyn­no­ści (SJP PWN)

Te poję­cia (tak­że robo­ty­za­cja, auto­ma­ty­za­cja), coraz czę­ściej poja­wia­ją się w prze­strze­ni publicz­nej, nie mają one jed­nak ści­słych defi­ni­cji, powyż­sze uzna­łem za repre­zen­ta­tyw­ne w kon­tek­ście publi­ka­cji pra­so­wych. Zestawmy je teraz z definicją:

Inteligencja: zdol­ność rozu­mie­nia, ucze­nia się oraz wyko­rzy­sty­wa­nia posia­da­nej wie­dzy i umie­jęt­no­ści w sytu­acjach nowych.

(na podst.: https://​kom​.edu​.pl/​i​n​t​e​l​i​g​e​n​c​j​a​-​c​o​-​t​o​-​t​a​k​i​e​go/)

Pojęcie inte­li­gen­cji tak­że nie ma ści­słej defi­ni­cji, jed­nak powyż­sza defi­ni­cja zawie­ra dwa klu­czo­we poję­cia: rozu­mie­nie oraz wyko­rzy­sta­nie umie­jęt­no­ści. Oba są dome­ną ludzi, ludz­kiej inteligencji.

Oprogramowanie gro­ma­dzi i prze­twa­rza dane, dane te mogą nieść infor­ma­cje, ale wie­dza to zbiór danych zro­zu­mia­łych dla czło­wie­ka. To co odróż­nia czło­wie­ka od maszy­ny to to, że czło­wiek rozu­mie poję­cia a maszy­na je jedy­nie prze­cho­wu­je i prze­twa­rza jako dane, a nie jako sło­wa”. Warto tu zwró­cić uwa­gę na to, że pod poję­ciem kom­pu­te­ro­we­go roz­po­zna­wa­nia mowy czy obra­zu rozu­mie­my auto­ma­tycz­ną zamia­nę gło­su (dźwię­ku) lub obra­zu na tekst, a nie rozu­mie­nie tego co sły­chać” lub widać”. Tak więc nawet, jeże­li nie potra­fi­my wska­zać wyraź­nej gra­ni­cy mię­dzy inte­li­gen­cją sztucz­ną i tą praw­dzi­wą, wie­my, że ta gra­ni­ca jed­nak jest.

Algorytmy i ich inteligencja”

Obecna moda na sztucz­ną inte­li­gen­cję jest w moich oczach tyl­ko kolej­ną falą mody. Stosunkowo nie­daw­no była podob­na moda na mar­ke­ting auto­ma­tion” (tak­że robo­ty­za­cja, inna nazwa na to samo?). Entuzjaści auto­ma­ty­za­cji (robo­ty­za­cji) pod­kre­śla­ją to, że maszy­ny są w wie­lu zada­niach szyb­sze od czło­wie­ka, nie męczą się. Wskazują, że moż­li­we jest, by algo­ryt­my same się dosko­na­li­ły (machi­ne lear­ning, algo­ryt­my gene­tycz­ne, itp.). Renesans sie­ci neu­ro­no­wych (deep lear­ning itp.) dał czę­ści ludziom wia­rę w to, że maszy­na nas dogo­ni a nawet, że jest od nas: ludzi, lep­sza. Niewątpliwie jest szyb­sza, ale prze­wa­gą czło­wie­ka (homo sapiens) nigdy nie była szyb­kość czy siła, więc to sztucz­ne zawo­dy: czło­wiek nie ści­ga się z maszy­ną (robo­tem) i nie pró­bu­je być od niej ani szyb­szy ani sil­niej­szy.

Od pew­ne­go cza­su w dzie­dzi­nie sztucz­nej inte­li­gen­cji, regu­lar­nie poja­wia­ją się poję­cia onto­lo­gia i język OWL (OWL ang. Web Ontology Language), język ze skład­nią opar­tą na XML, a seman­ty­ką opar­tą na logi­ce opi­so­wej (ang. descrip­tion logics). OWL słu­ży do opi­sy­wa­nia danych w posta­ci onto­lo­gii i budo­wa­nia w ten spo­sób tzw. Semantycznego Internetu. Problem w tym, że mode­le seman­tycz­ne (onto­lo­gie) są tak zło­żo­ne, że są pro­ble­my z ich imple­men­ta­cją. Po dru­gie onto­lo­gia ma sens z per­spek­ty­wy czło­wie­ka, któ­ry rozu­mie poję­cia (inter­pre­tu­je sło­wa), ale maszy­na może co naj­wy­żej prze­twa­rzać dane. Jednym z moich ulu­bio­nych przy­kła­dów nie­mo­cy inte­li­gen­cji maszyn, budo­wa­nej na mode­lach onto­lo­gicz­nych jest poniż­szy przy­kład tak zwa­nej kon­tek­sto­wej (sko­ja­rze­nio­wej) rekla­my w pew­nym por­ta­lu (przy­kład tak zwa­ne­go mar­ke­ting auto­ma­tion” czy­li robo­ta, któ­ry bez udzia­łu czło­wie­ka wyświe­tla sko­ja­rzo­ne rekla­my): pew­ne sło­wa klu­czo­we w tek­stach są uwy­dat­nia­ne, jeże­li zosta­ną auto­ma­tycz­nie sko­ja­rzo­ne z tre­ścią (sło­wa­mi klu­czo­wy­mi) rekla­my, efek­ty potra­fią być zaskakujące:

https://it-consulting.pl//wp-content/uploads/2011/01/kretynska-metoda-na-reklamy.png

Czy sztuczna inteligencja może uczynić systemy ERP lepszymi?

Automatyzacja obsza­rów dzia­ła­nia nie stwa­rza­ją­cych ryzy­ka wyge­ne­ro­wa­nia szko­dli­wej dla fir­my decy­zji, nie jest niczym nowym, to co nazy­wa­my MRPII to nic inne­go jak wyko­rzy­sta­nie fak­tu, że w pew­nych obsza­rach pro­ble­mem jest wyma­ga­na szyb­kość obli­czeń a nie ich zło­żo­ność czy wręcz trud­ność, bo ryzy­ko złej decy­zji tu nie ist­nie­je. Niektóre modu­ły opro­gra­mo­wa­nia są wte­dy robo­ta­mi, któ­ry samo­dziel­nie i auto­ma­tycz­nie reali­zu­ją z góry okre­ślo­ne operacje.

Wiele się pisze o Big Data i auto­ma­tycz­nym wykry­wa­niu nad­użyć, jed­nak war­to wie­dzieć, że maszy­na daje co naj­wy­żej prze­słan­ki, decy­zje podej­mu­je (powi­nien) czło­wiek. Powyższy przy­kład rekla­my w Internecie jest tego dobit­nym przykładem.

Niewątpliwie postęp tech­no­lo­gicz­ny jest źró­dłem wzro­stu wydaj­no­ści, postę­pu­ją­ca auto­ma­ty­za­cja obni­ża kosz­ty i tak­że pod­no­si efek­tyw­ność, jed­nak są to wszyst­ko te obsza­ry dzia­ła­nia czło­wie­ka, w któ­rych nie miał on nigdy aspi­ra­cji na bycie lep­szym od maszyny.

Modne się sta­je zno­wu auto­ma­tycz­ne obsłu­gi­wa­nie kon­tak­tów z klien­tem. Każdy kto czę­sto zgła­sza nad­uży­cia na Facebooku i czy­ta odpo­wie­dzi wie, że to bar­dzo fru­stru­ją­ce (więk­szość takich zgło­szeń w FB obsłu­gu­ją automaty/roboty).

Wiele mecha­ni­zmów auto­ma­tycz­nej obsłu­gi klien­tów opie­ra się na zało­że­niu, że wiel­ka licz­ba takich kon­tak­tów pod­le­ga sta­ty­stycz­nym pra­wom, i moż­na sobie pozwo­lić ofia­ry” bo jest ich na tyle mało, że zwięk­sze­nie efek­tyw­no­ści daje dodat­ni bilans korzy­ści z tej auto­ma­ty­za­cji. Zapewne sta­ty­stycz­nie tak, ale sta­ty­sty­ka, jako tyl­ko histo­ria, nigdy nie prze­kro­czy pro­gu jakim jest prze­wi­dy­wa­nie przy­szło­ści. Nie da się prze­wi­dzieć, któ­ry pyta­ją­cy to przy­szłe zamó­wie­nie na milion”. Decyzja o auto­ma­ty­za­cji obsłu­gi klien­ta może być dobrą decy­zją, o ile jest to decy­zja świa­do­ma tego. Jednak nie raz obser­wu­ję u przed­się­bior­ców zachły­śnię­cie się ofer­tą tech­no­kra­ty, co nie raz skut­ku­je nie­ste­ty stra­ta­mi zamiast zysków.

Coraz czę­ściej wska­zu­je się na duży postęp tech­nicz­ny w obsza­rze roz­po­zna­wa­nia mowy, obra­zów i ucze­nia się maszy­no­we­go, jed­nak to jest pro­blem nadal z obsza­ru ryzy­ka i ety­ki zara­zem. Doskonałym, moim zda­niem, przy­kła­dem są filo­zo­ficz­ne dys­pu­ty na temat auto­no­micz­nych samo­cho­dów. Dyskusja jest czę­sto prze­no­szo­na na pole dywa­ga­cji o tym czy zabić moż­na sta­rusz­ka na pasach dla pie­szych czy mat­kę z dziec­kiem na pobo­czu. Tak posta­wio­ny pro­blem to czy­sto tech­no­kra­tycz­ny tok myśle­nia, pole­ga­ją­cy na uzna­niu nie­pod­wa­żal­no­ści zasto­so­wa­nia samej tech­no­lo­gii i jedy­nie oce­nie szko­dli­wo­ści skut­ków jej uży­cia. Znacznie mniej popu­lar­ne jest ist­nie­ją­ce i pro­ste roz­wią­za­nie tego dyle­ma­tu: bada­nia wska­zu­ją, że potrą­ce­nie pie­sze­go sta­no­wi dla nie­go mini­mal­ne ryzy­ko utra­ty zdro­wia lub życia o ile pojazd poru­sza się z pręd­ko­ścią nie wyż­szą niż 30km/h. Więc wystar­czy przy­jąć zasa­dę, że pojaz­dy auto­no­micz­ne mają zakaz” poru­sza­nia się więk­szą pręd­ko­ścią i pro­blem zni­ka. Technokracja i biz­nes jed­nak pod­no­si, że tak wol­ny samo­chód nie znaj­dzie zbyt duże­go popy­tu na ryn­ku. Rozsądna odpo­wiedź powin­na brzmieć: trudno.

Na zakończenie

Czy sys­tem ERP róż­ni się tu czym­kol­wiek od samo­cho­du? Moim zda­niem nie, jako auto­mat może przy­nieść tyle korzy­ści co i szkód. Obecny stan wie­dzy pozwa­la w moich oczach przy­jąć pro­stą zasa­dę: tam gdzie auto­ma­ty­za­cja nie stwa­rza ryzy­ka, z powo­dze­niem moż­na ją sto­so­wać, jed­nak czło­wiek ma nad maszy­na­mi tak wiel­ka prze­wa­gę ? swo­ją praw­dzi­wą a nie sztucz­ną inte­li­gen­cję, że prze­sad­ne eli­mi­no­wa­nie go z pro­ce­sów biz­ne­so­wych popro­wa­dzi raczej do upad­ku niż sukcesu.

Kończąc ten, dość filo­zo­ficz­ny, wątek jakim jest inte­li­gen­cja sys­te­mów ERP, powiem: kom­pu­ter to uni­wer­sal­ny mecha­nizm ale czło­wiek to nie jest tyl­ko mecha­nizm. System ERP nie będzie więc mądrzej­szy, ale szyb­szy owszem…

Artykuł uka­zał się w rapor­cie PERSPEKTYWY ERP 2019. ERP View. . Published March 7, 2019. Accessed March 8, 2019.

[grudzień 2022]

Na stro­nie ope​nai​.com poja­wił się pro­duk o nazwie ChatGPT. Bot pro­wa­dzą­cy roz­mo­wy. Wielu ludzi zachły­snę­ło się traf­no­ścią” odpo­wie­dzi. Realnie jest to zakro­jo­ny na wiel­ką ska­lę Test Turinga (patrz tak­że: https://​www​.gov​.pl/​w​e​b​/​n​c​b​r​/​s​z​t​u​c​z​n​a​-​i​n​t​e​l​i​g​e​n​cja – czy-pamie­ta­my-o-tescie-turin­ga).

Pojawiły się zachwy­ty, któ­ry­mi tu nie będę poświę­cał cza­su. Znamienne i groź­ne moim zda­niem, są pla­ny upodmio­to­wie­nia sztucz­nej inte­li­gen­cji (AI, arti­fi­cial intelligence):

Rektor Uniwersytetu Gdańskiego powo­łał przy Wydziale Prawa i Administracji Centrum Prawa Nowych Technologii, któ­re będzie się zaj­mo­wać zagad­nie­nia­mi taki­mi jak: (1) tota­li­ta­ryzm cyfro­wy, (2) upodmio­to­wie­nie sztucz­nej inte­li­gen­cji czy (3) zauto­ma­ty­zo­wa­ne wyda­wa­nie orze­czeń i decy­zji. Więcej infor­ma­cji nie­ba­wem, ser­decz­nie zapra­szam do współpracy! 😉

źr.: https://​www​.lin​ke​din​.com/​f​e​e​d​/​u​p​d​a​t​e​/​u​r​n​:​l​i​:​a​c​t​i​v​i​t​y​:​7​0​1​0​6​8​6​8​7​0​3​0​5​0​1​7​8​56/

Kluczowy i nie­ukry­wa­ny już cel to zdej­mo­wa­nie odpo­wie­dzial­no­ści z pro­du­cen­tów sprzętu:

Prace na temat odpo­wie­dzial­no­ści AI pole­ga­ją mię­dzy inny­mi na opra­co­wa­niu obsza­ru odpo­wie­dzial­no­ści pro­gra­mi­sty, oso­by dostar­cza­ją­cej danych lear­nin­gu, inte­gra­to­ra, same­go algo­ryt­mu, itd. 

źr.: https://www.linkedin.com/feed/update/urn:li:activity:7011310352357335040?commentUrn=urn%3Ali%3Acomment%3A%28activity%3A7011310352357335040%2C7011336407453417472%29&replyUrn=urn%3Ali%3Acomment%3A%28activity%3A7011310352357335040%2C7012770739535699968%29&dashCommentUrn=urn%3Ali%3Afsd_comment%3A%287011336407453417472%2Curn%3Ali%3Aactivity%3A7011310352357335040%29&dashReplyUrn=urn%3Ali%3Afsd_comment%3A%287012770739535699968%2Curn%3Ali%3Aactivity%3A7011310352357335040%29

W efek­cie dzi­siaj, gdy np. wadli­wy odku­rzacz spo­wo­du­je szko­dy np. na cie­le użyt­kow­ni­ka, to moż­na mieć rosz­cze­nia do jego pro­du­cen­ta, i uzy­skać zadość­uczy­nie­nie. Upodmiotowienie odku­rza­cza (bo ktoś mu wsta­wi do środ­ka kom­pu­ter i AI) spo­wo­du­je, że pokrzyw­dzo­ny będzie mógł pozwać w sądzie odku­rzacz, któ­ry za karę” zosta­nie wyłą­czo­ny lub pod­da­ny uty­li­za­cji. Czy jako ludzie na praw­dę tego chce­my? Czy na praw­de chce­my cał­ko­wi­cie zwol­nić pro­du­cen­tów zaawan­so­wa­nych tech­no­lo­gicz­nie urzą­dzeń z wszel­kiej odpowiedzialności? 

Staje sie to groź­ne, bo fascy­na­cja tech­no­lo­gią to cecha głow­nie ludzi nie­ro­zu­mie­ją­cych jej isto­ty. Technokraci to ludzie czę­sto uzna­ją­cy wyż­szość algo­ryt­mu nad czło­wie­kiem, bo czło­wiek jest omyl­ny”. Owszem jest, ale ma też jed­nak nadal nie­za­prze­czal­na prze­wa­gę na algo­ryt­ma­mi: inte­li­gen­cje i świa­do­mość, o czym zda­ja sie zapo­mi­nac tech­no­kra­ci. Mimo tego, że powsta­ło wie­le fil­mów opi­su­ją­cych skut­ki wia­ry w nie­omyl­ność robo­tów” (Ja Robot, Terminator, …) nadal są ludzie chcą­cy powie­rzyć swo­je życie tym urządzeniom.… 

Obawiam się, że nadal praw­dzi­wa jest teza mówią­ca, że ludzie w swej masie zachwy­ca­ją się tym cze­go nie rozu­mie­ją i obda­rza­ją to Coś szcze­gól­ną nad­ludz­ką mocą: raz jest to Bóg Wszechmogący a raz Sztuczna Inteligencja. Im wię­cej zachwy­tów nad AI czy­tam, tym bar­dziej odno­szę wra­że­nie, że u wie­lu ludzi zacie­ra sie róż­ni­ca mię­dzy tymi dwo­ma Bytami.

Jarosław Żeliński

BIO: Od roku 1991 roku, nieprzerwanie, realizuję projekty z zakresu analiz i projektowania systemów, dla urzędów, firm i organizacji. Od 1998 roku prowadzę także samodzielne studia i prace badawcze z obszaru analizy systemowej i modelowania (modele jako przedmiot badań: ORCID). Od 2005 roku, jako nieetatowy wykładowca akademicki, prowadzę wykłady i laboratoria (ontologie i modelowanie systemów informacyjnych, aktualnie w Wyższej Szkole Informatyki Stosowanej i Zarządzania pod auspicjami Polskiej Akademii Nauk w Warszawie. Oświadczenia: moje badania i publikacje nie mają finansowania z zewnątrz, jako ich autor deklaruję brak konfliktu interesów. Masz pytania to treści artykułu? Kliknij tu i umów się na krótkie konsultacje.

Ten post ma 9 komentarzy

  1. Janek

    Wydaje się, że w arty­ku­le bra­ku­je roz­róż­nie­nia na wąską (nar­row) i ogól­ną (gene­ral) sztucz­ną inte­li­gen­cję. O ile moż­na się zgo­dzić z tezą, że na pozio­mie ogól­nym kogni­tyw­ne moż­li­wo­ści ludz­kie­go mózgu są cią­gle poza zasię­giem sys­te­mów sztucz­nych, o tyle roz­wią­za­nia nale­żą­ce do kla­sy nar­row czę­sto prze­kra­cza­ją ludz­kie moż­li­wo­ści poznaw­cze i nie zawsze cho­dzi tyl­ko o szyb­kość dzia­ła­nia, czy pre­cy­zję obli­czeń. Ostatnie wyni­ki DeepMind poka­zu­ją, że zdol­no­ści sys­te­mów sztucz­nych są w sta­nie prze­kro­czyć” osią­gnię­cia czło­wie­ka wypra­co­wa­ne na prze­strze­ni setek lat – tak się sta­ło w grze w GO oraz sza­chach. Pojawiły się nowe stra­te­gie, któ­rych mistrzo­wie tych gier nie byli w sta­nie odkryć. Podobne efek­ty uzy­ski­wa­ne są w bada­nia eks­pe­ry­men­tal­nych w nauce.
    https://​www​.quan​ta​ma​ga​zi​ne​.org/​m​a​c​h​i​n​e​-​l​e​a​r​n​i​n​g​s​-​a​m​a​z​i​n​g​-​a​b​i​l​i​t​y​-​t​o​-​p​r​e​d​i​c​t​-​c​h​a​o​s​-​2​0​1​8​0​4​18/
    W tej sytu­acji stwier­dze­nie, że wszyst­ko spro­wa­dza się do auto­ma­ty­za­cji osią­gnięć ludz­kiej inte­li­gen­cji wyda­je się być nieadekwatne.
    Pozdrawiam.

    1. Jarosław Żeliński

      Szybkość czy pre­cy­zja obli­czeń nie są cechą i mier­ni­kiem inte­li­gen­cji. Gra w sza­chy też nie. Jak na razie naj­po­tęż­niej­sze sie­ci neu­ro­no­we nie potra­fią odróż­nić na zdję­ciu obiek­tu od jego cie­nia, a samo­cho­dy auto­no­micz­ne nadal są nie­bez­piecz­ne… Komputery jak na razie nie wyszły poza bań­kę deter­mi­ni­zmu. Machine lear­ning to nie ucze­nie się w ludz­kim rozu­mie­niu, a zbie­ra­nie wie­dzy zaś wiel­kie zbio­ry danych to nie inte­li­gen­cja. Ten eks­pe­ry­ment z prze­wi­dy­wa­niem cha­osu to tyl­ko sta­ty­sty­ka, ta zaś nie ma nic wspól­ne­go z ludz­ką inte­li­gen­cją. Jak na raze żad­na sztucz­na inte­li­gen­cja nie odkry­ła nicze­go nowe­go, a jed­ną z miar rozu­mu jest zdol­ność do abs­trak­cyj­ne­go myśle­nia i odkry­wa­nia (pozna­nie).

  2. Janek

    Trudno mi się z Panem zgodzić. 

    Szybkość prze­twa­rza­nia infor­ma­cji to pod­sta­wa IQ, czy­li psy­cho­me­trycz­ne­go pomia­ru ludz­kiej inte­li­gen­cji. IQ zale­ży m.in. od pojem­no­ści tzw. pamię­ci robo­czej, czy­li okre­ślo­nych procesów/struktur neu­ro­nal­nych, któ­re obec­nie czę­sto mode­lu­je się przy pomo­cy podej­ścia obli­cze­nio­we­go. Warto zauwa­żyć, że pro­ces natu­ra­li­za­cji umy­słu ludz­kie­go postę­pu­je i choć cią­gle jeste­śmy na począt­ku tego pro­ce­su, to opi­nie typu Machine lear­ning to nie ucze­nie się w ludz­kim rozu­mie­niu” mogą z cza­sem oka­zać się jedy­nie prze­ja­wem tzw. psy­cho­lo­gii ludo­wej (patrz kon­cep­cja pre­dic­ti­ve coding oraz free ener­gy prin­ci­ple sto­so­wa­na w obsza­rze ucze­nia maszy­no­we­go oraz przez Karla Fristona, czo­ło­we­go neu­ro-obli­cze­nio­wa­ca do opi­su dzia­ła­nia mózgu – obec­nie jest to jed­na z naj­bar­dziej płod­nych i popu­lar­nych kon­cep­cji teo­re­tycz­nych w neu­ro­scien­ce). Dodam, że naj­więk­szym wyzwa­niem teo­re­tycz­nym w obsza­rze mode­lo­wa­nia mózgu-umy­słu nie są zdol­no­ści poznaw­cze czło­wie­ka, czy mode­lo­wa­nie zacho­wań, ale kwe­stia świa­do­mo­ści. Tutaj cią­gle mamy kło­pot, żeby zna­leźć poję­cia, któ­re ade­kwat­nie uchwy­cą sta­tus i funk­cję tego fenomenu.
    A co do sie­ci nie odróż­nia­ją­cych obiek­tu od cie­nia, to pro­szę mi wie­rzyć, tego typu pro­ble­my są suk­ce­syw­nie roz­wią­zy­wa­ne – naj­lep­sze sie­ci seg­men­tu­ją­ce ofe­ro­wa­ne w mode­lu trans­fer lear­ning są w sta­nie roz­róż­niać set­ki kate­go­rii obiek­tów, włącz­nie z obiek­ta­mi czę­ścio­wo prze­sło­nię­ty­mi. Często ich efek­tyw­ność prze­wyż­sza moż­li­wo­ści czło­wie­ka np. co do roz­róż­nia­nia róż­nych ras psów. Z resz­tą ludz­ki apa­rat per­cep­cyj­ny też ma swo­je przy­pad­ki brze­go­we – patrz ilu­zje wzro­ko­we. Podobnie jest / będzie z sys­te­ma­mi ste­ru­ją­cy­mi samo­cho­da­mi auto­no­micz­ny­mi. Choć cią­gle nie są one bez­błęd­ne, to postęp jest ewi­dent­ny i w cią­gu kil­ku lat moż­na się spo­dzie­wać maso­wych wdro­żeń. Jeśli ma Pan wąt­pli­wo­ści, to pro­szę zwe­ry­fi­ko­wać w co inwe­stu­ją obec­nie duże fir­my z obsza­ru auto­mo­ti­ve. O ile wiem, nie ma dużej fir­my na ryn­ku samo­cho­do­wym, któ­ra nie przy­go­to­wy­wa­ła­by się do rewo­lu­cji zwią­za­nej z auto­no­mus driving. 

    Jeśli cho­dzi o wska­za­ny wynik doty­czą­cy cha­osu, to to z pew­no­ścią nie jest zwy­kła sta­ty­sty­ka. Gdyby tak było, to nie mie­li­by­śmy pro­ble­mu z prze­wi­dy­wa­niem pogo­dy. Przedstawiony arty­kuł poka­zu­je, że odpo­wied­nio zaawan­so­wa­ne ucze­nie maszy­no­we jest sil­nym narzę­dziem mode­lu­ją­cym, któ­re pozwa­la wykro­czyć poza dotych­cza­so­we ogra­ni­cze­nia, rów­nież teo­re­tycz­ne, gdyż jak wie­my zwięk­szo­na moc obli­cze­nio­wa tyl­ko w nie­wiel­kim stop­niu zwięk­sza moż­li­wo­ści pre­dyk­cyj­ne mode­li chaotycznych. 

    Abstrahowanie to jed­no z pod­sta­wo­wych wyma­gań dla sys­te­mów uczą­cych się. Jeśli sieć nie potra­fi zna­leźć ogól­nych pra­wi­dło­wo­ści w dostar­czo­nej prób­ce uczą­cej, to uwa­ża się, że model nicze­go się nie nauczył, a jedy­nie zapa­mię­tał dostęp­ne dane. Nie chcę przez to powie­dzieć, że ludz­ka zdol­ność abs­tra­ho­wa­nia niczym nie róż­ni się od tego, co robią dostęp­ne obec­nie algo­ryt­my, ale róż­ni­ca nie­ko­niecz­nie musi być jako­ścio­wa. Może się oka­zać, że to jest bar­dziej pro­blem ilo­ścio­wy niż jako­ścio­wy – patrz teo­ria Tonioniego: https://​en​.wiki​pe​dia​.org/​w​i​k​i​/​I​n​t​e​g​r​a​t​e​d​_​i​n​f​o​r​m​a​t​i​o​n​_​t​h​e​ory.

    Podsumowując: duże dzie­je się obec­nie na sty­ku AI – bada­nia na ludz­kim mózgiem-umy­słem, dla­te­go wszyst­kie kate­go­rycz­ne stwier­dze­nia doty­czą­ce fun­da­men­tal­nych róż­nic pomię­dzy sys­te­ma­mi sztucz­ny­mi a bio­lo­gicz­ny­mi mogą w pew­nym momen­cie oka­zać się mniej istot­ne niż nam się to obec­nie wydaje.
    Pozdrawiam.

    1. Jarosław Żeliński

      To co napi­sa­łem, to nie kate­go­ry­za­cja. Ale cze­ka­my aż przy­pusz­cze­nia się oka­żą fak­ta­mi. Na razie nie ma ści­słej defi­ni­cji inteligencji …

  3. Mateusz

    Ciekawy arty­kuł. Sztucznej inte­li­gen­cji” jesz­cze dale­ko do praw­dzi­wej inte­li­gen­cji. Automaty odnaj­du­ją tyl­ko pew­ne sche­ma­ty, na pod­sta­wie jakie­goś wyuczonego(zbadanego) mode­lu, dale­ko im do inte­li­gen­cji ponie­waż nie są kre­atyw­ne. Na pod­sta­wie wyuczo­ne­go mode­lu nie są w sta­nie stwo­rzyć nic odmiennego(oryginalnego) – tak przy­naj­mniej rozu­miem inteligencję.

  4. Bartosz Bilicki

    z tym znaj­do­wa­niem sche­ma­tów na pod­sta­wie wyuczo­ne­go mode­lu i bra­kiem kre­atyw­no­sci do nie do koń­ca prawda.

    http://​wybor​cza​.pl/​7​,​7​5​4​0​0​,​2​2​7​6​8​3​8​3​,​s​z​t​u​c​z​n​a​-​i​n​t​e​l​i​g​e​n​c​j​a​-​w​y​g​r​y​w​a​-​w​-​s​z​a​c​h​y​.​h​tml

    Jak wyni­ka z arty­ku­łu posu­nię­cia sza­cho­we AI są bar­dziej kre­atyw­ne niż ludzkie!

    1. Jarosław Żeliński

      Ten arty­kuł opi­su­je poje­dy­nek dwóch pro­gra­mów a nie pro­gra­mu z czło­wie­kiem a nie­stan­dar­do­we zacho­wa­nie to jesz­cze nie inte­li­gen­cja. No i pamię­taj­my, że wygra­na w sza­chy nie jest testem inte­li­gen­cji a wygra­ną w sza­chy. Naprzeciwko Alpha Zero sta­nął Stockfish 8 ? pro­gram kom­pu­te­ro­wy do gry w sza­chy ? przez wie­lu uwa­ża­ny za naj­lep­szy na świe­cie.” Proszę mi wyba­czyć ale argu­ment dzien­ni­ka­rza GW w rodza­ju przez wie­lu uwa­ża­ny…” to podej­ście popu­li­stycz­ne a nie naukowe.
      (gene­ro­wa­nie warian­tów nie jest kreatywnością)

Dodaj komentarz

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.