Lawinowo poja­wia­ją się pomy­sły praw­ne­go regu­lo­wa­nia AI, a nawet upodmio­to­wie­nia AI (patrz: Sztuczna inte­li­gen­cja jest sztucz­na, co jest już moim zda­niem kuriozalne).

Ale po kolei.

Prawo autorskie

W usta­wie z dnia 4 lute­go 1994 r. o pra­wie autor­skim i pra­wach pokrew­nych czytamy:


Przedmiot pra­wa autorskiego

Art. 1.

1. Przedmiotem pra­wa autor­skie­go jest każ­dy prze­jaw dzia­łal­no­ści twór­czej o indy­wi­du­al­nym cha­rak­te­rze, usta­lo­ny w jakiej­kol­wiek posta­ci, nie­za­leż­nie od war­to­ści, prze­zna­cze­nia i spo­so­bu wyra­że­nia (utwór).

2. W szcze­gól­no­ści przed­mio­tem pra­wa autor­skie­go są utwory:

1) wyra­żo­ne sło­wem, sym­bo­la­mi mate­ma­tycz­ny­mi, zna­ka­mi gra­ficz­ny­mi (lite­rac­kie, publi­cy­stycz­ne, nauko­we, kar­to­gra­ficz­ne oraz pro­gra­my komputerowe);

2) pla­stycz­ne;

3) foto­gra­ficz­ne;

4) lut­ni­cze;

5) wzor­nic­twa przemysłowego;

6) archi­tek­to­nicz­ne, archi­tek­to­nicz­no-urba­ni­stycz­ne i urbanistyczne;

7) muzycz­ne i słowno-muzyczne;

8) sce­nicz­ne, sce­nicz­no-muzycz­ne, cho­re­ogra­ficz­ne i pantomimiczne;

9) audio­wi­zu­al­ne (w tym filmowe).

2. Ochroną obję­ty może być wyłącz­nie spo­sób wyra­że­nia; nie są obję­te ochro­ną odkry­cia, idee, pro­ce­du­ry, meto­dy i zasa­dy dzia­ła­nia oraz kon­cep­cje matematyczne.

3. Utwór jest przed­mio­tem pra­wa autor­skie­go od chwi­li usta­le­nia, cho­ciaż­by miał postać nieukończoną.

4. Ochrona przy­słu­gu­je twór­cy nie­za­leż­nie od speł­nie­nia jakich­kol­wiek formalności.


Kluczem jest ust.1.: utwo­rem jest każ­dy prze­jaw dzia­łal­no­ści twór­czej o indy­wi­du­al­nym cha­rak­te­rze, usta­lo­ny w jakiej­kol­wiek posta­ci, nie­za­leż­nie od war­to­ści, prze­zna­cze­nia i spo­so­bu wyra­że­nia”. Cechami defi­niu­ją­cy­mi są więc: indy­wi­du­al­ność i utrwa­le­nie, oraz wyłą­czo­ne są z tej defi­ni­cji odkry­cia, idee, pro­ce­du­ry, meto­dy i zasa­dy dzia­ła­nia oraz kon­cep­cje matematyczne”.

Pierwszy pro­blem jaki widzę to pew­na nie­spój­ność wyma­ga­ją­ca wyja­śnie­nia: w słow­ni­ku j.p. czytamy

pro­ce­du­ra: 1. «okre­ślo­ne regu­ły postę­po­wa­nia w jakiejś spra­wie, zwy­kle o cha­rak­te­rze urzę­do­wym lub praw­nym», 2. «w języ­kach pro­gra­mo­wa­nia: wydzie­lo­ny frag­ment algorytmu»

Biorąc pod uwa­gę celo­wość dzia­ła­nia Ustawodawcy zakła­dam, że Ustawodawca wyłą­cza­jąc z defi­ni­cji utwo­ru pro­ce­du­ry, miał na myśli def.1. zas pisząc o pro­gra­mach kom­pu­te­ro­wych miał na myśli def.2. Ale tu mamy kolej­ny zgrzyt: bo wyłą­czo­no z defi­ni­cji tak­że meto­dy i zasa­dy dzia­ła­nia oraz kon­cep­cje mate­ma­tycz­ne” a algo­rytm to nic inne­go jak meto­da, mate­ma­tycz­na kon­cep­cja. Ale temat kodu źró­dło­we­go jako utwo­ru już poru­sza­łem wcze­śniej, mię­dzy inny­mi w dusku­sji z Zbigniew Okoń.

Słusznie zwra­ca się uwa­gę na to, że o utwo­rze moż­na mówić gdy jego twór­ca miał swo­bo­dę dzia­ła­nia, czy­li gdy treść jest indy­wi­du­al­nym (uni­kal­nym) i świa­do­mym zbio­rem doko­na­nych wybo­rów. Z inten­cji usta­wo­daw­cy i tre­ści usta­wy moż­na – moim zda­niem – wywo­dzić, że dzia­łal­ność twór­cza to świa­do­me dzia­ła­nie człowieka.

Krytycy tej defi­ni­cji pod­no­szą, że usta­le­nie gra­ni­cy uni­kaln­no­ści” jest trud­ne a nawet nie­moż­li­we, bo mię­dzy pew­nym uni­kal­nym” a nie­uni­kal­nym” jest duża sza­ra stre­fa. To jed­nak jest sła­by argu­ment, gdyż gra­ni­cę moż­na posta­wić poza sza­rym” obszarem:

Wyznaczenie gra­ni­cy bycia utwo­rem” jest więc łatwe: jeże­li utwo­rem jest to co na pew­no jest uni­kal­ne” (np. kolor bia­ły) to na powyż­szym sche­ma­cie był by to pukt gra­ni­ca bia­łe­go” a nie zła gra­ni­ca mię­dzy czar­nym i bia­łym” (w iden­tycz­ny spo­sób wska­zu­je­my np. moment powsta­nia nowe­go gatun­ku w teo­rii ewolucji).

Sztuczna Inteligencja czyli kto i co tworzy 

Kolejna kwe­stia to czło­wie­czeń­stwo” twór­cy. Słynny eks­pe­ry­ment myślo­wy Searle’a: chiń­ski pokój nigdy nie będzie rozu­miał tego co robi”, poka­zał że maszy­na może two­rzyć tre­ści, co do któ­rych czło­wiek nie będzie w sta­nie stwier­dzić czy są one dzie­łem czło­wie­ka czy maszy­ny [Marcin Jażyński. Qualia w chiń­skim poko­ju. Obliczanie i świa­do­mość feno­me­nal­na. Przegląd Filozoficzny – Nowa Seria 2011, No. 78, 13 – 25.]. I taką mamy teraz sytu­ację z sys­te­ma­mi zwa­ny­mi AI (ang. Artificial Inteligence, Sztuczna Inteligencja).

System AI jako auto­mat prze­twa­rza­ją­cy treść

Czym jest owa AI? Popatrzmy na sta­ry i nadal zabaw­ny gene­ra­tor przemówień”:

Podział na kolum­ny i wier­sze oraz tre­ści wpi­sa­ne w poszcze­gól­ne pola, to nic inne­go jak wyuczo­na” sieć neu­ro­no­wa (te obec­ne po pro­stu mają milio­ny takich wier­szy i kolum).

Opisany w nagłów­ku wkle­jo­nej gra­fi­ki algo­rytm, to mecha­nizm dzia­ła­nia tej sie­ci. Jak pisze autor, algo­rytm ten pozwa­la na wytwo­rze­nie 40 godz. prze­mó­wie­nia (czy­li wie­le stron tek­stu). Jeżeli w algo­ryt­mie tym, w miej­sce nale­ży połą­czyć z dowol­nym zda­niem…” wsta­wi­my pro­sty mecha­nizm losu­ją­cy (np. bez powtó­rzeń) otrzy­ma­my gene­ra­tor tek­stów, któ­rych autor­stwo: czło­wiek czy maszy­na, będzie dla czło­wie­ka nie­moż­li­we do stwier­dze­nia. Generator loso­wy może być dodat­ko­wo para­me­try­zo­wa­ny (poda­wa­ne promp­ty to dzie­dzi­no­we mody­fi­ko­wa­nie mecha­ni­zmu losu­ją­ce­go). Dodam tu, że AI to żaden nowy wyna­la­zek, to jedy­nie auto­ma­ty­za­cja opi­sa­ne­go wyżej procesu.

Ciekawy opis podał autor tego inte­re­su­ją­ce­go artykułu:

Pod maską
Rdzeniem ChatGPT jest głę­bo­ka sieć neu­ro­no­wa: zło­żo­na funk­cja mate­ma­tycz­na – lub regu­ła – któ­ra mapu­je dane wej­ścio­we na wyj­ścio­we. Wejścia i wyj­ścia muszą być licz­ba­mi. Ponieważ ChatGPT‑4 dzia­ła ze sło­wa­mi, muszą one zostać prze­tłu­ma­czo­ne” na licz­by, aby sieć neu­ro­no­wa mogła z nimi pracować.

Tłumaczenie jest wyko­ny­wa­ne przez pro­gram kom­pu­te­ro­wy zwa­ny toke­ni­ze­rem, któ­ry utrzy­mu­je ogrom­ną listę słów i sekwen­cji liter, zwa­nych toke­na­mi”. Tokeny te są iden­ty­fi­ko­wa­ne za pomo­cą liczb. Słowo takie jak przy­ja­ciel” ma iden­ty­fi­ka­tor toke­na 6756, więc sło­wo takie jak przy­jaźń” jest dzie­lo­ne na toke­ny przy­ja­ciel” i sta­tek”. Są one repre­zen­to­wa­ne jako iden­ty­fi­ka­to­ry 6756 i 6729.

Gdy użyt­kow­nik wpro­wa­dza pyta­nie, sło­wa są tłu­ma­czo­ne na licz­by, zanim jesz­cze ChatGPT‑4 roz­pocz­nie prze­twa­rza­nie żąda­nia. Głęboka sieć neu­ro­no­wa nie ma dostę­pu do słów jako tek­stu, więc nie może tak napraw­dę wnio­sko­wać o literach.

źr.: https://​the​co​nver​sa​tion​.com/​c​h​a​t​g​p​t​-​s​t​r​u​g​g​l​e​s​-​w​i​t​h​-​w​o​r​d​l​e​-​p​u​z​z​l​e​s​-​w​h​i​c​h​-​s​a​y​s​-​a​-​l​o​t​-​a​b​o​u​t​-​h​o​w​-​i​t​-​w​o​r​k​s​-​2​0​1​906

Wyobraźmy więc sobie, że wyge­ne­ro­wa­no tak 10 stron tek­stu. Czy to będzie utwór? Dla oso­by nie­zna­ją­cej pocho­dze­nia tego tek­stu, tak. Ale to nie czło­wiek napi­sał”! A skąd to wia­do­mo? Pojawia się pyta­nie: czy nie­pod­pi­sa­ny tekst jest, w dzi­siej­szych cza­sach ist­nie­nia AI, utwo­rem? Czy pod­pi­sa­ny jakimś imie­niem i nazwi­skiem tekst będzie utwo­rem? Nie wie­my, bo owo imię i nazwi­sko to tak­że część tego tek­stu, więc mogła powstać, tak jak jego resz­ta, maszy­no­wo. Identyczna sytu­acja doty­czy obra­zu czy dźwięku.

Kolejne zagad­nie­nie. Załóżmy że powyż­sza maszy­na i jej baza danych (tabe­le) powsta­ła na bazie ana­li­zy kil­ku­set tek­stów praw­dzi­wych prze­mó­wień. Ta tabe­la (nasza maszy­na) to efekt gene­ra­li­za­cji: sta­ty­stycz­ne wyszu­ki­wa­nie powtó­rzeń uzna­nych za sen­sow­ne” i budo­wa­nie, na ich pod­sta­wie, reguł wybo­ru loso­wa­nej tre­ści. Uczenie maszy­ny – sztucz­nej sie­ci neu­ro­no­wej – wyma­ga wska­zy­wa­nia popraw­nych kom­bi­na­cji”, to nic inne­go jak poda­wa­nie uzna­nych za popraw­ne tre­ści na wej­ściu, i oce­na tych wyge­ne­ro­wa­nych. Pomijając aspekt ludz­kiej pra­cy w to wło­żo­nej (ktoś to musi robić), pyta­nie brzmi: czy wyge­ne­ro­wa­ne tak tre­ści to pla­gia­ty? Uważam, że nie, w prze­ciw­nym wypad­ku każ­da samo­dziel­na wypo­wiedź oczy­ta­ne­go czło­wie­ka była­by plagiatem.

Czy tre­no­wa­nie maszy­ny na cudzych utwo­rach (tre­ści) wyma­ga zgo­dy ich auto­rów? Jeżeli te tre­ści pozy­ska­no legal­nie, to nie, bo dla­cze­go? Nie muszę pro­sić o zgo­dę auto­rów pod­ręcz­ni­ków i nauko­wych publi­ka­cji by je czy­tać i korzy­stać z tak zdo­by­tych umie­jęt­no­ści. Tu waż­na uwa­ga: ucze­nie się to nie tyl­ko wku­wa­nie na pamięć” by potem cyto­wać. To przede wszyst­kim uzy­ski­wa­nie umie­jęt­no­ści: każ­dy rze­mieśl­nik korzy­stal kie­dyś z pod­ręcz­ni­ków, ale nie musi auto­rów tych pod­ręcz­ni­kiów pro­sić o zgo­dę z na wyko­ny­wa­nie swo­je­go rzemiosła.

Dalej: autor pod­ręcz­ni­ka (dowol­nej książ­ki) nie ma pod­staw ani pra­wa pytać nabyw­ców w jakim celu jego książ­ki są naby­wa­ne (nie mówi­my o ich powie­la­niu): moż­na je czy­tać (a moż­na też palić nimi w kom­nin­ku). Uprzedzając zarzu­ty, oba­wiam się, że uzna­nie ucze­nia się, lub ucze­nia maszy­ny, za kolej­ne pole eks­plo­ata­cji utwo­ru, nie ma sen­su ani uza­sad­nie­nia (raczej było by życze­nio­wym chciejstwem).

I nie zapo­mi­naj­my, że defi­ni­cja poję­cia sztucz­na inte­li­gen­cja bazu­je na sło­wie imi­tu­je”.

Podsumowanie

Jakie wnio­ski się nasuwają?

  1. Maszyna nie two­rzy tre­ści a gene­ru­je ją.
  2. Stwierdzenie tego czy dana treść jest utwo­rem wyma­ga udo­wod­nie­nia ludz­kie­go autor­stwa (udzia­łu czło­wie­ka w pro­ce­sie powsta­wa­nia treści).
  3. Produkt uży­cia takiej maszy­ny, oraz inwen­cja czło­wie­ka w jej para­me­try­za­cji (promp­ty), może zostać uzna­ny za utwór, któ­re­go wyłącz­nym auto­rem jest czło­wiek para­me­try­zu­ją­cy dzia­ła­nie maszy­ny (tak jak np. foto­graf uży­wa­ją­cy pół­au­to­ma­tycz­nych, czy nawet auto­ma­tycz­nych, usta­wień wyra­fi­no­wa­ne­go apa­ra­tu foto­gra­ficz­ne­go, nadal twór­cze pozo­sta­je kadro­wa­nie, oświe­tle­nie itp.).
  4. Nie ma pod­staw by tre­ści gene­ro­wa­ne przez AI z udzia­łem czło­wie­ka lub bez, były uzna­ne za pla­giat (o ile to co powsta­nie nie speł­nia defi­ni­cji pla­gia­tu jako treść).

Tu poja­wia się pro­blem stwier­dze­nia ludz­kie­go autor­stwa. Czy trud­ny? Moim zda­niem nie, bo pro­blem ten jest już roz­wią­ża­ny: to autor­skie pra­wa oso­bi­ste. Każdy autor jest w sta­nie udo­wod­nić, że jest auto­rem cze­goś. Oczywiście wyma­ga to pew­nej mini­mal­nej woli auto­ra: posia­da­nie archi­wum swo­ich utwo­rów, umiesz­cza­nie w tre­ści utwo­ru swo­ich danych (pod­pi­sa­nie utwo­ru) oraz znacz­nik cza­su jego zacho­wa­nia w tym archi­wum (lub powsta­nia). To archi­wum powin­no być zaufa­ne (np. pro­fil zaufa­ny lokal­ny), wte­dy taki egzem­plarz speł­nia zara­zem rolę zaawan­so­wa­ne­go pod­pi­su elektronicznego.

Osobiście uwa­żam, że sko­ro pra­wo autor­skie to pra­wo cywil­ne, to na auto­rze spo­czy­wa obo­wią­zek wyka­za­nia (udo­wod­nie­nia) swo­je­go autor­stwa dane­go utwo­ru i tyl­ko autor (lub pod­miot go repre­zen­tu­ją­cy) może mieć jaki­kol­wiek rosz­cze­nia a tego tytułu.

Tak więc czy AI sta­no­wi jakieś zagro­że­nie dla twór­ców? Moim zda­niem nie. Czy wyma­ga spe­cjal­ne­go pra­wa? Też uwa­żam, że nie. Wymaga jedy­nie zro­zu­mie­nia tego czym jest AI.

Ale… Kto napi­sał ten tekst?

Jarosław Żeliński

Jarosław Żeliński: autor, badacz i praktyk analizy systemowej organizacji: Od roku 1991 roku, nieprzerwanie, realizuje projekty z zakresu analiz i projektowania systemów, dla urzędów, firm i organizacji. Od 1998 roku prowadzi samodzielne studia i prace badawcze z obszaru analizy systemowej i modelowania (modele jako przedmiot badań: ORCID). Od 2005 roku, jako nieetatowy wykładowca akademicki, prowadzi wykłady i laboratoria (ontologie i modelowanie systemów informacyjnych, aktualnie w Wyższej Szkole Informatyki Stosowanej i Zarządzania pod auspicjami Polskiej Akademii Nauk w Warszawie.) Oświadczenia: moje badania i publikacje nie mają finansowania z zewnątrz, jako ich autor deklaruję brak konfliktu interesów. Prawa autorskie: Zgodnie z art. 25 ust. 1 pkt. 1) lit. b) ustawy o prawie autorskim i prawach pokrewnych zastrzegam, że dalsze rozpowszechnianie artykułów publikowanych w niniejszym serwisie jest zabronione bez indywidualnej zgody autora (patrz Polityki Strony).

Ten post ma 14 komentarzy

    1. Jarosław Żeliński

      Dlaczego nie­traf­ne? Ten arty­kuł to porów­na­nie efek­tów, nie widzę tam deta­licz­ne­go opi­su mode­lu mecha­ni­zmu dzia­ła­nia AI/LLM. Choć na str. 94 opis pre­dyk­cji kolej­nych słów odpo­wia­da temu co opi­sa­łem (fakt, że zro­bi­łem to w dużym uogól­nie­niu). Publikacja, któ­ra Pan przy­wo­łu­je to bada­nie czar­nej skrzyn­ki a nie opis mechanizmu. 

  1. Jan

    Możliwy jest opis pro­ce­du­ry ucze­nia, ale nie jest moż­li­wy opis mecha­ni­zmu gene­ra­li­za­cji, bo ten jest wiel­ką tajem­ni­cą i nikt nie wie skąd bio­rą się takie cechy mode­lu jak wnio­sko­wa­nie, ucznie kon­tek­sto­we, rymo­wa­nie, tłu­ma­cze­nie żar­tów, roz­wią­zy­wa­nie zaga­dek logicz­nych, itp. – część bada­czy przy­pi­su­je im sta­tus cech emer­gent­nych, przy­naj­mniej w tym sen­sie, że poja­wia­ją się one nagle i nikt nie jest w sta­nie prze­wi­dzieć kie­dy się poja­wią – stąd uży­te w arty­ku­le okre­śle­nie phi­sics of AI. Słynny postu­lat Feynmana, że rozu­mie­my coś, gdy potra­fi­my to zbu­do­wać, w tym przy­pad­ku się zała­mu­je. Obecnie wie­lu bada­czy poszu­ku­je dobrej teo­rii, któ­ra wyja­śnia­ła­by mecha­nizm, któ­ry stoi za ujaw­nia­niem się tego typu cech, ale jeste­śmy dopie­ro na począt­ku dro­gi … Porównanie tego z pro­stym tric­kiem pole­ga­ją­cym na per­mu­ta­cji odpo­wied­nio ogól­nych fraz wyda­je mi się nie­po­ro­zu­mie­niem. Nie chcę mi się wie­rzyć, by Microsoft inwe­sto­wał miliar­dy dola­rów w fir­mę, któ­ra zbu­do­wa­ła bar­dziej zło­żo­ną wer­sję tabel­ki do per­mu­ta­cji kil­ku ogól­nych formułek ;-).

    1. Jarosław Żeliński

      Możliwy jest opis pro­ce­du­ry ucze­nia, ale nie jest moż­li­wy opis mecha­ni­zmu gene­ra­li­za­cji, bo ten jest wiel­ką tajem­ni­cą i nikt nie wie skąd bio­rą się takie cechy mode­lu jak wnioskowanie, ”

      Nie ma to żad­ne­go zna­cze­nia z per­spek­ty­wy tego co napi­sa­łem. Słynny postu­lat Feynmana, że rozu­mie­my coś, gdy potra­fi­my to zbu­do­wać, w tym przy­pad­ku się zała­mu­je.” oba­wiam się, że nie, w rozu­mie­niu świa­do­me­go budo­wa­nia cze­go­kol­wiek. Jak na razie Mamy pro­sty i zna­ny podział na seman­ty­kę i syn­tak­ty­kę. Przypisywanie jakiej­kol­wiek magii czy bosko­ści algo­ryt­mom AI nie­ma uzasadnienia. 

      Porównanie tego z pro­stym tric­kiem pole­ga­ją­cym na per­mu­ta­cji odpo­wied­nio ogól­nych fraz wyda­je mi się nie­po­ro­zu­mie­niem. ” To nie pro­sta per­mu­ta­cja z zło­żo­ny sys­tem reguł syn­tak­tycz­nych, ale jed­nak reguł. Liczba tych reguł nie ma zna­cze­nia, sys­tem ich budo­wa­nia i mecha­nizm ucze­nia się sys­te­mu” jest pro­sty o opi­sa­ny. Pojedyncza komór­ka sie­ci neu­ro­no­wej to żad­ne cudo, to, że sa ich milio­ny to jedy­nie zło­żo­ność”.

      Nie chcę mi się wie­rzyć, by Microsoft inwe­sto­wał miliar­dy dola­rów w fir­mę, któ­ra zbu­do­wa­ła bar­dziej zło­żo­ną wer­sję tabel­ki do per­mu­ta­cji kil­ku ogól­nych formułek ;-).”

      Cóż :), wia­ry bym w to nie mie­szał. To biznes.

      P.S.
      Mechanizm ucze­nia się” opi­sa­łem tu: https://​it​-con​sul​ting​.pl/​2​0​1​5​/​0​8​/​0​6​/​o​g​o​l​n​a​-​t​e​o​r​i​a​-​s​y​s​t​e​m​o​w​-​a​-​a​n​a​l​i​za/

  2. Jan

    Nie ma to żad­ne­go zna­cze­nia z per­spek­ty­wy tego co napisałem”. 

    Zdanie, któ­re skło­ni­ło mnie do napi­sa­nia komen­ta­rza to: Podział na kolum­ny i wier­sze oraz tre­ści wpi­sa­ne w poszcze­gól­ne pola, to nic inne­go jak wyuczo­na” sieć neu­ro­no­wa (te obec­ne po pro­stu mają milio­ny takich wier­szy i kolum)”, a to jest oczy­wi­sta nie­praw­da. Gdyby tak było, to sieć była­by zwy­kłą lookup table”, zwy­kłą bazą danych, a nie o to prze­cież cho­dzi w tre­no­no­wa­niu sie­ci neu­ro­no­wych (w takim przy­pad­ku over­fit­ting nie był­by pro­ble­mem, a prze­cież jest i każ­da sieć, któ­ra wyłą­cze­nie zapa­mię­tu­je dane tre­nin­go­we idzie do kosza ;-)). Analiza Searle nie uwzględ­nia tej róż­ni­cy. To, co jest klu­czo­we w ucze­niu maszy­no­wym, to gene­ra­li­za­cja na nowe przy­pad­ki (na razie wewnątrz dys­try­bu­cji danych, ale wła­śnie zaczy­na­ją się pra­ce, by ucze­nie obję­ło rów­nież dane spo­za dys­try­bu­cji – patrz ostat­nie pomy­sły Bengio). Gdyby użyć ana­lo­gii do eks­pe­ry­men­tu Searle’a to nale­ża­ło­by powie­dzieć, że w pew­nym momen­ciee pokój zaczy­na popraw­nie reago­wać na sym­bo­le, dla któ­rych nie ma mapo­wa­nia. Ponadto, zaczy­na pra­wi­dło­wo reago­wać na zło­żo­ne sekwen­cje sym­bo­li, dla któ­rych nie tyl­ko nie ma mapo­wa­nia, ale dla któ­rych odpo­wiedź wyma­ga zna­jo­mo­ści zło­żo­nych rela­cji pomię­dzy ele­men­ta­mi bazo­we­go słow­ni­ka, czy wręcz wie­dzy o struk­tu­rze gier języ­ko­wych” jak­by powie­dział Wittgenstein.

    oba­wiam się, że nie, w rozu­mie­niu świa­do­me­go budo­wa­nia cze­go­kol­wiek” – to pew­nie zale­ży, co rozu­mie­my przez świa­do­me budo­wa­nie cze­go­kol­wiek. Zdaje się, że podob­na sytu­acja jak z AI – potra­fi­my zbu­do­wać, ale nie do koń­ca wie­my, dla­cze­go coś dzia­ła – zda­rza się co jakiś czas. Podobno naj­pierw powstał sil­nik elek­trycz­ny, a dopie­ro po jakimś cza­sie Maxwell zde­fi­nio­wał rów­na­nia wyja­śnia­ją­ce, pra­wa elek­tro-magne­ty­zmu. Podobnie pew­nie jest obec­nie z mode­lo­wa­niem bia­łek – AlphaFold mode­lu­je trój­wy­mia­ro­we for­my bia­łek na pod­sta­wie sekwen­cji DNA, ale dla­cze­go mode­le opar­te na ucze­niu głę­bo­kim robią to popraw­nie, a roz­wią­za­nia hery­stycz­ne opra­co­wa­ne przez bio­che­mi­ków nie, pozo­sta­je tajem­ni­cą”.

    Przypisywanie jakiej­kol­wiek magii czy bosko­ści algo­ryt­mom AI nie­ma uza­sad­nie­nia. […] Pojedyncza komór­ka sie­ci neu­ro­no­wej to żad­ne cudo, to, że sa ich milio­ny to jedy­nie zło­żo­ność”. Magia pole­ga na tym, że stow­rzy­li­śmy pro­ce­du­rę, któ­ra wytwa­rza struk­tu­rę, któ­rej funk­cjo­nal­nych wał­sno­ści nie potra­fi­my prze­wi­dzieć. Jeśli uwa­ża Pan, że nie ma w tym nicze­go szcze­gól­ne­go, to pro­szę wyja­śnić, dla­cze­go mode­le z mniej­szą licz­bą para­me­trów nie potra­fią roz­wią­zać pew­nych typów zadań, a inne, na podob­nym zbio­rze danych są w sta­nie je wyko­nać. Sam fakt, że w ostat­nich latach powsta­ły tysią­ce róż­nych archi­tek­tur sie­ci powin­no skło­nić do wąt­pli­wo­ści, że to co wie­my na temat sie­ci jest nie­zwy­kle pod­sta­wo­we i tyl­ko eks­pe­ry­men­ty poka­zu­ją, czy coś dzia­ła, czy nie.

    Jak na razie Mamy pro­sty i zna­ny podział na seman­ty­kę i syn­tak­ty­kę” – LLM’y poka­zu­ją, że ten podział sta­je pod zna­kiem zapy­ta­nia (patrz powy­żej przy­kład poko­ju Searle’a, któ­ry zaczy­na reago­wać pra­wi­dło­wo na symo­bo­le, dla któ­rych nie ma mapo­wa­nia, na zło­żo­ne sekwen­cje, czy całe kon­tek­sty). W z wiąz­ku z powyż­szym odtrzy­mu­ję swo­ją uwa­gę, że tabel­ka z tek­sta­mi, to nie jest dobry model / ana­lo­gon sie­ci neu­ro­no­wej – pew­nie bli­żej jej do słyn­ne­go pro­gra­mu Eliza, któ­ry zapi­sał się w histo­rii sztucz­nej inte­li­gen­cji, ale jako roz­wią­za­nie opar­te na wyso­ko­po­zio­mo­wych regu­łach syn­tak­tycz­nych po pro­stu się nie wyska­lo­wał, w prze­ci­wień­stwie do podej­ścia opar­te­go na kon­sjo­ni­zmie – war­to zadać sobie pyta­nie dla­cze­go tak się stało.

    1. Jarosław Żeliński

      wyuczo­na” sieć neu­ro­no­wa (te obec­ne po pro­stu mają milio­ny takich wier­szy i kolum)”, a to jest oczy­wi­sta nie­praw­da. Gdyby tak było, to sieć była­by zwy­kłą lookup table”, zwy­kłą bazą danych, ”

      Sieci neu­ro­no­we nie są zwy­kłą bazą danych”.

      LLM’y poka­zu­ją, że ten podział sta­je pod zna­kiem zapy­ta­nia (patrz powy­żej przy­kład poko­ju Searle’a, któ­ry zaczy­na reago­wać pra­wi­dło­wo na symo­bo­le, dla któ­rych nie ma mapo­wa­nia, na zło­żo­ne sekwen­cje, czy całe konteksty). ”

      Sugeruję doczy­tać czym jest chiń­ski pokój Searla: to skoń­czo­ny zbiór reguł syn­tak­tycz­nych plus słow­nik. Modele AI/LLM to tyl­ko mechanizmy. 

      Niezależnie jed­nak od tego, AI to auto­mat, i to zało­że­nie wystar­czy dla dys­ku­sji kwe­stii praw autor­skich to pro­duk­tów tego automatu.

  3. Jan

    Chiński pokój jest mi dosko­na­le zna­ny, pro­blem pole­ga na tym, że to uję­cie jest nie­ade­kwat­ne by wyja­śnić efek­ty widocz­ne w LLM. Polecam krót­ki fil­mik Sabine Hossenfelder, któ­ra dobrze to tłumaczy.
    https://​www​.youtu​be​.com/​w​a​t​c​h​?​v​=​c​P​5​z​G​h​2​f​u​i​0​&​t​=​3​2​9​s​&​a​b​_​c​h​a​n​n​e​l​=​S​a​b​i​n​e​H​o​s​s​e​n​f​e​l​der

    Z całym sza­cun­kiem dla prof. Andrzeja Kiesielewicza przed­sta­wio­na przez nie­go ana­li­za reali­zo­wa­na jest na nie­wła­ści­wym pozio­mie orga­ni­za­cji sys­te­mu (kie­dyś upraw­nio­ne było mówie­nie o auto­ma­tach, maszy­nie turin­ga, itp., ale kie­dy zaczę­ły poja­wiać się cechy emer­gent­ne to tego typu wyja­śnie­nie prze­sta­ło być ade­kwan­te – opi­su­je nam fizy­kę na mikro pozio­mie, ale nie­wie­le mówi nam o pozio­mie makro). To tak jak­by stwier­dzić, że neru­ony w ludz­kim mózgu nie mogą wyge­ne­ro­wać świa­do­mych myśli, bo prze­cież żaden poje­dyn­czy neu­ron nie kodu­je zło­żo­ne­go prze­ko­na­nia (Dimensionality mat­ters jak stwier­dził pewien fizyk). 

    Co do ogól­nej tezy arty­ku­łu, że to po stro­nie auto­ra danej tre­ści ist­nie­je obo­wią­zek udo­wod­nie­nia autor­stwa, to w peł­ni się zga­dzam, nie zmie­nia to fak­tu, że twór­cy mają poczu­cie nie­spra­wie­dli­wo­ści, bo ich tre­ści są nie­jaw­nie wyko­rzy­sty­wa­ne do tre­nin­gu mode­li, a nikt z nimi ewen­tu­al­ny­mi zyska­mi się nie dzie­li. Niestety efek­ty dzia­ła­nia mode­li są na tyle odle­głe od tre­ści wej­ścio­wych, że szan­sa na udo­wod­nie­nie pla­gia­tu jest minimalna. 

    Pozdrawiam.

    1. Jarosław Żeliński

      Niestety efek­ty dzia­ła­nia mode­li są na tyle odle­głe od tre­ści wej­ścio­wych, że szan­sa na udo­wod­nie­nie pla­gia­tu jest minimalna. ”

      Bo jak napi­sa­łem w arty­ku­le, tu nie cho­dzi o pla­giat w kon­tek­ście pra­wa autor­skie­go bo go nie ma. To co teraz potra­fi AI od lat robią stu­den­ci: prze­re­da­go­wu­ją cudze tre­ści. Postęp pole­ga tu wyłącz­nie na zauto­ma­ty­zo­wa­niu tego procesu.

  4. Jan

    Chyba pozo­sta­je pocze­kać na dal­szy roz­wój AI, by prze­ko­nać się, czy sie­ci to pro­ste lookup table z regu­ła­mi, czy coś więcej ;-).

    Hmm, ana­lo­gia do stu­den­tów jest tro­chę dwu­znacz­na. Kiedy stu­den­ci prze­kształ­ca­ją zna­le­zio­ne tre­ści w mecha­nicz­ny spo­sób, to na ogół nie ma pro­ble­my, by je ziden­ty­fi­ko­wać, w szcze­gól­no­ści, gdy ktoś robi to na pozio­mie zmie­ny try­bu, zmia­ny kolej­no­ści zdań, oso­by itp. Kiedy jed­nak doko­nu­je głę­bo­kich prze­kształ­ceń wyni­ka­ją­cych z uwew­nętrz­nie­nia” tre­ści (two­rzy model pro­ble­mu jak­by powie­dzia­ła Sabine), wów­czas zaczy­na­my mówić o inspi­ra­cji, ana­li­zie i syn­te­zie, itp. To co robi chat, to coś co przy­po­mi­na bar­dziej inspie­ra­cję niż mecha­nicz­ne zabie­gi na tre­ści, ale przy­pusz­czam, że do tego Pana nie przekonam ;-).

    1. Jarosław Żeliński

      Zapewniam, że stu­den­ci mają duże doświad­cze­nie i umie­jęt­no­ści w prze­re­da­go­wy­wa­niu cudzych tre­ści :). Używają też ChatGPT to pisa­nia prac dyplo­mo­wych 😉 z czym sys­tem anty­pla­gia­to­wy sobie nie radzi, bo to nie są pla­gia­ty (pla­gia­tem jest kopia treści). 

      Chyba pozo­sta­je pocze­kać na dal­szy roz­wój AI, by prze­ko­nać się, czy sie­ci to pro­ste lookup table z regu­ła­mi, czy coś więcej ;-).”
      AI to nie lookup table” i nigdzie tak nie napi­sa­łem. Kluczem jest mecha­nizm prze­cho­dze­nia przez te tabele. 

      Poczekajmy 🙂

Dodaj komentarz

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.