Lawinowo pojawiają się pomysły prawnego regulowania AI, a nawet upodmiotowienia AI (patrz: Sztuczna inteligencja jest sztuczna, co jest już moim zdaniem kuriozalne).

Ale po kolei.

Prawo autorskie

W ustawie z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych czytamy:


Przedmiot prawa autorskiego

Art. 1.

1. Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór).

2. W szczególności przedmiotem prawa autorskiego są utwory:

1) wyrażone słowem, symbolami matematycznymi, znakami graficznymi (literackie, publicystyczne, naukowe, kartograficzne oraz programy komputerowe);

2) plastyczne;

3) fotograficzne;

4) lutnicze;

5) wzornictwa przemysłowego;

6) architektoniczne, architektoniczno-urbanistyczne i urbanistyczne;

7) muzyczne i słowno-muzyczne;

8) sceniczne, sceniczno-muzyczne, choreograficzne i pantomimiczne;

9) audiowizualne (w tym filmowe).

2. Ochroną objęty może być wyłącznie sposób wyrażenia; nie są objęte ochroną odkrycia, idee, procedury, metody i zasady działania oraz koncepcje matematyczne.

3. Utwór jest przedmiotem prawa autorskiego od chwili ustalenia, chociażby miał postać nieukończoną.

4. Ochrona przysługuje twórcy niezależnie od spełnienia jakichkolwiek formalności.


Kluczem jest ust.1.: utworem jest “każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia”. Cechami definiującymi są więc: indywidualność i utrwalenie, oraz wyłączone są z tej definicji “odkrycia, idee, procedury, metody i zasady działania oraz koncepcje matematyczne”.

Pierwszy problem jaki widzę to pewna niespójność wymagająca wyjaśnienia: w słowniku j.p. czytamy

procedura: 1. «określone reguły postępowania w jakiejś sprawie, zwykle o charakterze urzędowym lub prawnym», 2. «w językach programowania: wydzielony fragment algorytmu»

Biorąc pod uwagę celowość działania Ustawodawcy zakładam, że Ustawodawca wyłączając z definicji utworu procedury, miał na myśli def.1. zas pisząc o programach komputerowych miał na myśli def.2. Ale tu mamy kolejny zgrzyt: bo wyłączono z definicji także “metody i zasady działania oraz koncepcje matematyczne” a algorytm to nic innego jak metoda, matematyczna koncepcja. Ale temat kodu źródłowego jako utworu już poruszałem wcześniej, między innymi w duskusji z Zbigniew Okoń.

Słusznie zwraca się uwagę na to, że o utworze można mówić gdy jego twórca miał swobodę działania, czyli gdy treść jest indywidualnym (unikalnym) i świadomym zbiorem dokonanych wyborów. Z intencji ustawodawcy i treści ustawy można – moim zdaniem – wywodzić, że działalność twórcza to świadome działanie człowieka.

Krytycy tej definicji podnoszą, że ustalenie granicy “unikalnności” jest trudne a nawet niemożliwe, bo między “pewnym unikalnym” a “nieunikalnym” jest duża szara strefa. To jednak jest słaby argument, gdyż granicę można postawić poza “szarym” obszarem:

Wyznaczenie granicy “bycia utworem” jest więc łatwe: jeżeli utworem jest to co “na pewno jest unikalne” (np. kolor biały) to na powyższym schemacie był by to pukt “granica białego” a nie “zła granica między czarnym i białym” (w identyczny sposób wskazujemy np. moment powstania nowego gatunku w teorii ewolucji).

Sztuczna Inteligencja czyli kto i co tworzy

Kolejna kwestia to “człowieczeństwo” twórcy. Słynny eksperyment myślowy Searle’a: chiński pokój nigdy nie będzie rozumiał tego „co robi”, pokazał że maszyna może tworzyć treści, co do których człowiek nie będzie w stanie stwierdzić czy są one dziełem człowieka czy maszyny [Marcin Jażyński. Qualia w chińskim pokoju. Obliczanie i świadomość fenomenalna. Przegląd Filozoficzny – Nowa Seria 2011, No. 78, 13–25.]. I taką mamy teraz sytuację z systemami zwanymi AI (ang. Artificial Inteligence, Sztuczna Inteligencja).

System AI jako automat przetwarzający treść

Czym jest owa AI? Popatrzmy na stary i nadal zabawny “generator przemówień”:

Podział na kolumny i wiersze oraz treści wpisane w poszczególne pola, to nic innego jak “wyuczona” sieć neuronowa (te obecne po prostu mają miliony takich wierszy i kolum).

Opisany w nagłówku wklejonej grafiki algorytm, to mechanizm działania tej sieci. Jak pisze autor, algorytm ten pozwala na wytworzenie 40 godz. przemówienia (czyli wiele stron tekstu). Jeżeli w algorytmie tym, w miejsce “należy połączyć z dowolnym zdaniem…” wstawimy prosty mechanizm losujący (np. bez powtórzeń) otrzymamy generator tekstów, których autorstwo: człowiek czy maszyna, będzie dla człowieka niemożliwe do stwierdzenia. Generator losowy może być dodatkowo parametryzowany (podawane prompty to dziedzinowe modyfikowanie mechanizmu losującego). Dodam tu, że AI to żaden nowy wynalazek, to jedynie automatyzacja opisanego wyżej procesu.

Ciekawy opis podał autor tego interesującego artykułu:

Pod maską
Rdzeniem ChatGPT jest głęboka sieć neuronowa: złożona funkcja matematyczna – lub reguła – która mapuje dane wejściowe na wyjściowe. Wejścia i wyjścia muszą być liczbami. Ponieważ ChatGPT-4 działa ze słowami, muszą one zostać “przetłumaczone” na liczby, aby sieć neuronowa mogła z nimi pracować.

Tłumaczenie jest wykonywane przez program komputerowy zwany tokenizerem, który utrzymuje ogromną listę słów i sekwencji liter, zwanych “tokenami”. Tokeny te są identyfikowane za pomocą liczb. Słowo takie jak “przyjaciel” ma identyfikator tokena 6756, więc słowo takie jak “przyjaźń” jest dzielone na tokeny “przyjaciel” i “statek”. Są one reprezentowane jako identyfikatory 6756 i 6729.

Gdy użytkownik wprowadza pytanie, słowa są tłumaczone na liczby, zanim jeszcze ChatGPT-4 rozpocznie przetwarzanie żądania. Głęboka sieć neuronowa nie ma dostępu do słów jako tekstu, więc nie może tak naprawdę wnioskować o literach.

źr.: https://theconversation.com/chatgpt-struggles-with-wordle-puzzles-which-says-a-lot-about-how-it-works-201906

Wyobraźmy więc sobie, że wygenerowano tak 10 stron tekstu. Czy to będzie utwór? Dla osoby nieznającej pochodzenia tego tekstu, tak. Ale to nie człowiek “napisał”! A skąd to wiadomo? Pojawia się pytanie: czy niepodpisany tekst jest, w dzisiejszych czasach istnienia AI, utworem? Czy podpisany jakimś imieniem i nazwiskiem tekst będzie utworem? Nie wiemy, bo owo imię i nazwisko to także część tego tekstu, więc mogła powstać, tak jak jego reszta, maszynowo. Identyczna sytuacja dotyczy obrazu czy dźwięku.

Kolejne zagadnienie. Załóżmy że powyższa maszyna i jej baza danych (tabele) powstała na bazie analizy kilkuset tekstów prawdziwych przemówień. Ta tabela (nasza maszyna) to efekt generalizacji: statystyczne wyszukiwanie powtórzeń uznanych za “sensowne” i budowanie, na ich podstawie, reguł wyboru losowanej treści. Uczenie maszyny – sztucznej sieci neuronowej – wymaga wskazywania “poprawnych kombinacji”, to nic innego jak podawanie uznanych za poprawne treści na wejściu, i ocena tych wygenerowanych. Pomijając aspekt ludzkiej pracy w to włożonej (ktoś to musi robić), pytanie brzmi: czy wygenerowane tak treści to plagiaty? Uważam, że nie, w przeciwnym wypadku każda samodzielna wypowiedź oczytanego człowieka byłaby plagiatem.

Czy trenowanie maszyny na cudzych utworach (treści) wymaga zgody ich autorów? Jeżeli te treści pozyskano legalnie, to nie, bo dlaczego? Nie muszę prosić o zgodę autorów podręczników i naukowych publikacji by je czytać i korzystać z tak zdobytych umiejętności. Tu ważna uwaga: uczenie się to nie tylko “wkuwanie na pamięć” by potem cytować. To przede wszystkim uzyskiwanie umiejętności: każdy rzemieślnik korzystal kiedyś z podręczników, ale nie musi autorów tych podręcznikiów prosić o zgodę z na wykonywanie swojego rzemiosła.

Dalej: autor podręcznika (dowolnej książki) nie ma podstaw ani prawa pytać nabywców w jakim celu jego książki są nabywane (nie mówimy o ich powielaniu): można je czytać (a można też palić nimi w komninku). Uprzedzając zarzuty, obawiam się, że uznanie uczenia się, lub uczenia maszyny, za kolejne pole eksploatacji utworu, nie ma sensu ani uzasadnienia (raczej było by życzeniowym chciejstwem).

I nie zapominajmy, że definicja pojęcia sztuczna inteligencja bazuje na słowie “imituje“.

Podsumowanie

Jakie wnioski się nasuwają?

  1. Maszyna nie tworzy treści a generuje ją.
  2. Stwierdzenie tego czy dana treść jest utworem wymaga udowodnienia ludzkiego autorstwa (udziału człowieka w procesie powstawania treści).
  3. Produkt użycia takiej maszyny, oraz inwencja człowieka w jej parametryzacji (prompty), może zostać uznany za utwór, którego wyłącznym autorem jest człowiek parametryzujący działanie maszyny (tak jak np. fotograf używający półautomatycznych, czy nawet automatycznych, ustawień wyrafinowanego aparatu fotograficznego, nadal twórcze pozostaje kadrowanie, oświetlenie itp.).
  4. Nie ma podstaw by treści generowane przez AI z udziałem człowieka lub bez, były uznane za plagiat (o ile to co powstanie nie spełnia definicji plagiatu jako treść).

Tu pojawia się problem stwierdzenia ludzkiego autorstwa. Czy trudny? Moim zdaniem nie, bo problem ten jest już rozwiążany: to autorskie prawa osobiste. Każdy autor jest w stanie udowodnić, że jest autorem czegoś. Oczywiście wymaga to pewnej minimalnej woli autora: posiadanie archiwum swoich utworów, umieszczanie w treści utworu swoich danych (podpisanie utworu) oraz znacznik czasu jego zachowania w tym archiwum (lub powstania). To archiwum powinno być zaufane (np. profil zaufany lokalny), wtedy taki egzemplarz spełnia zarazem rolę zaawansowanego podpisu elektronicznego.

Osobiście uważam, że skoro prawo autorskie to prawo cywilne, to na autorze spoczywa obowiązek wykazania (udowodnienia) swojego autorstwa danego utworu i tylko autor (lub podmiot go reprezentujący) może mieć jakikolwiek roszczenia a tego tytułu.

Tak więc czy AI stanowi jakieś zagrożenie dla twórców? Moim zdaniem nie. Czy wymaga specjalnego prawa? Też uważam, że nie. Wymaga jedynie zrozumienia tego czym jest AI.

Ale… Kto napisał ten tekst?

Jarosław Żeliński

Jarosław Żeliński: Od roku 1991 roku, nieprzerwanie, realizuje projekty z zakresu analiz i projektowania systemów, dla urzędów, firm i organizacji. Od 1998 roku prowadzi samodzielne studia i prace badawcze z obszaru analizy systemowej i modelowania (modele jako przedmiot badań: ORCID). Od 2005 roku, jako wykładowca akademicki wizytujący (nieetatowy), prowadzi wykłady i laboratoria (ontologie i modelowanie systemów informacyjnych, aktualnie w Wyższej Szkole Informatyki Stosowanej i Zarządzania pod auspicjami Polskiej Akademii Nauk w Warszawie.) Oświadczenia: moje badania i publikacje nie mają finansowania z zewnątrz, jako ich autor deklaruję brak konfliktu interesów. Prawa autorskie: Zgodnie z art. 25 ust. 1 pkt. 1) lit. b) ustawy o prawie autorskim i prawach pokrewnych zastrzegam, że dalsze rozpowszechnianie artykułów publikowanych w niniejszym serwisie jest zabronione bez indywidualnej zgody autora (patrz Polityki Strony). Konsultacje: wszelka pomoc i wyjaśnienia dotyczące treści artykułów autora bloga udzielana jest wyłącznie w ramach płatnych konsultacji.

Ten post ma 14 komentarzy

  1. Jan

    Sugeruję wycofać ten wpis, bo porównanie LLM do tabelki z generacją przemówień jest, delikatnie rzecz ujmując nietrafne.

    Jeśli chce się Pan czegoś dowiedzieć na temat LLM, to polecam artykuł zespołu Microsoft Research.
    https://arxiv.org/pdf/2303.12712.pdf

    1. Jarosław Żeliński

      Dlaczego nietrafne? Ten artykuł to porównanie efektów, nie widzę tam detalicznego opisu modelu mechanizmu działania AI/LLM. Choć na str. 94 opis predykcji kolejnych słów odpowiada temu co opisałem (fakt, że zrobiłem to w dużym uogólnieniu). Publikacja, która Pan przywołuje to badanie czarnej skrzynki a nie opis mechanizmu.

  2. Jan

    Możliwy jest opis procedury uczenia, ale nie jest możliwy opis mechanizmu generalizacji, bo ten jest wielką tajemnicą i nikt nie wie skąd biorą się takie cechy modelu jak wnioskowanie, ucznie kontekstowe, rymowanie, tłumaczenie żartów, rozwiązywanie zagadek logicznych, itp. – część badaczy przypisuje im status cech emergentnych, przynajmniej w tym sensie, że pojawiają się one nagle i nikt nie jest w stanie przewidzieć kiedy się pojawią – stąd użyte w artykule określenie phisics of AI. Słynny postulat Feynmana, że rozumiemy coś, gdy potrafimy to zbudować, w tym przypadku się załamuje. Obecnie wielu badaczy poszukuje dobrej teorii, która wyjaśniałaby mechanizm, który stoi za ujawnianiem się tego typu cech, ale jesteśmy dopiero na początku drogi … Porównanie tego z prostym trickiem polegającym na permutacji odpowiednio ogólnych fraz wydaje mi się nieporozumieniem. Nie chcę mi się wierzyć, by Microsoft inwestował miliardy dolarów w firmę, która zbudowała bardziej złożoną wersję tabelki do permutacji kilku ogólnych formułek ;-).

    1. Jarosław Żeliński

      “Możliwy jest opis procedury uczenia, ale nie jest możliwy opis mechanizmu generalizacji, bo ten jest wielką tajemnicą i nikt nie wie skąd biorą się takie cechy modelu jak wnioskowanie, ”

      Nie ma to żadnego znaczenia z perspektywy tego co napisałem. “Słynny postulat Feynmana, że rozumiemy coś, gdy potrafimy to zbudować, w tym przypadku się załamuje.” obawiam się, że nie, w rozumieniu świadomego budowania czegokolwiek. Jak na razie Mamy prosty i znany podział na semantykę i syntaktykę. Przypisywanie jakiejkolwiek magii czy boskości algorytmom AI niema uzasadnienia.

      “Porównanie tego z prostym trickiem polegającym na permutacji odpowiednio ogólnych fraz wydaje mi się nieporozumieniem. ” To nie prosta permutacja z złożony system reguł syntaktycznych, ale jednak reguł. Liczba tych reguł nie ma znaczenia, system ich budowania i mechanizm “uczenia się systemu” jest prosty o opisany. Pojedyncza komórka sieci neuronowej to żadne cudo, to, że sa ich miliony to jedynie “złożoność”.

      “Nie chcę mi się wierzyć, by Microsoft inwestował miliardy dolarów w firmę, która zbudowała bardziej złożoną wersję tabelki do permutacji kilku ogólnych formułek ;-).”

      Cóż :), wiary bym w to nie mieszał. To biznes.

      P.S.
      Mechanizm “uczenia się” opisałem tu: https://it-consulting.pl/2015/08/06/ogolna-teoria-systemow-a-analiza/

  3. Jan

    “Nie ma to żadnego znaczenia z perspektywy tego co napisałem”.

    Zdanie, które skłoniło mnie do napisania komentarza to: “Podział na kolumny i wiersze oraz treści wpisane w poszczególne pola, to nic innego jak „wyuczona” sieć neuronowa (te obecne po prostu mają miliony takich wierszy i kolum)”, a to jest oczywista nieprawda. Gdyby tak było, to sieć byłaby zwykłą “lookup table”, zwykłą bazą danych, a nie o to przecież chodzi w trenonowaniu sieci neuronowych (w takim przypadku overfitting nie byłby problemem, a przecież jest i każda sieć, która wyłączenie zapamiętuje dane treningowe idzie do kosza ;-)). Analiza Searle nie uwzględnia tej różnicy. To, co jest kluczowe w uczeniu maszynowym, to generalizacja na nowe przypadki (na razie wewnątrz dystrybucji danych, ale właśnie zaczynają się prace, by uczenie objęło również dane spoza dystrybucji – patrz ostatnie pomysły Bengio). Gdyby użyć analogii do eksperymentu Searle’a to należałoby powiedzieć, że w pewnym momenciee pokój zaczyna poprawnie reagować na symbole, dla których nie ma mapowania. Ponadto, zaczyna prawidłowo reagować na złożone sekwencje symboli, dla których nie tylko nie ma mapowania, ale dla których odpowiedź wymaga znajomości złożonych relacji pomiędzy elementami bazowego słownika, czy wręcz wiedzy o strukturze “gier językowych” jakby powiedział Wittgenstein.

    “obawiam się, że nie, w rozumieniu świadomego budowania czegokolwiek” – to pewnie zależy, co rozumiemy przez świadome budowanie czegokolwiek. Zdaje się, że podobna sytuacja jak z AI – potrafimy zbudować, ale nie do końca wiemy, dlaczego coś działa – zdarza się co jakiś czas. Podobno najpierw powstał silnik elektryczny, a dopiero po jakimś czasie Maxwell zdefiniował równania wyjaśniające, prawa elektro-magnetyzmu. Podobnie pewnie jest obecnie z modelowaniem białek – AlphaFold modeluje trójwymiarowe formy białek na podstawie sekwencji DNA, ale dlaczego modele oparte na uczeniu głębokim robią to poprawnie, a rozwiązania herystyczne opracowane przez biochemików nie, pozostaje “tajemnicą”.

    “Przypisywanie jakiejkolwiek magii czy boskości algorytmom AI niema uzasadnienia. […] Pojedyncza komórka sieci neuronowej to żadne cudo, to, że sa ich miliony to jedynie „złożoność”. Magia polega na tym, że stowrzyliśmy procedurę, która wytwarza strukturę, której funkcjonalnych wałsności nie potrafimy przewidzieć. Jeśli uważa Pan, że nie ma w tym niczego szczególnego, to proszę wyjaśnić, dlaczego modele z mniejszą liczbą parametrów nie potrafią rozwiązać pewnych typów zadań, a inne, na podobnym zbiorze danych są w stanie je wykonać. Sam fakt, że w ostatnich latach powstały tysiące różnych architektur sieci powinno skłonić do wątpliwości, że to co wiemy na temat sieci jest niezwykle podstawowe i tylko eksperymenty pokazują, czy coś działa, czy nie.

    “Jak na razie Mamy prosty i znany podział na semantykę i syntaktykę” – LLM’y pokazują, że ten podział staje pod znakiem zapytania (patrz powyżej przykład pokoju Searle’a, który zaczyna reagować prawidłowo na symobole, dla których nie ma mapowania, na złożone sekwencje, czy całe konteksty). W z wiązku z powyższym odtrzymuję swoją uwagę, że tabelka z tekstami, to nie jest dobry model / analogon sieci neuronowej – pewnie bliżej jej do słynnego programu Eliza, który zapisał się w historii sztucznej inteligencji, ale jako rozwiązanie oparte na wysokopoziomowych regułach syntaktycznych po prostu się nie wyskalował, w przeciwieństwie do podejścia opartego na konsjonizmie – warto zadać sobie pytanie dlaczego tak się stało.

    1. Jarosław Żeliński

      ” „wyuczona” sieć neuronowa (te obecne po prostu mają miliony takich wierszy i kolum)”, a to jest oczywista nieprawda. Gdyby tak było, to sieć byłaby zwykłą “lookup table”, zwykłą bazą danych, ”

      Sieci neuronowe nie są “zwykłą bazą danych”.

      “LLM’y pokazują, że ten podział staje pod znakiem zapytania (patrz powyżej przykład pokoju Searle’a, który zaczyna reagować prawidłowo na symobole, dla których nie ma mapowania, na złożone sekwencje, czy całe konteksty). ”

      Sugeruję doczytać czym jest chiński pokój Searla: to skończony zbiór reguł syntaktycznych plus słownik. Modele AI/LLM to tylko mechanizmy.

      Niezależnie jednak od tego, AI to automat, i to założenie wystarczy dla dyskusji kwestii praw autorskich to produktów tego automatu.

  4. Jan

    Chiński pokój jest mi doskonale znany, problem polega na tym, że to ujęcie jest nieadekwatne by wyjaśnić efekty widoczne w LLM. Polecam krótki filmik Sabine Hossenfelder, która dobrze to tłumaczy.
    https://www.youtube.com/watch?v=cP5zGh2fui0&t=329s&ab_channel=SabineHossenfelder

    Z całym szacunkiem dla prof. Andrzeja Kiesielewicza przedstawiona przez niego analiza realizowana jest na niewłaściwym poziomie organizacji systemu (kiedyś uprawnione było mówienie o automatach, maszynie turinga, itp., ale kiedy zaczęły pojawiać się cechy emergentne to tego typu wyjaśnienie przestało być adekwante – opisuje nam fizykę na mikro poziomie, ale niewiele mówi nam o poziomie makro). To tak jakby stwierdzić, że neruony w ludzkim mózgu nie mogą wygenerować świadomych myśli, bo przecież żaden pojedynczy neuron nie koduje złożonego przekonania (Dimensionality matters jak stwierdził pewien fizyk).

    Co do ogólnej tezy artykułu, że to po stronie autora danej treści istnieje obowiązek udowodnienia autorstwa, to w pełni się zgadzam, nie zmienia to faktu, że twórcy mają poczucie niesprawiedliwości, bo ich treści są niejawnie wykorzystywane do treningu modeli, a nikt z nimi ewentualnymi zyskami się nie dzieli. Niestety efekty działania modeli są na tyle odległe od treści wejściowych, że szansa na udowodnienie plagiatu jest minimalna.

    Pozdrawiam.

    1. Jarosław Żeliński

      “Niestety efekty działania modeli są na tyle odległe od treści wejściowych, że szansa na udowodnienie plagiatu jest minimalna. ”

      Bo jak napisałem w artykule, tu nie chodzi o plagiat w kontekście prawa autorskiego bo go nie ma. To co teraz potrafi AI od lat robią studenci: przeredagowują cudze treści. Postęp polega tu wyłącznie na zautomatyzowaniu tego procesu.

  5. Jan

    Chyba pozostaje poczekać na dalszy rozwój AI, by przekonać się, czy sieci to proste lookup table z regułami, czy coś więcej ;-).

    Hmm, analogia do studentów jest trochę dwuznaczna. Kiedy studenci przekształcają znalezione treści w mechaniczny sposób, to na ogół nie ma problemy, by je zidentyfikować, w szczególności, gdy ktoś robi to na poziomie zmieny trybu, zmiany kolejności zdań, osoby itp. Kiedy jednak dokonuje głębokich przekształceń wynikających z “uwewnętrznienia” treści (tworzy model problemu jakby powiedziała Sabine), wówczas zaczynamy mówić o inspiracji, analizie i syntezie, itp. To co robi chat, to coś co przypomina bardziej inspierację niż mechaniczne zabiegi na treści, ale przypuszczam, że do tego Pana nie przekonam ;-).

    1. Jarosław Żeliński

      Zapewniam, że studenci mają duże doświadczenie i umiejętności w przeredagowywaniu cudzych treści :). Używają też ChatGPT to pisania prac dyplomowych 😉 z czym system antyplagiatowy sobie nie radzi, bo to nie są plagiaty (plagiatem jest kopia treści).

      “Chyba pozostaje poczekać na dalszy rozwój AI, by przekonać się, czy sieci to proste lookup table z regułami, czy coś więcej ;-).”
      AI to nie “lookup table” i nigdzie tak nie napisałem. Kluczem jest mechanizm przechodzenia przez te tabele.

      Poczekajmy 🙂

Możliwość dodawania komentarzy nie jest dostępna.