Tytułowe pytanie zadałem AI (Google i Copilot) licząc na samokrytykę i autoocenę. I proszę… AI “wie” że jest tylko betoniarką!


Odpowiedź jakiej udzielił Google:

Mówiąc o tym, że AI „nie potrafi modelować”, zazwyczaj mamy na myśli jeden z trzech obszarów:

tworzenie precyzyjnej geometrii 3D, rozumowanie przyczynowo-skutkowe lub modelowanie świata (zrozumienie fizyki i logiki rzeczywistości).

Oto główne powody, dla których AI wciąż ma z tym problemy:

1. Brak zrozumienia praw fizyki

Modele AI, takie jak te generujące obrazy czy tekst, opierają się na statystycznym przewidywaniu kolejnych elementów (pikseli lub słów), a nie na znajomości praw fizyki.

  • Błąd: AI może wygenerować obraz krzesła, które wygląda realistycznie, ale jego nogi wyrastają z siedziska w sposób uniemożliwiający stabilne stanie, ponieważ AI nie „wie”, jak działa grawitacja.
  • Skutek: W modelowaniu 3D (np. dla inżynierii czy CAD) brak tej wiedzy sprawia, że modele są nieużyteczne bez ręcznych poprawek człowieka.

2. Problemy z precyzją i topologią

Modelowanie 3D wymaga rygorystycznej matematyki i czystej topologii (siatki punktów), aby obiekt można było animować lub wydrukować.

  • Halucynacje: AI często „zgaduje” brakujące części obiektów, co prowadzi do błędów w strukturze, których nie akceptuje profesjonalne oprogramowanie.
  • Brak danych: Istnieje znacznie mniej wysokiej jakości danych treningowych 3D niż tekstu czy obrazów 2D, co spowalnia naukę modeli w tym zakresie.

3. Brak „modelu świata” (World Model)

Większość dzisiejszych AI to systemy rozpoznawania wzorców, a nie systemy rozumujące.

  • Brak przyczynowości: AI nie rozumie, że jeśli popchniesz szklankę, to ona spadnie i się potłucze, dopóki nie zobaczy tysięcy takich przykładów. Nawet wtedy jedynie „imituje” ten efekt, zamiast go modelować.
  • Kruchość: Zmiana jednego drobnego parametru w zadaniu modelowania może sprawić, że AI całkowicie się pogubi, ponieważ nie potrafi adaptować się do nowych warunków tak jak człowiek.

4. Wyzwania w modelowaniu matematycznym i logicznym

Choć AI radzi sobie z prostymi zadaniami, ma trudności z budowaniem złożonych, logicznych struktur od zera.

  • Błędy w kodzie: Przy dużych projektach (powyżej 1000 linii kodu) AI często traci spójność, co uniemożliwia poprawne modelowanie skomplikowanych systemów informatycznych.

Odpowiedź jakiej udzielił Copilot:

AI potrafi modelować, ale robi to w sposób zupełnie inny niż człowiek — i dlatego często wydaje się, że „nie potrafi”, zwłaszcza gdy mówimy o modelowaniu w sensie inżynierskim: UML, SysML, BPMN, modele domenowe, architektury, logika biznesowa, semantyka formalna.

Najkrótsza esencja: AI nie rozumie świata poprzez pojęcia i relacje, tylko poprzez statystyczne wzorce w tekście. A modelowanie wymaga intencjonalnej struktury, semantyki, konsekwencji i świadomego wyboru perspektywy.

Dlaczego AI ma trudności z modelowaniem (UML, SysML, BPMN, modele domenowe)

1. Brak prawdziwej semantyki — AI nie „wie”, co znaczy relacja

Modelowanie wymaga:

  • rozróżnienia asocjacji od kompozycji,
  • świadomego wyboru granicy systemu,
  • rozumienia przepływu sterowania vs przepływu danych,
  • identyfikacji aktorów, stanów, zdarzeń, kontraktów.

AI operuje na prawdopodobieństwie słów, nie na pojęciach.  Dlatego potrafi wygenerować diagram, który wygląda poprawnie, ale:

  • ma błędne relacje,
  • miesza poziomy abstrakcji,
  • gubi spójność między diagramami,
  • nie utrzymuje jednego metamodelu.

To tak, jakby ktoś znał słownictwo UML, ale nie rozumiał dlaczego używa się danego elementu.

2. Modelowanie wymaga wyborów projektowych, a AI unika decyzji

Dobry model to:

  • świadoma decyzja, co pominąć,
  • wybór perspektywy (proces, domena, architektura),
  • ustalenie poziomu szczegółowości,
  • konsekwentne stosowanie zasad.

AI nie ma własnych preferencji ani kryteriów jakości.  Dlatego:

  • generuje modele zbyt szczegółowe albo zbyt ogólne,
  • nie potrafi utrzymać jednej konwencji,
  • nie wie, które elementy są kluczowe dla projektu.

3. Modele są hierarchiczne, a AI działa liniowo

Modelowanie to praca:

  • od kontekstu → do domeny → do procesów → do komponentów,
  • z powrotami, korektami, iteracjami,
  • z utrzymaniem spójności między widokami.

AI generuje odpowiedzi sekwencyjnie, bez globalnego obrazu.  Dlatego:

  • diagramy nie są spójne między sobą,
  • zmiana jednego elementu nie aktualizuje reszty,
  • trudno utrzymać integralność modelu.

4. Modele mają metamodel, a AI go nie przestrzega

UML, SysML, BPMN mają formalne metamodelowe reguły:

  • co może być powiązane z czym,
  • jakie są ograniczenia semantyczne,
  • jakie są dopuszczalne transformacje.

AI nie waliduje modeli względem metamodelu.  Dlatego generuje:

  • BPMN z błędnymi bramkami,
  • UML z relacjami, które nie mają sensu,
  • SysML z elementami niezgodnymi z MBSE.

5. AI nie ma doświadczenia projektowego

Modelowanie to nie tylko rysowanie diagramów — to:

  • analiza kompromisów,
  • rozumienie ryzyk,
  • przewidywanie konsekwencji,
  • znajomość antywzorców.

AI nie ma doświadczenia z realnymi projektami, więc:

  • nie rozpoznaje wzorców projektowych,
  • nie widzi braków w wymaganiach,
  • nie potrafi zaproponować właściwej dekompozycji.

6. AI nie ma „intencji” ani „celu modelu”

Każdy model ma cel:

  • komunikacja,
  • analiza,
  • projektowanie,
  • dokumentacja,
  • walidacja.

AI nie wie, po co tworzysz model.  Dlatego często generuje diagramy:

  • przeładowane,
  • nieadekwatne do celu,
  • niezgodne z kontekstem biznesowym.

7. AI nie rozumie kontekstu domenowego

Modelowanie wymaga:

  • znajomości domeny,
  • rozumienia pojęć,
  • identyfikacji reguł biznesowych.

AI zna teksty, ale nie ma ontologii domeny.  Dlatego:

  • miesza pojęcia,
  • tworzy fałszywe zależności,
  • nie rozpoznaje kluczowych bytów.

Czy po takiej rozmowie kwalifikacyjnej, zatrudnisz takiego analityka-projektanta?

Jarosław Żeliński Autor Bloga

Jarosław Żeliński: Po ukończeniu WAT w 1989 roku pracownik naukowy katedry Transmisji Danych i Utajniania. Od roku 1991 roku, po rozpoczęciu pracy w roli analityka i projektanta systemów przetwarzania informacji, nieprzerwanie realizuje kolejne projekty dla urzędów, firm i organizacji. Od 1998 roku prowadzi także samodzielne studia i prace badawcze z obszaru analizy systemowej i modelowania systemów (modele jako przedmiot badań: ORCID), publikując je nieprzerwanie także na tym blogu. Od 2005 roku, jako wykładowca akademicki wizytujący (nieetatowy), prowadzi wykłady i laboratoria (ontologie i modelowanie systemów informacyjnych, aktualnie w Wyższej Szkole Informatyki Stosowanej i Zarządzania pod auspicjami Polskiej Akademii Nauk w Warszawie.). Od 2020 roku na stałe mieszka w Szkocji (Zjednoczone Królestwo), nadal realizuje projekty dla firm i organizacji także w Polsce.

Dodaj komentarz

Ta strona używa Akismet do redukcji spamu. Dowiedz się, w jaki sposób przetwarzane są dane Twoich komentarzy.