Tytułowe pytanie zadałem AI (Google i Copilot) licząc na samokrytykę i autoocenę. I proszę… AI “wie” że jest tylko betoniarką!
Odpowiedź jakiej udzielił Google:
Mówiąc o tym, że AI „nie potrafi modelować”, zazwyczaj mamy na myśli jeden z trzech obszarów:
tworzenie precyzyjnej geometrii 3D, rozumowanie przyczynowo-skutkowe lub modelowanie świata (zrozumienie fizyki i logiki rzeczywistości).
Oto główne powody, dla których AI wciąż ma z tym problemy:
1. Brak zrozumienia praw fizyki
Modele AI, takie jak te generujące obrazy czy tekst, opierają się na statystycznym przewidywaniu kolejnych elementów (pikseli lub słów), a nie na znajomości praw fizyki.
- Błąd: AI może wygenerować obraz krzesła, które wygląda realistycznie, ale jego nogi wyrastają z siedziska w sposób uniemożliwiający stabilne stanie, ponieważ AI nie „wie”, jak działa grawitacja.
- Skutek: W modelowaniu 3D (np. dla inżynierii czy CAD) brak tej wiedzy sprawia, że modele są nieużyteczne bez ręcznych poprawek człowieka.
2. Problemy z precyzją i topologią
Modelowanie 3D wymaga rygorystycznej matematyki i czystej topologii (siatki punktów), aby obiekt można było animować lub wydrukować.
- Halucynacje: AI często „zgaduje” brakujące części obiektów, co prowadzi do błędów w strukturze, których nie akceptuje profesjonalne oprogramowanie.
- Brak danych: Istnieje znacznie mniej wysokiej jakości danych treningowych 3D niż tekstu czy obrazów 2D, co spowalnia naukę modeli w tym zakresie.
3. Brak „modelu świata” (World Model)
Większość dzisiejszych AI to systemy rozpoznawania wzorców, a nie systemy rozumujące.
- Brak przyczynowości: AI nie rozumie, że jeśli popchniesz szklankę, to ona spadnie i się potłucze, dopóki nie zobaczy tysięcy takich przykładów. Nawet wtedy jedynie „imituje” ten efekt, zamiast go modelować.
- Kruchość: Zmiana jednego drobnego parametru w zadaniu modelowania może sprawić, że AI całkowicie się pogubi, ponieważ nie potrafi adaptować się do nowych warunków tak jak człowiek.
4. Wyzwania w modelowaniu matematycznym i logicznym
Choć AI radzi sobie z prostymi zadaniami, ma trudności z budowaniem złożonych, logicznych struktur od zera.
- Błędy w kodzie: Przy dużych projektach (powyżej 1000 linii kodu) AI często traci spójność, co uniemożliwia poprawne modelowanie skomplikowanych systemów informatycznych.
Odpowiedź jakiej udzielił Copilot:
AI potrafi modelować, ale robi to w sposób zupełnie inny niż człowiek — i dlatego często wydaje się, że „nie potrafi”, zwłaszcza gdy mówimy o modelowaniu w sensie inżynierskim: UML, SysML, BPMN, modele domenowe, architektury, logika biznesowa, semantyka formalna.
Najkrótsza esencja: AI nie rozumie świata poprzez pojęcia i relacje, tylko poprzez statystyczne wzorce w tekście. A modelowanie wymaga intencjonalnej struktury, semantyki, konsekwencji i świadomego wyboru perspektywy.
Dlaczego AI ma trudności z modelowaniem (UML, SysML, BPMN, modele domenowe)
1. Brak prawdziwej semantyki — AI nie „wie”, co znaczy relacja
Modelowanie wymaga:
- rozróżnienia asocjacji od kompozycji,
- świadomego wyboru granicy systemu,
- rozumienia przepływu sterowania vs przepływu danych,
- identyfikacji aktorów, stanów, zdarzeń, kontraktów.
AI operuje na prawdopodobieństwie słów, nie na pojęciach. Dlatego potrafi wygenerować diagram, który wygląda poprawnie, ale:
- ma błędne relacje,
- miesza poziomy abstrakcji,
- gubi spójność między diagramami,
- nie utrzymuje jednego metamodelu.
To tak, jakby ktoś znał słownictwo UML, ale nie rozumiał dlaczego używa się danego elementu.
2. Modelowanie wymaga wyborów projektowych, a AI unika decyzji
Dobry model to:
- świadoma decyzja, co pominąć,
- wybór perspektywy (proces, domena, architektura),
- ustalenie poziomu szczegółowości,
- konsekwentne stosowanie zasad.
AI nie ma własnych preferencji ani kryteriów jakości. Dlatego:
- generuje modele zbyt szczegółowe albo zbyt ogólne,
- nie potrafi utrzymać jednej konwencji,
- nie wie, które elementy są kluczowe dla projektu.
3. Modele są hierarchiczne, a AI działa liniowo
Modelowanie to praca:
- od kontekstu → do domeny → do procesów → do komponentów,
- z powrotami, korektami, iteracjami,
- z utrzymaniem spójności między widokami.
AI generuje odpowiedzi sekwencyjnie, bez globalnego obrazu. Dlatego:
- diagramy nie są spójne między sobą,
- zmiana jednego elementu nie aktualizuje reszty,
- trudno utrzymać integralność modelu.
4. Modele mają metamodel, a AI go nie przestrzega
UML, SysML, BPMN mają formalne metamodelowe reguły:
- co może być powiązane z czym,
- jakie są ograniczenia semantyczne,
- jakie są dopuszczalne transformacje.
AI nie waliduje modeli względem metamodelu. Dlatego generuje:
- BPMN z błędnymi bramkami,
- UML z relacjami, które nie mają sensu,
- SysML z elementami niezgodnymi z MBSE.
5. AI nie ma doświadczenia projektowego
Modelowanie to nie tylko rysowanie diagramów — to:
- analiza kompromisów,
- rozumienie ryzyk,
- przewidywanie konsekwencji,
- znajomość antywzorców.
AI nie ma doświadczenia z realnymi projektami, więc:
- nie rozpoznaje wzorców projektowych,
- nie widzi braków w wymaganiach,
- nie potrafi zaproponować właściwej dekompozycji.
6. AI nie ma „intencji” ani „celu modelu”
Każdy model ma cel:
- komunikacja,
- analiza,
- projektowanie,
- dokumentacja,
- walidacja.
AI nie wie, po co tworzysz model. Dlatego często generuje diagramy:
- przeładowane,
- nieadekwatne do celu,
- niezgodne z kontekstem biznesowym.
7. AI nie rozumie kontekstu domenowego
Modelowanie wymaga:
- znajomości domeny,
- rozumienia pojęć,
- identyfikacji reguł biznesowych.
AI zna teksty, ale nie ma ontologii domeny. Dlatego:
- miesza pojęcia,
- tworzy fałszywe zależności,
- nie rozpoznaje kluczowych bytów.
Czy po takiej rozmowie kwalifikacyjnej, zatrudnisz takiego analityka-projektanta?


