Wysokowydajne obliczenia w trenowaniu agentów Reinforcement Learning dla złożonych systemów produkcyjnych
Identyfikator grantu: PT01341
Kierownik grantu: Paweł Chodnicki
Politechnika Gdańska
Wydział Chemiczny
Gdańsk
Data otwarcia: 2026-03-10
Planowana data zakończenia grantu: 2027-03-10
Streszczenie grantu
Celem projektu jest opracowanie i walidacja zaawansowanego systemu decyzyjnego opartego na metodach Reinforcement Learning (RL) do dynamicznego harmonogramowania zleceń produkcyjnych w rozproszonym środowisku cloud manufacturing. System ma umożliwiać optymalną alokację wieloelementowych zamówień do wielu fabryk i linii produkcyjnych przy uwzględnieniu ograniczeń czasowych, dostępności zasobów oraz zróżnicowanych priorytetów realizacji.
Współczesne systemy produkcyjne w ramach tzw. Przemysłu 4.0 ewoluują w kierunku architektury cloud manufacturing, w której:
a) zlecenia są dynamicznie przydzielane do rozproszonych jednostek produkcyjnych,
b) zasoby produkcyjne są współdzielone,
c) decyzje operacyjne muszą uwzględniać niepewność, zmienność popytu oraz ograniczenia technologiczne.
Problem harmonogramowania w takim środowisku jest kombinatorycznie złożony (NP-trudny), wielokryterialny oraz dynamiczny. Klasyczne metody heurystyczne nie skalują się efektywnie wraz ze wzrostem liczby zamówień oraz liczby dostępnych fabryk.
Zastosowanie RL umożliwia uczenie polityki decyzyjnej bez konieczności definiowania jawnego modelu optymalizacyjnego, adaptację tej polityki do zmiennych warunków środowiskowych oraz odkrywanie strategii trudnych do zaprojektowania heurystycznie.
Współczesne systemy produkcyjne w ramach tzw. Przemysłu 4.0 ewoluują w kierunku architektury cloud manufacturing, w której:
a) zlecenia są dynamicznie przydzielane do rozproszonych jednostek produkcyjnych,
b) zasoby produkcyjne są współdzielone,
c) decyzje operacyjne muszą uwzględniać niepewność, zmienność popytu oraz ograniczenia technologiczne.
Problem harmonogramowania w takim środowisku jest kombinatorycznie złożony (NP-trudny), wielokryterialny oraz dynamiczny. Klasyczne metody heurystyczne nie skalują się efektywnie wraz ze wzrostem liczby zamówień oraz liczby dostępnych fabryk.
Zastosowanie RL umożliwia uczenie polityki decyzyjnej bez konieczności definiowania jawnego modelu optymalizacyjnego, adaptację tej polityki do zmiennych warunków środowiskowych oraz odkrywanie strategii trudnych do zaprojektowania heurystycznie.
Kontakt
ul Traugutta 75, 80-221 Gdańsk
tel.: + 48 58 347 24 11
email: office@task.gda.pl
NIP: 584-020-35-93
REGON: 000001620
Godziny otwarcia: pn-pt godz. 8:00-15:00