W najnowszym odcinku podcastu „AI w produkcji” rozmawiamy o jednym z najbardziej praktycznych zastosowań sztucznej inteligencji w przemyśle – wykorzystaniu Large Language Model (LLM) w utrzymaniu ruchu.
W artykule przedstawiamy najważniejsze wątki, ale w pełnej rozmowie usłyszysz:
- jak wyglądał proces pracy z danymi przed wdrożeniem,
- jak rozwiązano kwestie bezpieczeństwa i poufności,
- jak wyglądała integracja z infrastrukturą klienta,
- jakie były reakcje pracowników,
- w jakim kierunku rozwija się to rozwiązanie (m.in. AR i tłumaczenia w czasie rzeczywistym).
Spis treści
O czym jest podcast „AI w produkcji”?
Podcast „AI w produkcji” to seria rozmów o realnych wdrożeniach sztucznej inteligencji w przemyśle. Nie skupiamy się na teorii ani modnych hasłach – za to pokazujemy:
- konkretne problemy firm produkcyjnych,
- rzeczywiste wdrożenia,
- wyzwania organizacyjne,
- wyniki biznesowe,
- oraz to, co działa… a co nie.
Rozmawiamy z ekspertami, którzy prowadzą projekty AI w fabrykach – od koncepcji, przez integrację z infrastrukturą IT, aż po realne efekty operacyjne.
Ten odcinek jest szczególnie ciekawy, bo dotyczy obszaru, który generuje ogromne koszty w każdej fabryce: przestoje maszyn.
O czym jest ten odcinek?
W tym odcinku rozmawiamy o wdrożeniu systemu opartego o Large Language Model w dziale utrzymania ruchu w firmie farmaceutycznej. Naszym gościem jest Łukasz Borzęcki, CEO/CTO w VM.PL.
Łukasz przedstawił nam szereg problemów z jakimi mierzyła się firma farmaceutyczna, m.in.:
- częste awarie maszyn,
- przestoje trwające nawet ponad 1,5 godziny,
- rozproszona dokumentacja (PDF, instrukcje, systemy ticketowe),
- wiedza rozproszona między doświadczonymi pracownikami.
Dodatkowym utrudnieniem była specyfika środowiska farmaceutycznego – clean roomy, procedury bezpieczeństwa, fizyczna odległość między dokumentacją a linią produkcyjną.
Co tak naprawdę zmieniło się w utrzymaniu ruchu?
Kluczowa nie była sama technologia LLM. Kluczowe było to, jak została wykorzystana.
Zespół zaprojektował rozwiązanie w oparciu o architekturę RAG (Retrieval-Augmented Generation), połączoną z wektorową bazą wiedzy oraz modelem językowym działającym w zamkniętej infrastrukturze klienta.
System został zasilony wewnętrznymi danymi firmy:
- instrukcjami maszyn,
- historią awarii,
- zapisami spotkań RCA,
- systemem ticketowym,
- procedurami BHP.
Model nie korzysta z Internetu i nie generuje odpowiedzi poza zakresem danych firmowych. Odpowiada wyłącznie na podstawie wiedzy organizacji i wskazuje źródła, z których korzysta.
W praktyce oznacza to, że operator przy linii produkcyjnej może wpisać kod błędu lub opisać objaw, a system:
- analizuje podobne przypadki z historii,
- przeszukuje dokumentację,
- podaje krok po kroku możliwe rozwiązanie,
- wskazuje, na jakiej podstawie została wygenerowana odpowiedź.
W efekcie zminimalizowaliśmy czas przestoju z ponad 90 minut do kilkunastu minut.
Największe wyzwanie? Ludzie, nie technologia
W rozmowie pojawia się bardzo ważny wątek – obawa pracowników przed nowym systemem.
Naturalne pytania:
- Czy AI mnie zastąpi?
- Czy moja rola stanie się zbędna?
Łukasz rozwiał wątpliwości. Przedstawił praktyczny punkt widzenia sytuacji, w którym rozwiązanie wprowadzenia AI do firmy:
- pozwala operatorom rozwiązywać prostsze problemy,
- daje technikom więcej czasu na działania prewencyjne,
- przesuwa organizację z trybu reaktywnego w stronę predykcyjnego utrzymania ruchu.
Co ciekawe – system pomaga planować przyszłość
LLM nie tylko podpowiada, jak naprawić awarię.
Na podstawie danych historycznych może wskazać:
- które komponenty psują się najczęściej,
- czy warto zwiększyć stany magazynowe,
- który dostawca elementów jest mniej awaryjny,
- na czym skupić działania w kolejnym kwartale.
To już nie tylko narzędzie operacyjne, ale element strategicznego zarządzania produkcją.
Dlaczego warto posłuchać tego odcinka?
Bo to rozmowa o prawdziwym życiu produkcji. W tym odcinku pokazujemy, jak wyglądało wdrożenie AI w firmie produkcyjnej krok po kroku. Bez skrótów myślowych. Bez marketingowych sloganów. Za to z konkretnymi przykładami z działu utrzymania ruchu.
Łukasz Borzęcki dzieli się doświadczeniem zdobytym w środowisku produkcyjnym – opowiada:
- jak przekonać zespół do nowego rozwiązania,
- jak podejść do bezpieczeństwa danych,
- jak zintegrować system z istniejącą infrastrukturą,
- i co zrobić, żeby projekt nie zatrzymał się na etapie „proof of concept”.
To odcinek dla osób, które na co dzień odpowiadają za produkcję, utrzymanie ruchu lub rozwój technologii w fabryce. Dla tych, którzy szukają sposobów na ograniczenie przestojów maszyn i chcą zrozumieć, jak w praktyce wygląda wykorzystanie LLM w przemyśle.
Jeśli interesuje Cię, jak AI w produkcji może realnie wspierać ludzi – a nie ich zastępować – ta rozmowa da Ci konkretne odpowiedzi.




