AI w produkcji – jak skrócić przestoje z 90 minut do kilkunastu? O czym jest ten odcinek podcastu

/ 26.02.2026 Aktualności

W najnowszym odcinku podcastu „AI w produkcji” rozmawiamy o jednym z najbardziej praktycznych zastosowań sztucznej inteligencji w przemyśle – wykorzystaniu Large Language Model (LLM) w utrzymaniu ruchu.

W artykule przedstawiamy najważniejsze wątki, ale w pełnej rozmowie usłyszysz:

  • jak wyglądał proces pracy z danymi przed wdrożeniem,
  • jak rozwiązano kwestie bezpieczeństwa i poufności,
  • jak wyglądała integracja z infrastrukturą klienta,
  • jakie były reakcje pracowników,
  • w jakim kierunku rozwija się to rozwiązanie (m.in. AR i tłumaczenia w czasie rzeczywistym).

O czym jest podcast „AI w produkcji”?

Podcast „AI w produkcji” to seria rozmów o realnych wdrożeniach sztucznej inteligencji w przemyśle. Nie skupiamy się na teorii ani modnych hasłach – za to pokazujemy:

  • konkretne problemy firm produkcyjnych,
  • rzeczywiste wdrożenia,
  • wyzwania organizacyjne,
  • wyniki biznesowe,
  • oraz to, co działa… a co nie.

Rozmawiamy z ekspertami, którzy prowadzą projekty AI w fabrykach – od koncepcji, przez integrację z infrastrukturą IT, aż po realne efekty operacyjne.

Ten odcinek jest szczególnie ciekawy, bo dotyczy obszaru, który generuje ogromne koszty w każdej fabryce: przestoje maszyn.

O czym jest ten odcinek?

W tym odcinku rozmawiamy o wdrożeniu systemu opartego o Large Language Model w dziale utrzymania ruchu w firmie farmaceutycznej. Naszym gościem jest Łukasz Borzęcki, CEO/CTO w VM.PL.

Łukasz przedstawił nam szereg problemów z jakimi mierzyła się firma farmaceutyczna, m.in.:

  • częste awarie maszyn,
  • przestoje trwające nawet ponad 1,5 godziny,
  • rozproszona dokumentacja (PDF, instrukcje, systemy ticketowe),
  • wiedza rozproszona między doświadczonymi pracownikami.

Dodatkowym utrudnieniem była specyfika środowiska farmaceutycznego – clean roomy, procedury bezpieczeństwa, fizyczna odległość między dokumentacją a linią produkcyjną.

Co tak naprawdę zmieniło się w utrzymaniu ruchu?

Kluczowa nie była sama technologia LLM. Kluczowe było to, jak została wykorzystana.

Zespół zaprojektował rozwiązanie w oparciu o architekturę RAG (Retrieval-Augmented Generation), połączoną z wektorową bazą wiedzy oraz modelem językowym działającym w zamkniętej infrastrukturze klienta.

System został zasilony wewnętrznymi danymi firmy:

  • instrukcjami maszyn,
  • historią awarii,
  • zapisami spotkań RCA,
  • systemem ticketowym,
  • procedurami BHP.

Model nie korzysta z Internetu i nie generuje odpowiedzi poza zakresem danych firmowych. Odpowiada wyłącznie na podstawie wiedzy organizacji i wskazuje źródła, z których korzysta.

W praktyce oznacza to, że operator przy linii produkcyjnej może wpisać kod błędu lub opisać objaw, a system:

  • analizuje podobne przypadki z historii,
  • przeszukuje dokumentację,
  • podaje krok po kroku możliwe rozwiązanie,
  • wskazuje, na jakiej podstawie została wygenerowana odpowiedź.

W efekcie zminimalizowaliśmy czas przestoju z ponad 90 minut do kilkunastu minut.

Największe wyzwanie? Ludzie, nie technologia

W rozmowie pojawia się bardzo ważny wątek – obawa pracowników przed nowym systemem.

Naturalne pytania:

  1. Czy AI mnie zastąpi?
  2. Czy moja rola stanie się zbędna?

Łukasz rozwiał wątpliwości. Przedstawił praktyczny punkt widzenia sytuacji, w którym rozwiązanie wprowadzenia AI do firmy:

  • pozwala operatorom rozwiązywać prostsze problemy,
  • daje technikom więcej czasu na działania prewencyjne,
  • przesuwa organizację z trybu reaktywnego w stronę predykcyjnego utrzymania ruchu.

Co ciekawe – system pomaga planować przyszłość

LLM nie tylko podpowiada, jak naprawić awarię.

Na podstawie danych historycznych może wskazać:

  • które komponenty psują się najczęściej,
  • czy warto zwiększyć stany magazynowe,
  • który dostawca elementów jest mniej awaryjny,
  • na czym skupić działania w kolejnym kwartale.

To już nie tylko narzędzie operacyjne, ale element strategicznego zarządzania produkcją.

Dlaczego warto posłuchać tego odcinka?

Bo to rozmowa o prawdziwym życiu produkcji. W tym odcinku pokazujemy, jak wyglądało wdrożenie AI w firmie produkcyjnej krok po kroku. Bez skrótów myślowych. Bez marketingowych sloganów. Za to z konkretnymi przykładami z działu utrzymania ruchu.

Łukasz Borzęcki dzieli się doświadczeniem zdobytym w środowisku produkcyjnym – opowiada:

  • jak przekonać zespół do nowego rozwiązania,
  • jak podejść do bezpieczeństwa danych,
  • jak zintegrować system z istniejącą infrastrukturą,
  • i co zrobić, żeby projekt nie zatrzymał się na etapie „proof of concept”.

To odcinek dla osób, które na co dzień odpowiadają za produkcję, utrzymanie ruchu lub rozwój technologii w fabryce. Dla tych, którzy szukają sposobów na ograniczenie przestojów maszyn i chcą zrozumieć, jak w praktyce wygląda wykorzystanie LLM w przemyśle.

Jeśli interesuje Cię, jak AI w produkcji może realnie wspierać ludzi – a nie ich zastępować – ta rozmowa da Ci konkretne odpowiedzi.

Kategoria: Aktualności


Wiktoria Łabaza Junior Content Writer Tworzę treści o sztucznej inteligencji, które pokazują jej praktyczne zastosowanie w projektach technologicznych VM.PL. Na blogu dzielę się wiedzą o rozwiązaniach opartych na AI oraz ich wdrożeniach w różnych branżach.