Zamknij Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie.
MAN

Ekosystem generatywnej AI w zarządzaniu flotą

Podczas konferencji Fleet Trends skorzystaliśmy z okazji i po wykładzie pana Piotra Ratajskiego postanowiliśmy dopytać go o kilka szczegółów, bo temat: „Ekosystem generatywnej AI w zarządzaniu flotą, jej bezpieczeństwem i elektryfikacją” bardzo nas zaintrygował.

Tomasz Siwiński: Panie Piotrze, bezpieczeństwo floty to złożony temat, tymczasem na wykładzie pokazywał Pan, jak w kilkanaście minut można dzięki AI stworzyć sobie pomocnika. Od czego zacząć?
Piotr Ratajski: Zacząłbym od kartki papieru albo flipcharta i zastanowiłbym się, w jakich obszarach potrzebujemy wsparcia asystenta AI. W jakim celu ja lub moi współpracownicy chcemy pewne informacje i dane analizować i co przysparza nam najwięcej wyzwań. Warto pomyśleć, jakich rozwiązań potrzebujemy, by kierowcy jeździli bezpieczniej – czy powinniśmy wdrożyć lub zmienić regulaminy flotowe, czy może konkurs, który będzie nagradzał najlepszych kierowców. Zdecydowanie polecam też analizę sytuacji, dla których identyfikujemy wysokie prawdopodobieństwo błędnej oceny danych, a także tych, gdzie ich szybka analiza wspiera decyzyjność. Takie ćwiczenie podpowie nam, czego szukamy i potrzebujemy, i jak będzie wyglądała instrukcja, zgodnie z którą nasz asystent będzie wspierał naszą organizację. Na rynku w ramach szeroko rozumianego Generative AI jest kilkanaście ogólnodostępnych i łatwo konfigurowalnych usług (są również usługi enterprise skierowane dla pełnoskalowych rozwiązań). Należy weryfikować możliwość stworzenia własnego Asystenta AI, ta funkcja najczęściej jest dostępna w wersjach płatnych dodatkowo. Kluczem do sprawności działania naszego własnego asystenta AI jest również umiejętna personalizacja i wpływ na logikę odpowiedzi, których będzie udzielał asystent, zwłaszcza pod kątem precyzji. By narzędzie działało w zamierzonych ramach, należy posłużyć się odpowiednią instrukcją (prompt inżynierią), uwzględniającą szeroką gamę warunków i wyjątków. Przykładem jest odpowiadanie na pytania tylko na bazie analizy dokumentów, którymi zasilimy narzędzie z możliwością korzystania z odpowiedzi dotyczących BHP, bazując na konkretnym wskazanym dokumencie. Podsumowując: wstępnie przeanalizujmy, co chcemy przetestować (postawmy sobie zatem hipotezę i określmy scenariusz użycia), poszukajmy lub opracujmy dokumenty, które będą podstawą wiedzy naszego asystenta (tu warto zwrócić uwagę, by materiały, które posłużą odpowiedziom i analizie naszego asystenta, nie stanowiły danych poufnych lub tajemnicy przedsiębiorstwa), na koniec testujmy i weryfikujmy przydatność, aby ocenić korzyści, jakie nam to narzędzie przyniesie. Jest to idealny wstęp, by poznać podstawowe funkcje, metodę działania, nauczyć się personalizować, konfigurować i promptować. Bez przećwiczenia scenariuszy podstawowych, trudno będzie planować pilotaż lub pełnoskalowe, bezpieczne wdrożenie Asystenta AI w organizacji.

Czy to jest bezpieczne? Dużo słyszy się o wyłudzaniu danych.
W ramach ćwiczeń i testowania różnych podejść (takiej własnej piaskownicy) ograniczyłbym się do dobrego zapoznania z regulaminem usługi, renomy firmy, która stoi za rozwiązaniem, oraz unikałbym wprowadzania danych poufnych. Część usługodawców opartych na generatywnej AI (w ramach usług płatnych w modelu B2B) gwarantuje anonimizację treści lub wyłączenie z bazy wiedzy ogólnej modelu, który rozwijają i tuningują. W tej ekspozycji zwracałbym uwagę na ryzyko „wyłudzania danych”. Jest również drugi aspekt wykorzystywania szeroko rozumianego AI i tutaj generatywna sztuczna inteligencja jest tylko kolejnym etapem rozwoju, mianowicie kwestie etyczne, którym od dłuższego czasu przyglądają się regulatorzy, think-tanki i środowiska akademickie. Najłatwiej, ale nie jest to jedyna „najlepsza praktyka”, stosowałbym zasadę analizy skutków procesu, w którym AI wspiera lub jest jego częścią. Pokazywałem asystenta AI i mówiłem o przykładach użycia, gdzie technologia wspiera, a użytkownik decyduje. W myśl tej zasady nie powinniśmy ograniczać sprawczości użytkownika procesu z udziałem Generatywnej AI lub powodować rozproszenia odpowiedzialności w ramach procesu.

Warto pomyśleć, jakich rozwiązań potrzebujemy, by kierowcy jeździli bezpieczniej – czy powinniśmy wdrożyć lub zmienić regulaminy flotowe, czy może konkurs, który będzie nagradzał najlepszych kierowców. (…) Takie ćwiczenie podpowie nam, czego szukamy i potrzebujemy oraz jak będzie wyglądała instrukcja, zgodnie z którą nasz asystent będzie wspierał naszą organizację.


W jakich obszarach generatywna sztuczna inteligencja jest pomocna, które procesy może uprościć?
Temat jest bardzo obszerny i najczęściej obecnie ogranicza nas jedynie wyobraźnia. Dosłownie co kilka tygodni otwiera się nowy poziom sprawności, jak np. publikacja multimodalnych modeli językowych. Wskazałbym kilka obszarów, gdzie generatywna sztuczna inteligencja może nam pomóc:

  • testowanie różnych podejść i hipotez związanych z optymalizacją kosztową oraz obszarem bezpieczeństwa (przykładem jest generowanie przykładowych i randomowych danych przez jeden model, by wyszkolić lub przeprowadzić symulację biznesowo-kosztową itp.),
  • analiza dużych zbiorów danych w różnych postaciach, od integracji z systemem do zarządzania flotą po systemy księgowe lub automatykę IoT w ramach procesów logistyki i cargo,
  • automatyczne wnioskowanie w celu sugerowania danych i statystyk, by podjąć najlepszą decyzję,
  • kreowanie rozwiązań, gdzie narzędzie, opisując problem i stosowane metody, może zaproponować roadmapę poprawy jakiegoś procesu lub zestawu ćwiczeń/scenariusza gamefikacyjnego, celem poprawy bezpieczeństwa we flocie.


Może za kilka lat fleet manager nie będzie potrzebny, a o bezpieczeństwo będzie dbał dobrze napisany algorytm?
To przypuszczenie jest błędne i nawet po wpisaniu go do asystenta AI uzyskamy negatywną odpowiedź. Po pierwsze dlatego, że pierwszym ogniwem i obserwatorem jest właśnie ekspert i fleet manager, po drugie, bezpieczeństwo to nie tylko reguły, ale również zdolność do empatii i rozumienia tego, co jest często niewypowiedziane. Wypracowanie i dostosowywanie metod, dzięki którym bezpieczeństwo będzie pielęgnowane, wymaga udziału osoby odpowiedzialnej i sprawczej. Obowiązujące polityki i regulaminy nie dopasują się do zmian same. Technologia nie zastąpi zmysłu dobrego obserwatora. Generalnie AI poszerza rozwój, zwiększa zdolność do działania i istniejących już przykładów takiej sytuacji jest wiele.

Piotr Ratajski
Kierownik Zespołu Rozwoju i Utrzymania Aplikacji Biznesowych, Biuro Rozwoju Biznesu Korporacyjnego PZU SA

Praktyk i propagator innowacji w sektorze ubezpieczeniowym, ochrony zdrowia i Internetu rzeczy. Odpowiedzialny za poszukiwanie i adaptowanie innowacji oraz rozwój ekosystemów business value-added. W PZU wdrożył rozwiązania z obszaru sztucznej inteligencji, computer vision w likwidacji szkód, urządzeń telemedycznych oraz systemów inteligentnego rolnictwa. Od 15 lat związany z obszarem rozwoju oprogramowania, doradztwem strategicznym dla programów transformacji cyfrowej. Miłośnik metodyk zwinnych, Lean UX/UI.
Przeczytaj również
Popularne