INCONE60 Green - Digital and green transition of small ports
Andrzej Chybicki: projekty związane z wykorzystaniem sztucznej inteligencji to znacząca część naszych projektów
Jak przygotować firmę do wdrożenia agenta AI?

Wdrożenie agenta AI w firmie to nie tylko kwestia technologii, ale także odpowiedniej strategii.  Choć coraz więcej przedsiębiorstw rozważa wykorzystanie sztucznej inteligencji w codziennej pracy – od obsługi klienta po analizę dokumentów – skuteczne przygotowanie do tego kroku wymaga odpowiedniego planowania. W tym artykule przedstawiamy, na co warto zwrócić uwagę przed rozpoczęciem wdrożenia agenta AI, jakie obszary działalności firmy powinny być szczególnie dobrze przygotowane i jak uniknąć najczęstszych błędów. 

Jest wiele obszarów, w których AI może okazać się pomocna. Od automatyzacji rutynowych zadań, przez wsparcie w obsłudze klienta i analizie danych, aż po usprawnienie procesów decyzyjnych i tworzenie inteligentnych asystentów wspomagających pracę zespołów. Potencjał jest ogromny – kluczem jest jednak odpowiednie przygotowanie organizacji do takiej zmiany. 

Etapy wdrożenia asystenta AI

Proces wdrożenia asystenta AI w organizacji można podzielić na kilka etapów, z których każdy wymaga podjęcia określonych działań. Od analizy potrzeb biznesowych, przez wybór odpowiedniego modelu językowego i przygotowanie infrastruktury, aż po integrację z istniejącymi systemami i testowanie – każdy z tych kroków ma wpływ na końcową efektywność rozwiązania.  

Najważniejsze etapy to: 

  1. Analiza potrzeb i ocena gotowości 
  2. Przygotowanie danych i treści 
  3. Projektowanie rozwiązania 
  4. Budowa i konfiguracja asystenta 
  5. Testy i pilotaż 
  6. Wdrożenie i utrzymanie 

Analiza potrzeb i ocena gotowości​

Aby wdrożenie agenta AI przyniosło najlepsze rezultaty należy zadać sobie na początek pytanie: w których zadaniach i obszarach widzę potencjał do optymalizacji, poprzez wykorzystanie sztucznej inteligencji? 

Szukając odpowiedzi na te pytanie, warto dokładnie przeanalizować aktualną strukturę firmy, procesy oraz obowiązki pracowników. Pomoże to znaleźć tak zwane „wąskie gardła”, które mogą wpływać na jakość oferowanych usług. Może to być np.  

– długi czas odpowiedzi na zapytanie ofertowe 

–  przeciążenie zespołu rutynowymi zadaniami  

–  brak spójności w komunikacji z klientami 

–  ręczne przetwarzanie dokumentów i danych 

–  trudności w szybkim dostępie do wiedzy wewnętrznej firmy 

Na podstawie tej analizy będzie można zidentyfikować pola do poprawy oraz osoby, które bezpośrednio będą korzystać z pomocy asystentów AI.  

Drugim obszarem, który należy zweryfikować jest posiadana infrastruktura.  Do wdrożenia nie jest potrzeba duża ilość sprzętu. Jeśli firma nie chce inwestować w nowe maszyny, może wybrać korzystanie z usług chmurowych (Azure, AWS, Google Cloud). 

Bardzo ważny element przygotowań stanowią dane.  Aby właściwie wykorzystać potencjał, związany z zastosowaniem dedykowanych rozwiązań AI, należy mieć świadomość, że do treningu modelu, który będzie stanowił podstawę agenta, potrzebne są zbiory danych, przechowywanych w formie cyfrowej. Powinny być one uporządkowane i przechowywane w centralnym repozytorium/bazie danych. Im mniejszy poziom uporządkowania danych tym wyższy koszt wdrożenia asystenta i ryzyko wdrożenia rozwiązania, które nie spełni pokładanych w nim oczekiwań. 

Przygotowanie danych i treści​

Na tym etapie kluczowe jest zgromadzenie wszystkich materiałów, które zawierają istotną wiedzę firmową – mogą to być dokumenty w formacie PDF, Word, Excel, treści ze strony internetowej, sekcja FAQ, e-maile czy dane z baz danych. 

Następnie zebrane informacje trzeba odpowiednio przygotować – uporządkować, oczyścić z niepotrzebnych treści (np. nieczytelnych PDF), w miarę możliwości uspójnić i wyeksportować do plików CSV lub JSON (np. maile)  

W niektórych przypadkach, np. gdy planujemy dalsze dostosowanie modelu do specyfiki firmy (fine-tuning), potrzebne będzie również oznaczenie danych lub przygotowanie specjalnego zestawu treningowego w formacie instrukcji i oczekiwanych odpowiedzi, np.: 

{"prompt": "Jakie dokumenty są potrzebne do zawarcia umowy OCS?", "response": "Do zawarcia umowy OCS potrzebne są: ..." } 

Projektowanie rozwiązania​

Na tym etapie podejmowane są decyzje, jak ma wyglądać techniczne rozwiązanie. Należy określić, jaki typ asystenta będzie najlepiej odpowiadał potrzebom firmy – czy ma to być prosty chatbot odpowiadający na pytania, bardziej zaawansowany asystent z dostępem do firmowej wiedzy (tzw. RAG – Retrieval-Augmented Generation), czy może agent, który potrafi samodzielnie wykonywać konkretne zadania, np. rezerwacje, generowanie raportów czy wysyłanie e-maili. 

Kolejny krok to wybór odpowiednich technologii, w tym dużego modelu językowego (LLM), który będzie podstawą działania asystenta – mogą to być np. GPT-4, Claude, Mistral, LLaMA lub Gemini, w zależności od potrzeb i wymagań dotyczących prywatności, kosztów i możliwości integracji. 

Na koniec warto przygotować listę funkcji, jakie asystent ma realizować oraz zaplanować integrację z innymi systemami używanymi w firmie – np. CRM, bazą wiedzy czy pocztą e-mail. 

Budowa i konfiguracja asystenta​

Na tym etapie powstaje zarówno zaplecze techniczne (backend), jak i widoczna dla użytkownika część asystenta (frontend). Może to być np. interfejs czatu na stronie internetowej, przycisk uruchamiający asystenta w aplikacji, czy widget zintegrowany z narzędziami, takimi jak Slack. O tym jak może wyglądać integracja platformy do komunikacji Slack z agentem AI przeczytasz tu >>LINK

Równolegle wdrażany jest wybrany model językowy – np. za pośrednictwem usług takich jak Azure OpenAI, OpenAI API, Anthropic (Claude), Google Vertex AI (Gemini) lub lokalnie, przy użyciu open-source’owych modeli jak LLaMA, Mistral czy Mixtral. 

 

Jeśli asystent ma korzystać z wiedzy wewnętrznej firmy, należy skonfigurować mechanizm RAG (Retrieval-Augmented Generation) – czyli wyszukiwanie i dopasowywanie odpowiednich dokumentów do zapytań użytkownika. 

 

Na końcu realizowane są integracje z innymi systemami, np. CRM, systemem zgłoszeń czy pocztą e-mail, dzięki czemu asystent może realnie wspierać codzienną pracę zespołu. 

Agent AI w Twojej firmie?

Zapisz się na bezpłatne szkolenie, realizowane w ramach Pomorskiego Hubu Innowacji Cyfrowych

Testy i pilotaż​

Po wdrożeniu rozwiązania kluczowe jest jego dokładne przetestowanie. Najpierw przeprowadza się testy funkcjonalne – sprawdzamy, czy asystent prawidłowo rozumie intencje użytkownika, czy odpowiada zgodnie z firmową dokumentacją i czy poprawnie reaguje na różne typy zapytań. 

 

Kolejny etap to testy z udziałem użytkowników końcowych (UAT – User Acceptance Testing), które pozwalają ocenić, jak dobrze asystent sprawdza się w realnych sytuacjach i czy spełnia oczekiwania pracowników. 

 

Na podstawie zebranych opinii i obserwacji wprowadza się iteracyjne poprawki – np. modyfikacje w treści odpowiedzi, dodanie nowych dokumentów do bazy wiedzy, czy doprecyzowanie promptów i logiki działania agenta. Ten etap często powtarza się wielokrotnie, aż do osiągnięcia satysfakcjonującego poziomu jakości. 

Wdrożenie i utrzymanie

Po zakończeniu testów przychodzi czas na wdrożenie asystenta na docelowej infrastrukturze – może to być chmura publiczna (np. Azure, AWS, GCP), serwery lokalne lub rozwiązanie hybrydowe, w zależności od wymagań dotyczących bezpieczeństwa i dostępności. O nich przeczytasz w dalszej części tego wpisu.  

 

Konieczne jest również uruchomienie monitoringu działania, który pozwala śledzić m.in. zużycie tokenów, częstotliwość zapytań, występowanie błędów oraz jakość generowanych odpowiedzi. Dzięki temu można szybko reagować na problemy i optymalizować koszty. 

W codziennej pracy ważna jest też aktualizacja danych – czyli możliwość dodawania nowych dokumentów, usuwania nieaktualnych informacji i modyfikowania bazy wiedzy, z której korzysta asystent. 

 

W miarę upływu czasu i zmieniających się potrzeb biznesowych można również rozważyć ponowne trenowanie (retraining) lub fine-tuning modelu, np. co kilka miesięcy, aby lepiej dostosować go do specyfiki organizacji. 

 

Na końcu warto zapewnić wsparcie techniczne oraz pomoc dla użytkowników końcowych, aby rozwiązanie było nie tylko sprawne technicznie, ale też wygodne i intuicyjne w codziennym użyciu. 

Prywatność danych

W punkcie „Wdrożenie i utrzymanie” pisaliśmy o dostępnych opcjach przy wyborze infrastruktury, na której wdrożony zostanie agent AI.  

Każde z rozwiązań ma swoje wady i zalety. Przy wyborze rozwiązania lokalnego mamy całkowitą kontrolę nad danymi, jednak potrzebna będzie dedykowana maszyna o określonych parametrach.  

Innym rozwiązaniem jest wybór publicznej chmury np. Azure. Microsoft jasno stwierdza, że dane przekazywane do usługi Azure OpenAI nie są wykorzystywane do trenowania ani ulepszania modeli OpenAI ani Microsoftu (źródło).  

 

Zgodnie ze stanowiskiem Microsoft prompty i odpowiedzi nie są udostępniane innym klientom czy OpenAI. Azure działa tu w trybie pełnej izolacji: gdy korzystasz z GPT-4 na Azure, żadna informacja z Twoich rozmów nie trafia do OpenAI LLC. Microsoft potwierdził to w dodatku do umowy (DPA).  

Odpowiedzialność za decyzje AI

Należy jednak pamiętać, że odpowiedzialność formalna i prawna za efekty pracy agenta AI oraz przetwarzane dane, spoczywa na podmiocie, który wdrożył rozwiązanie i je nadzoruje – czyli najczęściej na: 

  1. organizacji (np. firmie, która uruchomiła asystenta),
  2. administratorze systemu,
  3. osobie podejmującej decyzje na podstawie podpowiedzi AI (np. pracownik obsługi klienta, rekruter, lekarz). 

Jak ograniczyć ryzyko?​ 

  1. Human-in-the-loop (HITL) – Człowiek musi zatwierdzać ważne decyzje, a AI może je tylko wspierać (np. asystent przygotowuje projekt odpowiedzi, ale człowiek go zatwierdza).
  2. Wyraźne zastrzeżenia i ostrzeżenia – AI powinien informować użytkownika: „Jestem asystentem AI – zweryfikuj moje odpowiedzi przed podjęciem decyzji.” 
  3. Weryfikacja źródeł – Asystent AI powinien (gdzie to możliwe) cytować źródła odpowiedzi lub wskazywać, że „nie wie” zamiast zgadywać. Stosowanie RAG pozwala dokładnie kontrolować bazę wiedzy. 

Podsumowanie

Proces wdrożenia agenta AI musi być dobrze zaplanowany i przemyślany. Z początku może wydać się trudny, jednak, aby przyniósł długotrwałe korzyści warto odpowiednio się do niego przygotować.  

 

Przedstawicieli polskich MŚP zachęcamy do udziału w bezpłatnych szkoleniach ofertowanych przez naszą firmę w ramach Pomorskiego Hubu Innowacji Cyfrowych, którego jesteśmy partnerem. W czasie 2-dniowego szkolenia omówimy dostępne modele LLM, ich zastosowanie w biznesie. Porównamy plusy i minusy wdrożenia lokalnego i chmurowego. Nasi eksperci podzielą się swoją wiedzą z zrealizowanych wdrożeń oraz odpowiedzą na pytania uczestników.  

 

Rejestracja do programu odbywa się przez stronę www https://gpnt.pl/pdih-usluga-szkolenia-50 

Skorzystaj z darmowego szkolenia dla MŚP

Poznaj możliwości jakie dają nowoczesne systemy oraz technologie z obszaru AI. Szkolenie składa się z dwóch, czterogodzinnych blogów. Poprowadzą je nasi eksperci w zakresie Dużych Modeli Językowych.
Zapisz się na darmowe szkolenie

Chcesz zacząć korzystać z AI w firmie?

Zostaw swój adres e-mail, a my przedstawimy Ci szczegóły projektu Pomeranian EDIH, skierowanego do MPŚ i JDG.