Gartner przewiduje, że do 2028 roku co najmniej 15% codziennych decyzji zawodowych będzie podejmowanych autonomicznie przez agentyczną sztuczną inteligencję. W teorii technologia ta pozwoli na tworzenie bardziej adaptacyjnych systemów oprogramowania, zdolnych do wykonywania szerokiej gamy zadań. W praktyce jest wciąż wiele niewiadomych, dotyczących bezpieczeństwa danych, zgodności z procedurami wewnętrznymi i regulacjami prawnymi. W tym artykule, omawiamy zagadnienia związane z ograniczeniami (zwłaszcza w obszarze EU) oraz skupimy się wyzwaniach związanych z wdrażaniem Agentów AI.
Tempo rozwoju narzędzi opartych na AI, pozwala twierdzić, że praktyczne wykorzystanie „agentowej” / “agentycznej” (ang. Agentic) sztucznej inteligencji do wykonywania czasochłonnych zadań zrewolucjonizuje wiele branż. szczególnie tych, w których automatyzacja i podejmowanie decyzji na podstawie dużych zbiorów danych może znacząco zwiększyć efektywność.
Myśląc o możliwościach, należy pamiętać także o ograniczeniach.
Ograniczenia związane z wykorzystaniem Agentów AI
Zależność od jakości danych
AI wymaga dużych zbiorów danych wysokiej jakości do skutecznego działania. Dane błędne, niepełne lub zmanipulowane mogą prowadzić do nieprawidłowych decyzji, co w wielu przypadkach (np. medycyna, finanse) może mieć poważne konsekwencje.
W badaniu „The Effects of Data Quality on Machine Learning Performance” autorzy analizują wpływ sześciu tradycyjnych wymiarów jakości danych na wydajność piętnastu popularnych algorytmów uczenia maszynowego. Wyniki wskazują, że niekompletne, błędne lub nieodpowiednie dane treningowe mogą prowadzić do niepewnych modeli, które podejmują błędne decyzje.
Wiarygodne aplikacje AI wymagają wysokiej jakości danych treningowych i testowych w wielu wymiarach jakości, takich jak dokładność, kompletność i spójność.
To, co jest napisane powyżej, dla wielu osób zajmujących się AI/ML będzie oczywiste. Jednak ocena jakości danych w danej organizacji nie zawsze jest jednoznaczna. Ważne jest, aby informacje, na których chcemy używać agenta OpenAI, były kompletne i nie zawierały obraźliwych treści. Ocena tego stanu na wczesnym etapie może pomóc wyeliminować potencjalne błędy podczas prac wdrożeniowych.
Bezpieczeństwo danych
Program, który w analizowanym przypadku ma pełnić rolę pomocnika, asystenta ma za zadanie dostarczać nam wiarygodnych i sprawdzonych informacji. Analizę opiera on na danych, o których pisaliśmy wcześniej. Oczywiście, najlepszymi materiałami do nauki są prawdziwe dokumenty i dane, które są procedowane wewnątrz organizacji.
Wiele wątpliwości i obaw jest związanych z dostarczeniem do Asystenta danych wrażliwych na temat przedsiębiorstwa.
Obecny stan przepisów prawnych, niezależnie od naszych opinii, wyznacza ramy działania systemów AI, szczególnie w kontekście zgodności z RODO. Przykładem są agenci oparci na infrastrukturze Azure OpenAI, które dzięki integracji z chmurą zapewniają pełną zgodność z regulacjami, o ile są prawidłowo skonfigurowane przez użytkownika. Warto też wspomnieć o rozwiązaniach takich jak Azure AI Studio, umożliwiających tworzenie agentów w środowisku chmurowym.
Z drugiej strony, lokalne rozwiązania – oparte na modelach takich jak Llama, Bielik czy inne otwarte modele językowe (np. kontrowersyjny dla niektórych DeppSeek) – dają pełną kontrolę nad danymi i ich przetwarzaniem, choć wymagają większych nakładów technicznych, np. w postaci dedykowanych serwerów. Warto jednak podkreślić, że zarówno w przypadku rozwiązań chmurowych, jak i lokalnych, zgodność z przepisami, w tym z RODO, zależy od odpowiedniej konfiguracji i implementacji systemów przez użytkownika.
Dynamiczny rozwój tej dziedziny sugeruje, że za kilka miesięcy możliwości te będą jeszcze bardziej rozbudowane, oferując nowe opcje zarówno dla rozwiązań lokalnych, jak i chmurowych- ocenia Andrzej Chybicki, CEO Inero Software
Keycloak - kompleksowo zarządzaj dostępem i uprawnieniami
Cyberbezpieczeństwo i autoryzacja
Autentykacja użytkownika to wyzwanie dla systemów AI, które wymaga szczególnej uwagi w kontekście bezpieczeństwa. Choć w większości przypadków autoryzacja odbywa się na wcześniejszych etapach, istnieją sposoby na obejście tego procesu, co naraża systemy na ryzyko manipulacji.
Przykład:
Agent AI, który komunikuje się z użytkownikami, może być podatny na ataki phishingowe, jeśli nie jest odpowiednio zabezpieczony. Na przykład, atakujący może stworzyć zapytanie, które imituje komunikację od autoryzowanego użytkownika. Jeśli agent nie weryfikuje kontekstu lub danych wejściowych, może odpowiedzieć na takie zapytanie, udzielając poufnych informacji lub wykonując nieautoryzowane działania.
To pokazuje, że wcześniejsza autoryzacja użytkownika, choć kluczowa, nie zawsze wystarcza do zabezpieczenia systemu. Ważne jest wdrożenie dodatkowych mechanizmów, takich jak analiza kontekstowa, zaawansowane systemy wykrywania nietypowych zachowań, a także odpowiednie zabezpieczenie danych przetwarzanych przez agenta AI. Tylko takie podejście minimalizuje ryzyko związane z atakami phishingowymi i manipulacją agentami AI.
W praktyce autoryzacja użytkownika powinna zawsze odbywać się przed przyznaniem dostępu do asystenta AI. W środowisku chmurowym, np. Azure, można zastosować dodatkowe zabezpieczenia, np korzystając z Active Directory czy Keycloak, aby ograniczyć ryzyko ataków. Jeśli dane nie mogą być przetwarzane poza organizacją, warto korzystać z lokalnych rozwiązań uwierzytelniania i przechowywania danych.
Z perspektywy bezpieczeństwa kluczowe jest jednak rozwijanie mechanizmów odpornych na phishing, ponieważ brak odpowiednich zabezpieczeń w agentach AI może prowadzić do poważnych zagrożeń- dodaje Andrzej Chybicki
Podsumowując. Agentyczna sztuczna inteligencja ma potencjał, by zrewolucjonizować sposób, w jaki podejmowane są decyzje zawodowe, zwłaszcza w zadaniach opartych na analizie dużych zbiorów danych. Jednak możliwości te wiążą się z istotnymi wyzwaniami, takimi jak jakość danych, bezpieczeństwo informacji czy zgodność z regulacjami prawnymi.