Andrzej Chybicki: Przełomową zmianą, którą przynosi MCP i technologie oparte na LLM, jest zmniejszenie bariery komunikacyjnej między człowiekiem a systemami IT

INCONE60 Green - Digital and green transition of small ports
Andrzej Chybicki: projekty związane z wykorzystaniem sztucznej inteligencji to znacząca część naszych projektów
Andrzej Chybicki: Przełomową zmianą, którą przynosi MCP i technologie oparte na LLM, jest zmniejszenie bariery komunikacyjnej między człowiekiem a systemami IT

Nowe narzędzie open-source, Model Context Protocol (MCP), wprowadza standard umożliwiający integrację asystentów AI z kluczowymi systemami, takimi jak repozytoria treści, narzędzia biznesowe czy środowiska deweloperskie. Jest to pierwsze powszechnie dostępne rozwiązanie zapewniające bezpieczną i dwukierunkową komunikację między źródłami danych a narzędziami opartymi na sztucznej inteligencji.  Zachęcmy do lektury rozmowy z CEO Inero Software, Andrzejem Chybickim, w której szerzej omawiamy zastosowanie MCP w praktyce.  

 

Dzięki MCP aplikacje mogą dynamicznie dostosowywać swoje działanie do zmieniających się potrzeb użytkowników.

Marta Kuprasz: W jaki sposób Model Context Protocol (MCP) usprawnia zarządzanie kontekstem w czasie rzeczywistym? Czy pozwala aplikacjom dostosowywać działanie do zmieniających się potrzeb użytkowników? 

Andrzej Chybicki: Model Context Protocol wprowadza nowe podejście do zarządzania kontekstem, koncentrując się na standaryzacji integracji wiedzy organizacyjnej z dużymi modelami językowymi (LLM). Dotychczas wiedza w organizacjach była rozproszona i przechowywana w różnych formatach, co utrudniało efektywną współpracę z systemami AI. MCP jest pierwszym rozwiązaniem od strony dostawców LLM, które systematyzuje sposób łączenia tych danych z modelami, eliminując wcześniejsze ograniczenia wynikające z braku narzędzi ułatwiających przepływ informacji. 

Dzięki MCP aplikacje mogą dynamicznie dostosowywać swoje działanie do zmieniających się potrzeb użytkowników, korzystając z aktualnych, wielowarstwowych danych kontekstowych. Protokół umożliwia bardziej płynne i responsywne działanie systemów AI, ponieważ przełamuje dotychczasowe podejście skoncentrowane wyłącznie na optymalizacji samych modeli. MCP ułatwia integrację danych i aplikacji, co pozwala organizacjom lepiej wykorzystać zasoby wiedzy i oferować bardziej spersonalizowane doświadczenia użytkownikom. 

Sam standard MCP zapewnia bezpieczną komunikację między modułami.

MK: Jakie kluczowe cechy modularności i skalowalności MCP pozwalają na łatwą integrację z różnymi modelami i aplikacjami? 

AC: Jednym z kluczowych aspektów modularności i skalowalności MCP jest wykorzystanie gotowych komponentów, takich jak MCP Server i MCP Client, które znacznie upraszczają proces integracji. MCP Server może być zainstalowany na lokalnym komputerze czy na serwerze bazowym, umożliwiając dostęp do lokalnych zasobów, takich jak pliki czy bazy danych. Dzięki temu organizacje mogą łatwo włączyć istniejące dane do ekosystemu zarządzanego przez protokół MCP, bez potrzeby budowania złożonej infrastruktury od zera. 

Sam standard MCP zapewnia bezpieczną komunikację między modułami, wykorzystując mechanizmy oparte na protokole SSH. To oznacza, że wszystkie przesyłane dane są chronione, a proces komunikacji między klientem a serwerem jest w pełni zautomatyzowany i zgodny ze standardami bezpieczeństwa. MCP eliminuje konieczność ręcznego zarządzania kwestiami, takimi jak szyfrowanie czy uwierzytelnianie, pozwalając użytkownikom skupić się na wykorzystaniu danych, podczas gdy standard zapewnia niezawodną i bezpieczną wymianę informacji. 

Co więcej, społeczność open-source już zaczyna tworzyć narzędzia dedykowane do monitorowania MCP.

MK: Jakie mechanizmy monitorowania w czasie rzeczywistym oferuje MCP i w jaki sposób przyczyniają się one do lepszego zarządzania danymi oraz zwiększonej przejrzystości współdzielonych zasobów? 

AC: Sam dostawca platformy MCP nie dostarczył natywnych narzędzi do monitorowania MCP Server. Jednak dzięki otwartej architekturze tego rozwiązania możliwe jest wykorzystanie istniejących narzędzi i bibliotek open-source do konfiguracji logowania, rejestrowania błędów oraz monitorowania wydajności. Przykładowo, w Pythonie dostępne są liczne biblioteki, które można łatwo zaadaptować do monitorowania działania MCP Server. Dodatkowo, platformy takie jak Grafana (o której między innymi pisaliśmy tutaj), które pozwalają na wizualizację i analizę danych wydajnościowych, dostarczając praktycznych narzędzi do zarządzania. 

Co więcej, społeczność open-source już zaczyna tworzyć narzędzia dedykowane do monitorowania MCP. Przykładem jest repozytorium na GitHubie: https://github.com/tinybirdco/mcp-tinybird/tree/main/mcp-server-analytics, które oferuje rozwiązanie oparte na bibliotece TinyBird do analizy danych z MCP Server. Choć sami nie mieliśmy jeszcze okazji przetestować tego narzędzia, jego istnienie pokazuje, jak elastyczne i dostosowywalne może być MCP w obszarze monitorowania. Tego typu projekty wskazują na szerokie możliwości konfiguracji MCP, które umożliwią organizacjom pełne dopasowanie systemu do swoich potrzeb. 

Jedną z największych zalet MCP jest jego otwartość na integrację z popularnymi narzędziami.

MK: W jaki sposób MCP wspiera integrację z popularnymi narzędziami, takimi jak Google Drive, Slack czy GitHub, bez kompromisów w zakresie bezpieczeństwa danych? 

AC: Jedną z największych zalet MCP jest jego otwartość na integrację z popularnymi narzędziami, takimi jak Google Drive, Slack czy GitHub, bez kompromisów w zakresie bezpieczeństwa danych. Wraz z premierą MCP firma Anthropic udostępniła bogatą bazę przykładowych implementacji dostępnych na licencji MIT, którą można znaleźć w serwisie GitHub: modelcontextprotocol.io/examples. 

Dzięki tej otwartej bazie użytkownicy mogą szybko pobrać gotowe integracje, co znacznie przyspiesza proces wdrażania MCP w rzeczywistych zastosowaniach. Przykłady obejmują integracje z Google Drive czy Slackiem, ale także bardziej wyspecjalizowane rozwiązania, jak połączenia z Mapami Google, które otwierają nowe możliwości dla systemów LLM w logistyce, czy integracje z Dockerem, umożliwiające monitorowanie stanu kontenerów i ich logów za pomocą Claude’a. 

Dzięki modelom takim jak Claude i protokołom jak MCP, komputery zaczynają „rozumieć” informacje zawarte komunikacji typowej dla ludzi.

MK: Jakie są praktyczne korzyści dla użytkowników końcowych wynikające z zastosowania MCP? Poprawa adekwatności odpowiedzi modeli czy zwiększenie efektywności pracy systemów AI? 

AC: Obecnie znajdujemy się we wczesnej fazie adopcji rozwiązań opartych na dużych modelach językowych (LLM), czego próbą jest właśnie MCP. Tak naprawdę wiele organizacji i użytkowników końcowych dopiero stara się zrozumieć, jak optymalnie wykorzystać potencjał, jaki oferują technologie AI, zarówno w obszarze LLM, jak i w kierunku ogólnej AGI. Firmy eksperymentują z integracją AI w swoich procesach, próbują określić wymierne korzyści z wdrożeń oraz, co równie ważne, uczą się, jak skutecznie łagodzić potencjalne ryzyka związane z szerokim zastosowaniem tych technologii. Ten proces dotyczy całego ekosystemu – od dostawców i integratorów po użytkowników końcowych. 

Najbardziej przełomową zmianą, jaką przynosi MCP i technologie oparte na LLM, jest zmniejszenie bariery komunikacyjnej między człowiekiem a systemami IT. Dzięki modelom takim jak Claude i protokołom jak MCP, komputery zaczynają „rozumieć” informacje zawarte komunikacji typowej dla ludzi– w rozmowach, tekstach, obrazach, czy nawet gestach. To oznacza, że technologie IT będą mogły być wdrażane tam, gdzie wcześniej było to nieopłacalne lub wręcz niemożliwe, np. w niszowych branżach, lokalnych organizacjach czy nawet w domach. Z perspektywy użytkownika końcowego przekłada się to na bardziej adekwatne i użyteczne odpowiedzi od systemów AI, a także na wzrost efektywności pracy, dzięki możliwości współpracy z systemami w sposób bardziej intuicyjny i dostosowany do ludzkich potrzeb. Kto wie, być za parę lat nie będziemy mieli typowych interfejsów użytkownika *GUI) w postaci stron WWW, formatek i tabel a będziemy po prostu rozmawiali z komputerami nie tylko przez asystentów AI ale po prostu w większości rozwiązań IT.