Rok pod znakiem upowszechnienia Sztucznej Inteligencji

Rok pod znakiem upowszechnienia Sztucznej Inteligencji
Andrzej Chybicki: projekty związane z wykorzystaniem sztucznej inteligencji to znacząca część naszych projektów
Rok pod znakiem upowszechnienia Sztucznej Inteligencji

Koniec roku to czas podsumowań. W świecie IT wydarzyło się wiele interesujących rzeczy, dlatego w tym artykule postanowiliśmy skupić się na AI. Rozwój sztucznej inteligencji i jej obecność w mediach przyspieszyły do niespotykanej dotąd skali. Narzędzia oparte na Large Language Models (LLM) zostały spopularyzowane i szeroko udostępnione użytkownikom z różnych branż, nie tylko technologicznych. Postanowiliśmy podsumować rok z Andrzejem Chybickim, CEO Inero Software. Oto jego lita 5 kluczowych wydarzeń mijającego roku.

 

Fakt 1: OpenAI – sztuczna inteligencja staje się powszechnie dostępna

OpenAI odegrało ogromną rolę w popularyzacji sztucznej inteligencji w kontekście zrozumienia ludzkiego języka. W 2022 roku wydali ChatGPT, a w kolejnych miesiącach prezentowali nowe, ulepszone modele. Te postępy nie tylko poprawiły wydajność istniejących aplikacji, ale również otworzyły nowe możliwości dla AI w ochronie zdrowia, administracji, marketingu i wielu innych.

W 2023 roku do ChatGPT wprowadzono wiele ulepszeń, charakteryzujących się zaawansowanymi algorytmami uczenia dla lepszej dokładności i bardziej zniuansowanych konwersacji, spersonalizowanymi interakcjami z użytkownikami, rozszerzonym wsparciem językowym dla globalnej dostępności oraz szerszą integracją z aplikacjami. OpenAI podkreślało kwestie etyczne i redukcję uprzedzeń, włączyło uczenie się w czasie rzeczywistym dla aktualnych treści, poprawiło możliwości interakcji multimedialnych, a także wzmocniło niezawodność i solidność narzędzia. Dodatkowo, ChatGPT został dostosowany do konkretnych branż, zapewniając specjalistyczne funkcjonalności i wiedzę, co stanowi znaczący skok w technologii AI i aplikacjach skoncentrowanych na użytkowniku.

Komentarz eksperta

Open AI był pierwszym szeroko rozpoznawalnym dużym modelem językowym. Zapewne w najbliższych latach będziemy widzieli różne odmiany modeli LLM, przeznaczone do specyficznych zastosowań – de facto to już od paru miesięcy się dzieje. OpenAI, mimo bycia pionierem, przynajmniej w aspekcie rozpoznawalności, nie zawsze jest uważane za najlepszy i najbardziej uniwersalny model. Kierunek rozwoju to na pewno upowszechnienie na podobnej zasadzie jak kiedyś było z komputerami (tj. LLM jak PC) oraz specjalizacja, czyli wyspecjalizowane modele językowe, przeznaczone do konkretnych zastosowań, albo nawet podmiotów czy ludzi.

 

Fakt 2: GitHub Copilot – lider w implementacji AI/LLM

Jedną z kluczowych ról w rozwoju sztucznej inteligencji odegrał Microsoft, współpracujący z OpenAI. W ciągu ostatniego roku Microsoft kontynuował doskonalenie swojej wizji Microsoft Copilot. Skupmy się na rozwiązaniu dla programistów: GitHub Copilot. W 2023 roku przeszedł on znaczące zmiany i ulepszenia. Oto kluczowe aktualizacje:

W 2023 roku GitHub Copilot wprowadził kilka znaczących ulepszeń, wzmacniając swoją rolę w rozwoju oprogramowania napędzanego przez AI. Chat GitHub Copilot,  jest teraz ogólnie dostępny i napędzany przez GPT-4 od OpenAI, oferuje bardziej precyzyjne sugestie i wyjaśnienia kodu, używając języka naturalnego, aby pomagać programistom w różnych językach. Ta funkcja jest zintegrowana zarówno z platformą GitHub, jak i jej aplikacją mobilną, wspierając kodowanie, żądania (pull requests) i dokumentację. Dodatkowo, wprowadzono GitHub Copilot Enterprise, dostosowując narzędzie do specyficznych potrzeb organizacyjnych, pomagając programistom szybko dostosować się do baz kodów swoich organizacji i usprawniając liczne zadania,  mając na celu zwiększenie produktywności i bezpieczeństwa na poziomie korporacyjnym. Został również uruchomiony Program Partnerski GitHub Copilot, integrując Copilot z różnymi narzędziami i usługami deweloperskimi, tworząc szeroki ekosystem, który wzmacnia możliwości programistów korzystających z AI. Na koniec GitHub ujawnił nowe funkcje zabezpieczeń oparte na AI w swoim pakiecie Advanced Security, w tym system zapobiegania lukom bezpieczeństwa w czasie rzeczywistym oraz posiada funkcje testowania bezpieczeństwa aplikacji, aby wykrywać i naprawiać luki w kodzie oraz tajemnice, dalej zabezpieczając proces tworzenia oprogramowania.

Komentarz Eksperta

Dzięki współpracy z OpenAI, Microsoft w 2023r. stał się liderem jeśli chodzi o wdrażanie rozwiązań AI/LLM na świecie. Strategia Microsoftu, w tym zakresie opiera się na stosowaniu modelu LLM do tego, aby wspierał (ale nie zastępował) możliwie dużą liczbę czynności i procesów wykorzystujących produkty Microsoft. Szczególne znaczenie miało także zapewnienie odpowiedniego poziomu SLA (uspójnionego z resztą usług Azure) oraz bezpieczeństwa danych. Do najistotniejszych zmian, oprócz wspominanego GitHub CoPilota (który ma za zadanie wspierać programistów w kodowaniu), można zaliczyć, wtyczki CoPilota dostępne w praktycznie wszystkich flagowych produktach tej firmy (Word, Excel, PowerPoint, Outlook).
W Grudniu 2023, nastąpiła także prezentacja rozwiązania CoPilot Studio, które umożliwia tworzenie systemów IT low-code / no-code z istotnym wsparciem modelu OpenAI. To w efekcie umożliwia łatwe rozbudowanie już istniejących w Azure rozwiązań low-code, takich jak np. Azure Agents z botami konwersacyjnymi czy adapterami do baz danych wspieranymi przez AI. Mimo ze CoPilot Studio na chwilę obecną nie jest dostępny w docelowej formie, Microsft jasno komunikuje kierunki rozwoju oraz to jakie zalety, wynikające z jego użycia mogą doświadczyć zarówno deweloperzy, inżynierowie jak i użytkownicy. Z prezentacji przedstawicieli MS można wysnuć wniosek iż, celem Microsoftu jest obniżenie progu wejścia w zakresie tworzenia oraz wdrażania nowych, zaawansowanych rozwiązań AI, gdyż wykorzystanie platform low-code nie wymaga tak głębokiej wiedzy technicznej jak w przypadku tradycyjnego kodowania. Możemy się spodziewać powszechnego zainteresowania tymi rozwiązaniami, nie tylko największych firm wykorzystujących MS Azure w najbliższych latach. Obecnie w gronie ekspertów, pytanie brzmi nie “czy używać AI” ale jak ją wdrożyć aby nie zostać w tyle za konkurencją. Te podmioty, które w najbliższych latach stworzą spójną strategię w zakresie wchłaniania produktów opartych o AI do swoich procesów będą mogły znacząco skorzystać na rewolucji która już ma miejsce.

Fakt 3: Europejski akt ws. sztucznej inteligencji

14 czerwca 2023 roku Parlament Europejski zajął pozycję negocjacyjną w sprawie sztucznej inteligencji. Priorytetem Parlamentu było zapewnienie, że systemy AI używane w UE są bezpieczne, przejrzyste, możliwe do śledzenia i niedyskryminujące. Parlament zaplanował również ustanowienie neutralnej technologicznie, jednolitej definicji AI, która mogłaby być stosowana do przyszłych systemów AI. Akt ustala różne zasady dla różnych poziomów ryzyka AI.

Niedopuszczalne ryzyko: Systemy AI o niedopuszczalnym ryzyku to systemy uznane za zagrożenie dla ludzi i będą zakazane. Należą do nich:

  • Manipulacja poznawczo-zachowawcza osób lub konkretnych grup podatnych na wpływy: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań
  • Ocena społeczna: klasyfikacja osób na podstawie zachowania, statusu socjoekonomicznego lub cech osobistych
  • Systemy identyfikacji biometrycznej w czasie rzeczywistym i zdalnej, takie jak rozpoznawanie twarzy Niektóre
  • wyjątki mogą być dozwolone: Na przykład „post” systemy zdalnej identyfikacji biometrycznej, gdzie identyfikacja następuje po znacznym opóźnieniu, będą dozwolone do ścigania poważnych przestępstw, ale tylko po zatwierdzeniu przez sąd.

Systemy AI niedopuszczalnego ryzyka

Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. To m.in.:

  • Poznawczo-behawioralna manipulacja ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.
  • Identyfikacja biometryczna i kategoryzacja osób fizycznych.
  • Scoring (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.

Pewne wyjątki mogą być dopuszczalne do celów egzekwowania prawa. Systemy zdalnej identyfikacji biometrycznej działające w czasie rzeczywistym będą dozwolone w ograniczonej liczbie poważnych przypadków, natomiast systemy identyfikujące ze znacznym opóźnieniem będą mogły być używane do ścigania poważnych przestępstw, ale wyłącznie po zgodzie sądu.

Systemy AI wysokiego ryzyka

Systemy sztucznej inteligencji negatywnie wpływające na bezpieczeństwo lub prawa podstawowe będą uznane za systemy wysokiego ryzyka.

Zostaną podzielone na dwie kategorie:

1) Systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. To np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) Systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych:

  • Zarządzanie i eksploatacja infrastruktury krytycznej.
  • Edukacja i szkolenie zawodowe.
  • Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia.
  • Dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych.
  • Ściganie przestępstw.
  • Zarządzanie migracją, azylem i kontrolą granic.
  • Pomoc w interpretacji prawnej i stosowaniu prawa.

Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.

*źródło https://www.europarl.europa.eu/news/pl/headlines/society/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai

Komentarz Eksperta:

Zapewnienie bezpieczeństwa oraz poufności danych to z pewnością jedna najistotniejszych kwestii dotyczących wdrażania rozwiązań AI. Liczni eksperci wskazują, że mimo dobrych intencji komisji Europejskiej, proponowane rozwiązania przyczynią się do zmniejszenia konkurencyjności rodzimego rynku twórców AI, co w efekcie zwiększy dystans pomiędzy Europą a liderami w tej dziedzinie (tj. USA i Chinami). Osobiście podzielam te obawy, tutaj dobrym przykładem może być analogiczna sytuacja jaka miała miejsce ok. 15 lat temu, kiedy wdrażana była chmura obliczeniowa. Wtedy w EU też powstał akt regulujący zasady dostępu i poufności danych (GDPR) który do tej pory jest podstawą regulacyjną w tym zakresie. Jednocześnie, największe rozwiązania, z których większość krajów EU korzysta to rozwiązania wytworzone w USA, dla których priorytetem był swobodny rozwój technologii a dopiero w drugiej kolejności ramy prawne. Niestety, wiele wskazuje na to że podobnie może być jeśli chodzi o AI.

Fakt 4: Gemini: nowy model od Google

Bez wątpienia premiera Gemini była najważniejszym wydarzeniem drugiej połowy 2023 roku, które odbiło się szerokim echem. Te nowe narzędzie jest wynikiem współpracy licznych zespołów Google. Zostało zbudowane od podstaw jako multimodalne, co oznacza, że ​​może generalizować i bezproblemowo rozumieć, łączyć różne rodzaje informacji, w tym tekst, kod, audio, obraz i wideo.

Gemini 1.0 zostało przeszkolone do rozpoznawania i rozumienia tekstu, obrazów, dźwięku jednocześnie, dzięki czemu lepiej rozumie złożone informacje i może odpowiadać na pytania, dotyczące skomplikowanych tematów. To sprawia, że ​​jest szczególnie dobre w wyjaśnianiu rozumowania w złożonych dziedzinach, takich jak matematyka i fizyka.

Podczas prezentacji dotyczącej wydania API Gemini dla deweloperów dużo czasu poświęcono AI Studio, narzędziu do tworzenia kodu. Drugim głównym tematem był Vertex AI, bardziej zaawansowany program, który umożliwia „zarówno szkolenie, jak i wdrażanie modeli uczenia maszynowego (ML) i aplikacji AI”. Google oferuje możliwość przeniesienia wstępnego projektu opracowanego w AI Studio do Vertex AI, aby dodać dodatkowe funkcje dostępne w ramach większej platformy Google Cloud.

Komentarz Eksperta:

Do wyścigu LLM oficjalnie dołączył Google. Najciekawszym aspektem tego co proponuje jest to, że ich model będzie działał w trzech wersjach Ultra (najbogatszej), Pro oraz Nano, przy czym ta ostatnia będzie przeznaczona do działania na telefonach komórkowych. Nie wiemy jeszcze czy Nano będzie w całości uruchamiany na urządzeniach klienckich (smartfonach) czy będzie jedynie swego rodzaju rozwinięciem Google Asisstant.
Warto tez podkreślić, że Google, podobnie jak Microsoft, będzie oferował usługi Gemini jako elementy swoich flagowych produktów takich jak SpreadSheets, Google Docs oraz inne.

 

Fakt 5: Postępy w przetwarzaniu języka naturalnego (NLP)

Rok 2023 był przyniósł znaczący postęp w dziedzinie przetwarzania języka naturalnego (NLP). Badacze i firmy na całym świecie poczynili znaczne kroki w poprawie dokładności i wszechstronności modeli NLP. Te postępy doprowadziły do bardziej zaawansowanego rozumienia i generowania ludzkiego języka przez maszyny, otwierając drogę do bardziej intuicyjnych i naturalnych interakcji człowieka z komputerem. W tym roku nastąpiło wdrożenie zaawansowanych technologii NLP w różnych aplikacjach, od chatbotów obsługi klienta po złożone narzędzia analizy danych, rewolucjonizując sposób, w jaki codziennie wchodzimy w interakcje z technologią. Postęp w technologii NLP nie tylko wzmocnił istniejące aplikacje, ale również otworzył nowe możliwości dla AI w takich dziedzinach jak edukacja, tworzenie treści i komunikacja wielojęzyczna.

Komentarz Eksperta:

Technologie AI coraz śmielej przełamują barierę rozumienia języka naturalnego. Tym samym powoli zaciera się granica pomiędzy danymi ustrukturyzowanymi jakie do tej pory używaliśmy w systemach IT a wiedzą ludzką. Wydaje się stworzenie AGI czyli maszyny dorównującej albo nawet przewyższającej przeciętnego człowieka w wielu aspektach jest już tylko kwestią czasu. Wyzwaniem dla świata nauki, biznesu i polityków będzie teraz pokierowanie rozwojem AI tak, aby służył on możliwie szeroko rozumianej ludzkości i nie powodował zagrożeń, których wielu (prawdopodobnie) słusznie się obawia.

 

Ostatnie miesiące były bogate w interesujące premiery w dziedzinie sztucznej inteligencji. Prezentacja nowych dużych modeli językowych, otworzyła szereg możliwości ich zastosowania w codziennych zadaniach, zarówno w pracy programistycznej, jak i w kreatywnych zespołach. Europejskie władze starają się nadążyć za tymi zmianami i dostosować przepisy prawne do aktualnej sytuacji technologicznej. W nadchodzących miesiącach z pewnością zobaczymy więcej nowości, ponieważ wiodący gracze, tacy jak Google i Microsoft, rywalizują w tworzeniu rozwiązań wykorzystujących sztuczną inteligencję.

Related Posts