Jakie są największe ryzyka i zagrożenia związane z wdrożeniem narzędzi AI? Wiele pisałam już o korzyściach z używania narzędzi AI. Sztuczna inteligencja pozwala zoptymalizować i przyspieszyć pracę, ograniczyć koszty i podnieść jakość wytwarzanych treści i produktów. Ale… No właśnie, czy jest jakeiś ALE? Żeby nie było tak różowo, AI ma również wady i ciągle wzbudza wiele kontrowersji. A jeśli chcesz dowiedzieć się więcej o AI i poznać jak narzędzia AI pomagają w rozwoju biznesu pobierz mój darmowy e-book „Sztuczna inteligencja w biznesie on-line”.
Nieodskonałość narzędzi
W mojej ocenie – największą wadą, a jednocześnie poencjalnym ryzykiem jest to, że AI ciągle nie jest doskonała. AI nadal nie ma zdolności poznawczych jak człowiek i nie zawsze domyśli się o co nam chodzi. Mądrość AI zależy od tego jak poprawny zbiór danych zastosowano do nauki i jak aktualny on jest.
W zależności od narzędzia, zakres danych na jakich AI było trenowane może być różny. Np. ChatGPT w wersji 3.5, która jest darmowa nie ma dostępu do Internetu w czasie rzeczywistym. Trenowany był na danych zgromadzonych do stycznia 2022 roku. Jego odpowiedzi będą więc bazowały na wiedzy aktualnej na tamten czas.
Niedoskonałość narzędzi AI objawia się w różny sposób. Np. generatory obrazów nie zawsze radzą sobie z kończynami albo proporcjami twarzy. Wiele narzędzi nakłada również różne restrykcje na prompty. Dla przykładu: Canva zablokowała mi kiedyś próbę wygenerowania rysunku z mężczyzną uzależnionym od kawy, który miał trzymać w ręku kubek kawy. Problemayczne oczywiście było słowo “uzależniony”.
Modele językowe również nie zawsze radzą sobie z odpowiednim zinterretowaniem kontekstu, idiomów czy regionalizmów zwłaszcza jeśli konwersacja jest w języku polskim.
Okazuje się również, że narzędzia AI nie są odporne na złe intencje użytkowników i np. chatboty stają się podatne na manipulacje. Ostatnio viralowy stał się przykład chatbota DPD, który zaczął przeklinać w czasie rozmowy z klientem. W grudniu 2023 chatbot Chevroleta sprzedał samochód za 1$...
Dlatego każde wdrażane narzędzie powinniśmy dobrze przetestować, żeby nie okazało się, że jego wdrożenie przyczyni się do naszych problemów.
Obawy związane z bezpieczeństwem i prywatnością danych
Obawy o bezpieczeństwo i prywatność danych są ważne, zwłaszcza gdy korzystamy z narzędzi sztucznej inteligencji (AI), które często są dostępne jako usługi w chmurze, czyli SAAS (Software as a Service). Co to oznacza? Po prostu nie instalujemy tych narzędzi na swoich własnych serwerach. Zamiast tego zakładamy konto na stronie aplikacji i korzystamy z niej online. Wprowadzone przez nas dane są przetwarzane w obrębie tej aplikacji.
W praktyce oznacza to, że jeśli ktoś używa narzędzi AI do przetwarzania ważnych danych swojej firmy, to te dane są przetwarzane przy użyciu narzędzi firmy zewnętrznej. Jednak warto zaznaczyć, że na przykład ChatGPT nie zapisuje tego, co wprowadzisz w swoim zapytaniu. System ten sam o tym informuje.
Chociaż istnieje możliwość zapisywania sesji, aby do nich wrócić w przyszłości, należy być ostrożnym i dbać o bezpieczeństwo haseł, aby nie trafiły do niepowołanych rąk. W pewnych sytuacjach, zwłaszcza gdy przetwarzasz dane swoich klientów za pomocą narzędzi AI, może być konieczne poinformowanie o tym w polityce prywatności, regulaminie lub innym dokumencie. To zależy od rodzaju narzędzia i sposobu, w jaki przetwarza dane, a przede wszystkim od tego, jakie konkretnie dane są przekazywane.
Brak zaufania klientów do rozwiązań AI
Wśród wielu osób AI nie wzbudza jeszcze wystarczająco dużego zaufania. Zbyt gwałtowne wdrożenie narzędzi AI lub wdrożenie ich w złych obszarach może wywołać opór na wielu płaszczyznach, nie tylko wśród pracowników ale również wśród klientów lub partnerów biznesowych.
Bardzo popularne są ostatnio ChatBoty w obsłudze klienta. Pozwalają one zredukować liczbę zatrudnianych osób przy jednoczenym zapewnieniu dostępnu do usługi. W końcu Chaty odpowiadają szybko, nie potrzebuję przecież przerwy, nie będą miały gorszego dnia… Czy aby napewno?
Dobrym przykładem a raczej antyprzykładem jest już wcześniej wspomniany chat, który zaczął przeklinać w konwersacji z klientem.
Aby zrazić klientów nie trzeba jednak aż tak skrajnych sytuacji. Wystarczy, że Chat będzie udzielał złych odpowiedzi lub będzie bardzo oporny w udzielaniu konkretnych informacji. Wiele razy spotkałam się z tym, że Chatboty bardzo utrudniały przełączenie na rozmowę z prawdziwym człowiekiem. Kiedy ChatBot jest jedynym kanałem dostępnym dla klientów, a rozmowa z nim wywołuje tyko negatywne emocje może to spowodować nawet utratę klientów. Myślę, że między innymi dlatego ciągle wielu klientów pozostaje nieufnych wobec niektórych rozwiązań.
Obawy pracowników
Z drugiej strony mamy obawy pracowników. Wdrożęnie sztucznej inteligencji w oganizacji może budzić wiele obaw wśród pracowników. Największą z nich jest zwykle lęk przed utratą zatrudnienia. Pracownicy często boją się utraty pracy, tego że staną się niepotrzebni. Takie obawy mogą wywoływać mniej lub bardziej świadomy opór wśród pracowników. Może być konieczne rozwianie ich wątpliwości w tym zakresie.
Często pojawiają się też obawy związane z utratą kontroli nad pewnymi obszarami – “Jak to komputer zrobi to lepiej niż ja!”. Pracownicy, podobnie jak klienci mogą nie mieć zaufania do sztucznej inteligencji, tego że wykona ona zadania równie dobrze jak człowiek. Może to wynikać z braku zrozumienia technologii lub braku odpowiedniego przeszkolenia.
Obawy pracowników mogą wynikać również ze “zwykłego” lęku przed zmianą. Wdrożenia systemów często wywołują opór wśród kadry.
Kwestie prawne
Często omawiane są również kwestie prawne dotyczące sztucznej inteligencji. Na przykład, ludzie zastanawiają się:
- Kto jest właścicielem prac stworzonych przez sztuczną inteligencję?
- Skąd brane są dane, którymi uczona jest sztuczna inteligencja?
Były nawet protesty artystów, których prace były „podrabiane” przez sztuczną inteligencję. Obecnie nie ma jeszcze wielu zasad i przepisów, które byłyby jakieś konkretne dla twórców narzędzi sztucznej inteligencji. To dotyczy zarówno danych używanych do nauki, jak i tego, jak ludzie korzystają z narzędzi sztucznej inteligencji. Czasami firmy wprowadzają swoje własne zasady dotyczące tego, jakie narzędzia mogą być używane przez pracowników.
Wydawcy starają się też ustalać zasady dla dzieł i publikacji, przy których tworzeniu korzystano w jakiś sposób z sztucznej inteligencji. Mimo że nie wszystko jest jeszcze uregulowane, trzeba pamiętać o bezpieczeństwie, prywatności danych i prawach autorskich, kiedy korzystamy z technologii sztucznej inteligencji.
Problemy etyczne
Pozostają jeszcze wątpliwości natury etycznej. Powszechne wykorzystanie narzędzi sztucznej inteligencji rodzi wiele pytań, często bez jednoznacznych odpowiedzi.
- Czy można pisać pracę magisterską z Chatem GPT?
- Czy można zarabiać i w jaki sposób na tym co stworzy AI?
- Czy zawsze należy informopwać klienta, że obsługuje go AI lub że produkt był stworzony z pomocą narzędzi sztucznej inteligencji?
- Czy twórcy internetowi powinni informować kiedy używają AI do produkcji swoich treści?
Obrazy i treści wygenerowane przez AI mogą być wykorzystywane do manipulacji np. w badaniach naukowych lub przemysłowym wykorzystaniu AI. Obecnie mamy rok wyborczy. W przestrzeni publicznej trwa debata na temat tego, jaki wpływ AI będzie miała na wynik wyborów w Stanach Zjednoczonych (i nie tylko tam).
Ponadto ciągle istnieje ryzyko wykorzystania AI do przestępstw.
W życiu publicznym pojawiły się też debaty na temat dostępności, otwartości AI. Kto i do czego powinien móc korzystać z AI? Kto powinien zająć się kwestią edukacji i informowania społeczeństwa na temat sztucznej inteligencji?
Ryzyka i zagrożenia związane z wdrożeniem narzędzi AI – podsumowanie
Mimo, że ryzyka, które opisałam mogą wydawać się straszne, uważam, że nie należy się bać technologii i należy podążać za zmianą.
Przy zachowaniu zdrowego rozsądku większość wyżej opisanych obaw będzie bezzasadna. Pozostałe można rozwiać dodatkowymi szkoleniami i odpowiednim informowaniem użytkowników.
Chcę Cię drogi czytelniku zostawić z jedną myślą. Narzędzia AI to nadal tylko narzędzia i tak należy je traktować. Są co prawda „nieco” bardziej zaawansowane niż młotek, ale nadal są to narzędzia. A narzędzia należy wdrażać rozsądnie, kontrolować ich pracę oraz mierzyć wyniki.
Jestem Magda, ta z narudo.pl – entuzjastka technologii, project manager i analityk
IT. Wspieram przedsiębiorców i twórców internetowych w skutecznym wykorzystywaniu narzędzi online i sztucznej inteligencji oraz organizacji i planowaniu. Wierzę w optymalizację pracy i efektywne zarządzanie, jestem gotowa podzielić się swoim doświadczeniem i wiedzą abyśmy mogli pracować mądrzej, nie ciężej.