AI, Tech Talk

Dlaczego nie powinniśmy powstrzymywać rozwoju AI? Opinie ekspertów z Capgemini

AI

Gdy już kurz, wzniecony przez demonstratora technologii, jakim jest ChatGPT, opadł, nadszedł czas na refleksję, jakie znaczenie dla branży IT (i nie tylko) mają tzw. wielkie modele językowe i generatywna sztuczna inteligencja. Jakie zagrożenia wynikają z rozwoju AI i jak im zapobiegać? I czy w ogóle powinniśmy się bać AI?

Nieco o historii sztucznej inteligencji

AI coraz bardziej wypełnia naszą codzienną przestrzeń – od inteligentnych urządzeń w naszym domu, poprzez inteligentne rozwiązania w miejscu pracy, aż po inteligentne rozwiązania infrastruktury użyteczności publicznej.

Natomiast to, co w ostatnich miesiącach najbardziej rozpaliło cały świat, to rozwój modeli generatywnych takich, jak ChatGPT czy DALL-E. Nowość? Rewolucja? Otóż niekoniecznie.

– Choć wydaje się nam, że AI to wytwór ostatnich 2-3 lat, to tak naprawdę dziesięciolecia ludzkiej pracy. Początki sztucznej inteligencji to lata 50. XX wieku, gdy przedstawiono koncepcję maszyny, która będzie w stanie naśladować ludzką inteligencję. Pierwsze systemy bardziej opierały się na regułach decyzyjnych. Jeśli na wyjściu dostaniemy sygnał X, to powinna być wybrana akcja Y. Dopiero nieco później, w latach 80. pojawiły się rozwiązania typu machine learning, rozwijały się sieci neuronowe. Pojawił się algorytm propagacji wstecznej, bardzo ważny do tego, żeby móc te sieci dobrze uczyć. 

Dalszy krok to początek XXI wieku, gdy wraz z rewolucją cyfrową pojawiają się duże wolumeny danych, rozwija się Internet, tworzymy takie środowisko, które jest w stanie produkować rozwiązania w zakresie AI. Gdzieś na przełomie pierwszej i drugiej dekady sztuczna inteligencja wchodzi do mainstreamu, staje się powszechnie znana — mówi Wojciech Sarnowski, Senior Data Scientist w Capgemini, od wielu lat realizujący projekty z różnych dziedzin uczenia maszynowego.

Mowa oczywiście o ChatGPT, choć to nie jest jedyny dostępny model. Ale w przeciwieństwie do pozostałych, ChatGPT szybko stał się rozpoznawalny nawet wśród laików świata technologii. Korzystają z niego pracownicy biurowi, programiści, ba, nawet uczniowie szkół. Wejście do mainstreamu spowodowało, że wielu z nas zastanawia się: jak blisko jest AI do ludzkiej inteligencji? I czy może całkowicie ją zastąpić?

Jak pracuje AI?

O tym, skąd ChatGPT pobiera dane, które generuje w postaci tekstu, napisano już wiele razy. Warto natomiast podkreślić jedną rzecz: ten content jest tak naprawdę wypadkową tego, co ChatGPT do tej pory zobaczył i czego się nauczył.

– Natomiast jeśli chodzi o sens tej treści, która jest generowana, z pewnością jest tu jakiś progres, ale to nie jest rozwiązanie, które może konkurować z człowiekiem. Kiedy uczymy nasz model na danych tekstowych z całego Internetu, tak naprawdę nie wiemy, z jakiej części Internetu on skorzysta. Możemy się spodziewać, że zostaną odzwierciedlone najróżniejsze wzorce, również te związane z pewną stronniczością, która pojawia się w contencie dostępnym w sieci — uważa Damian Serwata, Senior Data Scientist w Capgemini. 

I podaje przykład: odpowiedź modelu GPT-3 na pytanie o to, co jest większe — karaluchy czy słonie. – GPT-3 odpowiedział w pewnym momencie, że większe są karaluchy. Wynikało to z tego, że kiedy ludzie opisują karaluchy w sieci, zwykle piszą w stylu: „Jaki ogromny karaluch przyszedł do mnie do domu”. Kontekst tego słowa wskazywał modelowi na wzorzec świadczący o tym, że są to duże zwierzęta — opowiada Damian Serwata.

– ChatGPT daleko do ludzkiej inteligencji. To chyba jeszcze nie jest ten etap. Tam po prostu pod spodem pracuje statystyka. Tylko tyle i aż tyle. Chat ma za zadanie wyprodukować potok słów, natomiast nie jest w stanie wytworzyć treści bardzo kreatywnych. On wie, jakie dane zostały użyte w procesie uczenia i w sprytny sposób na ich bazie konstruuje swoją wypowiedź. Jeśli go poprosisz o sformułowanie jakiejś matematycznej teorii, to on raczej tego nie zrobi — dodaje Wojciech Sarnowski.

Czym jest halucynacja modelu?

Skoro ChatGPT nie zna odpowiedzi na zadane mu pytanie, czy istnieje ryzyko, że sam sobie stworzy jakąkolwiek, być może błędną, odpowiedź?

Odpowiedź brzmi: tak, i nosi to nazwę halucynacji modelu. – Model nie wie, co powiedzieć, więc po prostu wymyśla albo przekazuje tylko część prawdy. Sam miałem taką sytuację. Zapytałem się ChatGPT o pewne pojęcie z rachunku prawdopodobieństwa, poprosiłem, żeby mi wyliczył pewną rzecz. Chat uraczył mnie długim wstępem teoretycznym, wszystko ładnie, pięknie, a na końcu przedstawił błędne rozwiązanie. Jeśli ktoś nie jest ekspertem w danej dziedzinie, może tego nie wychwycić. To jest chyba spory problem. Przyjmujemy na słowo, że to, co ChatGPT wygenerował, jest poprawne. A może takie nie być — przestrzega Sarnowski.

Mroczna strona AI – zagrożenia wynikające z rozwoju sztucznej inteligencji 

Sztuczna inteligencja może zatem przynieść wiele korzyści, ale też liczne zagrożenia. Co zrobić, gdy model językowy nauczy się Twojego własnego imienia i nazwiska? Jak haker może wyciągnąć zastrzeżoną wiedzę z modelu językowego?

– Istnieje kilka rodzajów ryzyk związanych z AI — precyzuje Maksymilian Arciemowicz, ekspert ds. cyberbezpieczeństwa oraz biznesowego wykorzystania sztucznej inteligencji w Capgemini. – Przede wszystkim musimy wziąć pod uwagę najważniejszą kategorię, która określa takie rzeczy jak manipulacja ludźmi, scoring obywateli, bądź dość kontrowersyjne skanowanie twarzy. Kolejną kategorią są systemy wysokiego ryzyka, które mogą mieć znaczący wpływ na zdrowie ludzi, bądź będące krytyczne z punktu widzenia życia ludzkiego. To np. tworzenie recept czy dobieranie lekarstw. Jeżeli tam gdzieś nastąpi pomyłka, konsekwencje mogą być bardzo poważne — rozwija Arciemowicz.

Z danych ekspertów wynika, że hakerzy już wykorzystują sztuczną inteligencję. Wyobraź sobie, że jesteś hakerem o podstawowej znajomości technologii. Wiesz, jak się gdzieś włamać, ale do osiągnięcia celu brakuje Ci wiedzy, jakiegoś elementu układanki. Prosisz o to ChatGPT, generuje Ci kod i nagle zdobywasz umiejętność, której Ci brakowało.

– Biorąc pod uwagę, że Twoja firma posiada systemy wysokiego ryzyka, musisz równolegle zapewnić im odpowiednią ochronę. Wobec tego przez najbliższe lata będzie duże zapotrzebowanie na specjalistów z zakresu cybersecurity. — uważa Maksymilian Arciemowicz. – Jeśli jednak spojrzymy na to, jak tworzy się sztuczną inteligencję, jak buduje się modele, jak powszechne staje się użycie ChatGPT, ciężko będzie powiedzieć ludziom: „Wykorzystujcie AI tylko do szczytnych celów”. Jeśli ktoś będzie chciał zrobić coś złego, to to zrobi. A naszym zadaniem jest z tym walczyć.

– To tak, jak z nożami. Z jednej strony mamy przydatne narzędzie używane każdego dnia do przygotowywania posiłków. Z drugiej, może być ono użyte do rozboju. Czy to znaczy, że mamy nie produkować noży? Oczywiście, że nie — dodaje Grzegorz Borowiec, Konsultant ds. Bezpieczeństwa w Capgemini.

Dlaczego nie powinniśmy postrzymywać rozwoju sztucznej inteligencji?

Opinii na temat możliwości i zagrożeń wprowadzania AI do naszego życia jest wiele i często są ze sobą sprzeczne. Jednak nowej fali cyfrowej rewolucji nie da się już zatrzymać. Procesy poznawcze maszyn wyposażonych w sztuczną inteligencję coraz bardziej zbliżają się do cech ludzkich. AI może zatem uwolnić pracowników od konieczności wykonywania powtarzalnych lub niebezpiecznych prac, ale może też nas w pewnym stopniu zastąpić.

Przykład? Lekarz pierwszego kontaktu. Rozmawiasz z AI, podajesz objawy, a jeśli na podstawie wywiadu sztuczna inteligencja wykryje, że coś jest nie tak, może skierować Cię do konkretnego, „prawdziwego” lekarza, który postawi diagnozę i podejmie dalsze leczenie. Inne przykłady to choćby copywriterzy, dziennikarze czy programiści. Skupmy się teraz na tych ostatnich.

Czy deweloperzy powinni się bać o swoje miejsca pracy? – Jeśli Twoja praca jest twórcza, to raczej cieszyłbym się na takie rozwiązania, jak ChatGPT, bo one pomogą nam zautomatyzować tą najprostszą, ale też najbardziej żmudną pracę, polegającą na napisaniu jakichś fragmentów kodu, które są powtarzalne. Natomiast nie ma możliwości, żeby takie rozwiązanie całkowicie zastąpiło osobę zmagającą się na co dzień z typowymi, kreatywnymi problemami tworzenia oprogramowania — uważa Damian Serwata.

Podobnego zdania jest Kamil Świstowski, Technical Architect w Capgemini. – Na chwilę obecną rynek IT jest nienasycony, a ekspertów ciągle brakuje. Natomiast AI może wspomóc różne obszary zwykłej pracy projektowej. Chociażby takie prozaiczne czynności, jak podsumowywanie spotkań, raportowanie, podsumowania. To jest bardzo monotonna i powtarzalna praca, i nie ma sensu, żeby osoba, która ma pewne istotne umiejętności techniczne, traciła na nie czas — podaje przykład.

AI nie zastąpi naszej pracy, ale może ją ułatwić

Hanna Porożyńska, People Units Manager w Capgemini, patrzy w przyszłość równie optymistycznie. – Osobiście jestem bardzo entuzjastycznie nastawiona do AI i do tego, jak wspomoże naszą pracę. Już nie mogę się doczekać, jak przejmie ode mnie wszystkie nudne zadania,  wszystkie raporty i segregację maili, pomoże mi z moim kalendarzem. Wyobrażam sobie przyszłość w ten sposób, że każdy z nas zyska takiego asystenta, kogoś, komu będziemy mogli oddać te mniej przyjemne zadania, żeby się skupić na tych ciekawszych — uważa Porożyńska.

I jeszcze jedna opinia, tym razem dotycząca pracy w QA: – Generatywne modele AI są po prostu kolejnym narzędziem wspomagającym pracę deweloperów. Więc w efekcie najprawdopodobniej będzie jeszcze więcej oprogramowania, a jeszcze więcej oprogramowania oznacza jeszcze więcej testów. Więc raczej nie mamy czym się martwić — mówi Tomasz Czyżewski-Klimkiewicz, Starszy Konsultant Oprogramowania w Capgemini.

Testujemy pracę AI, a ona… naszą?

Pozostaje nam jeszcze kwestia testowania, czyli co możemy zrobić, żeby mieć większą pewność, że produkt, który oddajemy klientowi, ma takie cechy, jakich pożądamy. 

– Mamy już dostępne modele i rozwiązania z zakresu AI, z których możemy korzystać. To jest głównie Generative AI, czyli przetwarzanie tekstu na tekst, przetwarzanie tekstu na audio albo na wideo. Albo, moim zdaniem najciekawsze, przetwarzanie tekstu na taski, czyli na to, jak AI może za nas robić pewne rzeczy. I tak, jak AI jest wykorzystywane przez programistów, tak samo możemy w testach wykorzystać kod automatyzacji testów. Dużym wsparciem okazują się takie narzędzia, jak np. już istniejący GitHub Copilot, który może nam pomóc w pisaniu kodu do testów automatycznych — wskazuje Hanna Porożyńska. 

Sama AI może także przepisać już istniejące testy automatyczne z jednego języka na inny. Może rozwiązać skomplikowany problem logiczny albo przełożyć jakiś algorytm na test. – Natomiast mówimy tutaj o wspomaganiu tworzenia testów automatycznych, czyli AI nam napisze jakiś kod według zadanego pytania. Na końcu zawsze to człowiek będzie musiał zweryfikować, czy to faktycznie działa i odpowiada naszym potrzebom — zaznacza Porożyńska.

Podsumowanie

Być może AI spowoduje, że niektóre zawody przestaną istnieć. Będziemy musieli się przebranżowić, nauczyć nowych narzędzi. Jednak nasi eksperci z Capgemini są zgodni: jeżeli znaczna część społeczeństwa dzięki temu będzie miała dostęp do lepszej jakości usług, a ich komfort życia się poprawi, to będzie bardzo dobry krok.

Czy warto, by przeciętny Kowalski znał AI i potrafił z niej korzystać w sposób etyczny? – Chciałbym, żeby zrozumiał, że sztuczna inteligencja to nie jest istota myśląca. To jest kalkulator. Świetny, mega skomplikowany, ale nadal kalkulator. I nie ma co się go bać — przekonuje Kamil Świstowski.

– To jest chyba największa rewolucja technologiczna moich czasów. I niestety trochę taka chaotyczna, dotycząca wielu dziedzin, dotykająca nas z każdej strony. Ja jednak chcę być częścią tego, chcę obserwować, co się dzieje i zobaczyć, w jaki sposób możemy wykorzystać AI w naszym życiu, dla naszych potrzeb. Ale właśnie musimy cały czas pamiętać również o obecnych ograniczeniach i zagrożeniach. Żadne AI nie wyręczy nas z obowiązku posiadania ostrożności i zdrowego rozsądku — podsumowuje Tomasz Czyżewski-Klimkiewicz.

___

Interesuje Cię wszystko, co dotyczy rozwoju AI w przyszłości? Chcesz wiedzieć więcej na temat zagrożeń, jakie może nieść za sobą sztuczna inteligencja i umiejętnie im zapobiegać? Już 5.12. apraszamy na TECH TALK | MEET UP #3 we Wrocławiu, poświęcony właśnie AI. Porozmawiamy m.in. o tym:

  • Jaki wpływ mają wielkie modele językowe i generatywna sztuczna inteligencja?
  • Jak wpleść LLM jako komponent w Twoją architekturę?
  • Czym jest prompt engineering i dlaczego jest to niezbędna umiejętność?
  • Czym jest RAG i dlaczego Wasi klienci tego potrzebują?

LINK DO WYDARZENIA

Zdjęcie główne pochodzi z Envato Elements.

Od ponad ośmiu lat pracuje jako redaktorka, dziennikarka i copywriterka, a od niedawna dba o treści oraz rozwój portalu poświęconego branży IT. Autorka wywiadów, tekstów eksperckich, newsów.

Podobne artykuły