Wywiady

„Chciałabym, aby sztuczna inteligencja była powszechnie wykorzystywana w medycynie” – wywiad z Agnieszką Mikołajczyk

Agnieszka Mikołajczyk

Agnieszka Mikołajczyk na co dzień pracuje w Voicelab.ai i zajmuje się algorytmami, a także modelami sztucznej inteligencji. Jej specjalizacją pozostaje rozwój modeli NLP. Agnieszka równie chętnie udziela się w projektach typu open-source. Czy jej zdaniem przyszłość medycyny faktycznie będzie opierać się o sztuczną inteligencję? I co tak naprawdę możemy na tym zyskać? Agnieszka podzieliła się także szczegółami dotyczącymi problemów z „uprzedzeniami” algorytmów, które sama stara się wyeliminować. Zapraszam do lektury.

Spis treści

Cześć Agnieszka! Czym ostatnio się zajmujesz i co pochłania najwięcej Twojego czasu?

Cześć Aleksander! Ostatnio dużo się dzieje! Tak się składa, że właśnie wczoraj wróciłam z konferencji MICCAI, która odbyła się w Singapurze. To jedna z największych konferencji na świecie, która skupia się na tematyce zastosowań AI w medycynie i idealnie wpasowuje się w tematykę doktoratu, który robię na Politechnice Gdańskiej. Oprócz MICCAI, ostatnie tygodnie poświęciłam na przygotowaniach do wyzwania na Polevalu, który zgłosiliśmy razem z zespołem NLP z Voicelabu, dopinaniu formalności związanych z obroną doktoratu, oraz codziennej pracy w firmie Voicelab AI.

Pamiętasz moment, w którym zainteresował Cię machine learning i szeroko pojęta sztuczna inteligencja? Co sprawiło, że zdecydowałaś się wejść w ten świat?

Pamiętam. Byłam wtedy na studiach inżynierskich na kierunku Automatyka i Robotyka. Mieliśmy zajęcia z wprowadzenia do metod sztucznej inteligencji z profesorem Michałem Grochowskim, moim obecnym promotorem. Byłam zachwycona ideą sieci neuronowych, które na podstawie przekazanych danych były w stanie nauczyć się wykonywać wybrane zadania.

Już wtedy wiedziałam, że moim tematem pracy dyplomowej inżynierskiej będzie projekt związany z uczeniem maszynowym. Do dzisiaj wypominam w żartach mamie, że ciągłym namawianiem do obserwowania “pieprzyków” (znamion skórnych) na ciele zainspirowała mnie do wybrania takiego tematu pracy: klasyfikacji znamion skórnych w celu wczesnej diagnostyki czerniaka złośliwego.

Agnieszka Mikołajczyk jest jedną z prelegentek tegorocznej konferencji Infoshare 2022. Bilety na to wydarzenie z 15 proc. zniżką możesz kupić tutaj.

Jakie zmiany zaobserwowałaś we wspomnianym segmencie podczas swojej kariery? Które z nich uważasz za najbardziej przełomowe i czego możemy spodziewać się na przestrzeni najbliższych lat?

Trafne pytanie. Zmian w ogólnie pojętym uczeniu maszynowym było wiele. Pewnie liczne z nich przegapiłam bo nie dotyczyły ściśle mojej dyscypliny, niektóre dotknęły szersze, a inne węższe grona inżynierów czy badaczy. Dla mnie jedne z największych rewolucji dotyczyły nowych trendów w projektowaniu architektur modeli neuronowych. Po pierwsze, rekordowy wynik sieci konwolucyjnej AlexNet w 2012 roku, w wyzwaniu ImageNet, który zapoczątkował falę nowych rozwiązań opartych na filtrach konwolucyjnych: spowodowało to dynamiczny wzrost efektywności sieci do analizy obrazu.

Drugą taką architekturą są transformery (2017), które dzięki niezwykle efektywnemu mechanizmowi uwagi zrewolucjonizowały przetwarzanie języka naturalnego. Jako ostatnią ważną zmianę trendu wymieniłabym powrót do podejścia w stylu “data centric”. Andrew Ng, jeden ze znanych specjalistów w AI głośno krytykuje podejście inżynierów, którzy skupiają się na rozwoju algorytmów i modeli, kosztem ignorowania danych. Jego zdaniem powinniśmy skupić się bardziej na danych, których używamy, bo to z ich algorytmy czerpią wiedzę.

Czym dokładnie zajmujesz się w VoiceLab?

W VoiceLabie pracuję jako Team Leaderka zespołu NLP. Nasz zespół skupia się na rozwoju, badaniu i wdrażaniu algorytmów z NLP (przetwarzanie języka naturalnego). Musimy być zawsze na bieżąco z aktualnymi nowościami w NLP, czytamy artykuły, analizujemy nowe zbiory danych oraz biblioteki. Ponadto, sami czasami publikujemy własne zbiory (np. Na wyzwaniu Poleval 2021 i 2022), modele, oraz publikujemy wyniki prac naukowych w czasopismach naukowych i konferencjach. W listopadzie razem z Piotrem Pęzikiem oraz Marcinem Ogrodniczukiem jedziemy prezentować nasz nowy artykuł na konferencji naukowej w Wietnamie.

Badamy takie zagadnienia jak wykrywanie i rozpoznawanie intencji klienta, rozpoznawanie sentymentu, wykrywanie słów kluczowych. Tutaj możesz przetestować demo modelu do generacji słów kluczowych które stworzyliśmy.

Zrobiłem mały research i zaciekawił mnie fakt, iż pracujesz również nad “uprzedzeniami” w dużych zestawach danych. Jak poważny jest to problem? Z tego, co śledzę ten temat prywatnie, praktycznie każdy zestaw jest w jakiś sposób nacechowany i “skażony” konkretnymi parametrami. Jak można zaradzić takiej sytuacji? Domyślam się, że nie jest to proste.

Tak, jest to bardzo ważny temat który badam w ramach mojego grantu. Te “uprzedzenia” (ang. bias) możemy zdefiniować jako błędy systematyczne występujące w danych. W swoim doktoracie opisuję kilkadziesiąt typów błędów które możemy spotkać w uczeniu maszynowym. Takie błędy, mogą zostać wprowadzone nieświadomie do zbioru na różnych etapach jego przygotowywania, na przykład. gdy dane są zbierane od niereprezentatywnej grupy.

Jak poważny jest problem? Zależy od przypadku. Sama badałam przypadek biasu w zbiorach znamion skórnych. Okazuje się, że klasa złośliwa (nowotwór) jest skorelowana z czarną ramką wokół zdjęcia. Jak zapewne się domyślasz, to czy na zdjęciu widnieje czarna ramka czy nie, nie wpływa w rzeczywistości na to czy znamię jest nowotworowe. Modele jednak tego nie widzą, i nieznaczącą korelację niepoprawnie traktują jako cechę znamion nowotworowych. Podobnych przypadków odkryto więcej, na przykład. Google opublikowało w raporcie, że ich model klasyfikował zapalenie płuc bazując na śladzie po długopisie, których doktor oznaczył chorych pacjentów.

Gdybyś mogła wybrać jedną gałąź rynku technologicznego, która najbardziej zyska na rozwoju algorytmów – to na którą byś się zdecydowała?

Chyba wybrałabym medycynę, bo z nią jestem związana od początku studiów. Chciałabym aby AI rozwinęło się na tyle, i osiągnęło na tyle wysokie wyniki żeby było tak powszechnie wykorzystywane w medycynie, jak aktualnie wykorzystuje się maszyny do badania krwi.

Jak daleko więc jesteśmy od sprawnie działającej “general artificial intelligence”? To Twoim zdaniem wciąż pieśń przyszłości?

Moim zdaniem na tyle daleko, że podawane kiedy ją osiągniemy jest wróżeniem z fusów. Aktualne algorytmy działają coraz lepiej. Widzimy to w szczególności w modelach typu GPT-3, które generują bardzo sensownie brzmiące teksty. Ale czy to oznacza, że rozumieją co do nich mówimy? Nie do końca. One bardzo dobrze naśladują to co działo się w danych. Jesteśmy coraz bliżej ale wciąż daleko. Ciekawym przypadkiem zachowania modelu GPT-3 są niedawno odkryte “ataki” na model. Model wykonuje zadania podane w języku naturalnym, np. pisząc “Przetłumacz poniższy tekst z języka polskiego na angielski: (…)” otrzymamy przetłumaczony tekst.

Okazuje się, że możemy wykorzystać model inaczej niż przewidzieli twórcy, pisząc wewnątrz tekstu aby zignorował poprzednie instrukcje. Taki przypadek został zauważony przez użytkownika Riley Goodside na Twitterze. Tekst jest opisany szerzej na blogu.

Możesz się pochwalić sporą ilością prac w środowisku naukowym. Jak w świecie akademickim podchodzi się do rozwoju sztucznej inteligencji? Jak bardzo to wszystko różni się od typowego “inżynierskiego” podejścia?

Główna różnica leży chyba w tym, że nauka skupia się na zrozumieniu, a przemysł na zastosowaniu. Prawda jest jednak taka, że przemysł i nauka coraz częściej ze sobą współpracuje i ściera się w jedno. Jest wiele publikacji naukowych o tematyce aplikacyjnej, oraz często korporacje publikują artykuły, w których skupiono się na zbadaniu jakiejś cechy modeli lub na lepszym zrozumieniu jakiegoś procesu.

Na Politechnice Gdańskiej sama pracowałam długo przy “aplikacyjnej AI” – chciałam zrobić jak najlepszy model do klasyfikacji znamion skórnych. Z kolei w Voicelabie musieliśmy zbadać zdolności modelu do transferowalności wiedzy międzydomenowej, mimo, iż nie miało to bezpośrednio komercyjnego zastosowania.

Co sądzisz o projektach typu open source? Czy każdy powinien zainwestować w nie swój czas?

Jestem ich ogromną zwolenniczką! Sama wzięłam udział już w 4 projektach AI4Good, z czego dwa współorganizowałam. W ostatnim projekcie HearAI (translator języka migowego) zrobiłyśmy nawet ankietę by zbadać satysfakcję uczestników. Każdy kto zakończył projekt był bardzo zadowolony i stwierdził, że dużo się nauczył i poleciłby projekt znajomym. A był to 6-miesięczny projekt wykonywany całkowicie za darmo i po pracy/studiach!

Dzięki takim projektom uczymy się pracy w zespole, jak pisać wyższej jakości kod, jak współpracować z różnymi charakterami, jak organizować swój czas, oraz przede wszystkim zwiększamy swoje kompetencje techniczne. Każdy uczestnik pogłębił swoją wiedzę z uczenia maszynowego oraz domenową: w tym przypadku z języka migowego.

Na koniec… popuśćmy trochę wodze fantazji. Jak sądzisz, czy w przyszłości inteligentni asystenci i asystentki korzystające z algorytmów do rozpoznawania i przetwarzania języka naturalnego… będą naszymi cyfrowymi przyjaciółmi?

Czemu nie! Algorytmy coraz bardziej się rozwijają, czemu nie wykorzystać ich także dla towarzystwa. Co ciekawe, przyjaciele w postaci AI już powstają, słyszałeś o Replice? Cieszy się ogromną popularnością, mimo, że zapewne nie jest idealna to ma już ponad 10 mln pobrań! Słyszałam, że niektórzy pracują nad wykorzystaniem AI do pomagania w walce z depresją.

Być może dzięki temu będziemy w stanie szybciej wykrywać i pomagać ludziom zmagającym się nie tylko z depresją, nerwicą ale też Alzheimerem lub innymi przypadłościami? A może, bardziej przyziemnie, ktoś wykorzysta ją do nauki języków obcych? Kto wie co czeka nas w przyszłości. Ja jestem pozytywnie nastawiona.

Dzięki wielkie za rozmowę! 🙂

baner

Dziennikarz technologiczny od prawie dekady. Człowiek z nienasyconą ciekawością. Fan trudnych pytań, kawy specialty i roweru szosowego. Uzależniony od internetu.

Podobne artykuły