Sztucznej inteligencji, która wykorzystuje technologię AI do “myślenia”, brakuje wyobraźni. Nadanie jej mogłoby pomóc ludzkości w rozwiązywaniu różnych problemów świata. Oczywiście człowiek też potrafi to zrobić, ale maszyna może zrobić to szybciej, a na pewno dokładniej, bo nie ma ograniczeń dotyczących pamięci. Komputer w podejmowaniu decyzji posłuży się przecież wieloma danymi, o których człowiek raczej zapomina.

To wszystko, co przed chwilą przeczytaliście, to plany. Wizja naukowców zafascynowanych sztuczną inteligencją, a właściwie tym, jak ją wykorzystać i zastosować w ludzkim świecie. Nadanie zdolności twórczych z założenia miało pomagać, ale eksperci już obawiają się odwrotnej funkcji, czyli tego, że ktoś wykorzysta technologię do realizacji nikczemnych planów. Te dywagacje nie byłyby jednak możliwe, gdyby nie Ian Goodfellow, który pewnego dnia postanowił pójść do lokalnego baru na piwo. Poznajcie historię człowieka, który zmienił sztuczną inteligencję. Czy na lepsze? Zostawiamy to Waszej ocenie.

To nie zadziała

Cztery lata temu Ian Goodfellow poszedł z kolegą do baru uczcić obronę pracy doktorskiej. Spotkał tam znajomych, którzy poprosili Iana o pomoc w rozwiązaniu problemu. Nie potrafili nadać komputerowi wyobraźni, która pozwoliłaby mu na samodzielne twórcze myślenie. Co prawda w tych latach sztuczna inteligencja mogła malować kopie obrazów, ale nie potrafiła stworzyć go od zera, według własnego pomysłu. Znajomi przedstawili Ianowi swój plan: powiemy sztucznej inteligencji, jak wygląda kompozycja dobrej fotografii, dzięki czemu będzie wiedzieć, jakich błędów ma unikać. Goodfellow na tę propozycję odpowiedział krótko: To nie zadziała.

Nie zostawił ich jednak z problemem i zaproponował inne rozwiązanie. Co jeśli przeciwstawimy ze sobą dwie sieci neuronowe? Znajomi byli sceptyczni, a Ian wręcz przeciwnie. Wrócił do domu i do rana stworzył oprogramowanie, o którym opowiadał przed kilkoma godzinami. O świcie przetestował je i zadziałało. Dziś to co stworzył przez jedną noc nazywamy GAN, czyli generative adversarial network.

Zachwyt

Rozwiązanie, które Ian zaproponował światu, wzbudziło zachwyt. Naukowcy i developerzy zaczęli wykorzystywać je w pracy, ale też dostosować do swoich potrzeb. Opracowanie GAN to duży krok w historii rozwoju sztucznej inteligencji, a niektórzy twierdzą nawet, że otworzyło ono drogę do umiejętnego rozpoznawania obrazów, stworzenia autonomicznych pojazdów, czy urządzeń takich jak Alexa. Mimo tych osiągnięć, jeszcze nie spełniło oczekiwań naukowców.

Opracowana przez Iana technologia, jak wspomnieliśmy wcześniej, wykorzystuje dwie sieci neuronowe. Jedna, jak tłumaczy Technology Review, działa jak fałszerz obrazu, a druga jak znawca sztuki — obie opierają swoją wiedzę na tym samym zbiorze danych. Pierwsza była odpowiedzialna za tworzenie “własnoręcznych” podpisów i zdjęć. Zadaniem drugiej była analiza dzieła tak, by rozpoznać, czy nie jest podróbką jakiegoś innego utworu. Pozyskując informacje o różnicach, sztuczna inteligencja dowiadywała się czegoś nowego, co później pozwalało jej na stworzenie własnego obrazu. AI tak długo próbowało rozpoznać obraz, którym było np. zdjęcie celebrytki i bezbłędnie go odtworzyć, aż doszło do takiej perfekcji, że znawca — druga sieć neuronowa — nie potrafił odróżnić oryginału od podróbki.

Warto wspomnieć, że to odkrycie doprowadziło do tego, że Nvidia wykorzystując GAN, zleciła sztucznej inteligencji, której przedstawiono mnóstwo zdjęć celebrytów, stworzenie własnej gwiazdy popkultury. Wcześniej było to możliwe, gdy sztucznej inteligencji przedstawiono setki tysięcy zdjęć. GAN umożliwiło wykonanie takiego polecenia o wiele szybciej.

Przykłady

GAN to jednak początek rewolucji, bo nie działa tak dobrze, jakby Ian chciał. Sztuczna inteligencja co prawda potrafi stworzyć własne zdjęcie, np. psa, ale nie doceniłoby go żadne jury na świecie. To coś, co widzicie na zdjęciu poniżej, miało być psem, choć przypomina raczej bezgłowego stwora. Dla naukowców to jednak duże osiągnięcie, bo z analizy wynikało, że takiego zdjęcia nigdy sztuczna inteligencja nie widziała, jest więc jej autorskim dziełem. Poddając je analizie, naukowcy dowiedzieli się też czegoś ciekawego.

Zdaniem Pedro Domingosa z Uniwersytetu Waszyngtońskiego, zdjęcie jest dziwne tylko ze względu na to, że ta druga sieć neuronowa (znawca sztuki) poddała analizie zbyt małą liczbę zdjęć psów, by zapamiętać takie szczegóły jak faktura sierści, czy kształt oczodołów. Technologię GAN już dziś można za to wykorzystać do przerabiania zdjęć, czy filmów.

Ian Goodfellow, który nie uważa się za gwiazdę branży AI, przyznaje, że technologii GAN brakuje jeszcze wielu rzeczy. Wspomina, że istnieje “wiele dziedzin, które potrzebują sztucznej inteligencji do rozwiązania swoich problemów”. Nie chce jednak skupiać się na tworzeniu obrazów, ale na wykorzystaniu jej wyobraźni np. w medycynie, czy branży gamingowej.

W rozmowie z magazynem Technology Review, jako przykład wykorzystania GAN w nauce podaje Wielki Zderzacz Hadronów w CERN, mieszczący się w Szwajcarii. Maszyna ta do przeprowadzania symulacji wykorzystuje setki subatomowych cząsteczek, co zajmuje sporo czasu. Magazyn podaje, że naukowcy z Yale University i Lawrence Berkeley National Laboratory usprawnili pracę Zderzacza, bo wykorzystali GAN do opracowania technologii, która przewiduje, jak zachowają się cząsteczki w różnych sytuacjach.

Zagrożenia

Na początku artykułu wspomnieliśmy o zagrożeniach w wykorzystaniu GAN. Mowa na przykład o tworzeniu fake newsów, które mogą wpływać np. na wyniki wyborów. Okazuje się, że dzięki sztucznej inteligencji, tworzenie fałszywek jest proste. Opisywaliśmy niedawno startup Lyrebird, który potrafi stworzyć dowolne zdanie i włożyć je w usta np. polityków. Sztuczną inteligencję można też wykorzystać do ataków hakerskich, a fałszowanie np. zdjęć było możliwe od dawna. GAN nie jest winny powstawania fake newsów, choć zdaniem ekspertów, pogorszył sprawę, bo ułatwił takie działanie.

Ian Goodfellow, w obronie przed zarzutami, podał najlepsze, nietechniczne rozwiązanie, które pozwoli ochronić nas przed wpływem fake newsów. Jego zdaniem wystarczy, że będziemy bardziej krytyczni wobec tego co widzimy i mniej ufali temu, o czym czytamy. Tylko, czy to takie łatwe jak mówi?


Zdjęcie główne artykułu pochodzi z technologyreview.com.

Zapraszamy do dyskusji
Nie ma więcej wpisów

Send this to a friend