AI wygeneruje niesamowity spam. Czy boty Google’a są gotowe?

Sztuczna inteligencja to liczne usprawnienia, które pozytywnie wpływają na nasze życie, ale też różne zagrożenia. Coraz lepszy tekst generowany przez automaty może stać się bolączką przeglądarek. Tanie pozyskiwanie tekstów o kiepskiej jakości, a jednak spełniających wymagania SEO, mogą stać się prawdziwą bolączką.

AI jest wszędzie (?)

Niewątpliwie mamy obecnie do czynienia z czasem sztucznej inteligencji. Mimo że 40 procent europejskich “startupów AI” z rzeczonej technologii nie korzysta wcale lub robi to śladowo, ze względów marketingowo-wizerunkowych chcąc się po prostu podłączyć pod dominujący trend (o czym na początku marca pisaliśmy tutaj), postępy na tym polu są naprawdę znaczne. Ostatni rok to choćby ogromny progres poczyniony w zakresie tworzenia przez maszyny przekonującego i zrozumiałego tekstu w najróżniejszej formie: od tekstów piosenek do niedługich opowiadań. Przy okazji tego zagadnienia bardzo dużo mówiło się o zagrożeniu wynikającym z możliwości rozpowszechniania generowanych przez sztuczną inteligencję fake newsów, ale powinno się też odpowiednio zaadresować inną kwestię: dostarczanych przez AI sposobów na ogrywanie Google.

Nie tylko fake news

Oprócz tworzenia contentu do stron z fake newsami, który doskonale spełniałby swoje zadanie, czyli siał dezinformację, wprowadzając w błąd słabo wyrobionego czytelnika, algorytmy sztucznej inteligencji mogą przydać się również do zapełniania internetu niekończącymi się ilościami stron internetowych, blogów i innego rodzaju spamu. Tego typu content byłby niezwykle tani w produkcji, a jednocześnie pozwoliłby na wypełnienie strony odpowiednimi słowami kluczowymi występującymi we właściwej częstotliwości, a także z dużym prawdopodobieństwem zdołałby spełnić wszystkie inne warunki konieczne do wysokiego pozycjonowania w wyszukiwarce. Oczywiście jednocześnie takie treści byłyby praktycznie bezużyteczne dla użytkownika. Póki co tego typu twory najczęściej wydają się mieć jedynie powierzchowny sens, a głębsze wczytanie się w nie zazwyczaj pozwala domyślić się, że ma się do czynienia ze zlepkiem tekstu stworzonym przez maszynę, która ma swoje ograniczenia. Tylko co zrobić, by boty indeksujące Google rozpoznały ją jako niepełnowartościową treść, w wyniku czego oceniłyby SEO jako niskie?

Współpracownicy Fractl, agencji specjalizującej się w marketingu treści, która dla celów demonstracyjnych zdecydowała się na stworzenie bloga z generowanymi przez AI tekstami, nie kryją powodów do obaw. Twierdzą, że nie używają oni sztucznej inteligencji w projektach przeznaczonych dla klientów, ale to nie oznacza, że inni nie będą tego robić. – Myślę, że zobaczymy to co zwykle – powiedziała “The Verge” partnerka Fractl, Kristin Tynski. – Czarne kapelusze [określenie na ludzi o złych zamiarach – przyp. red.] użyją wywrotowych taktyk w celu zdobycia przewagi konkurencyjnej.

SEO to gra

Tego typu podejrzenia zdają się wynikać ze znajomości historii SEO. Od początku jego wprowadzenia była to bitwa na ogranie systemu. Wszystkie zainteresowane strony próbowały opracować jak najwięcej metod, które dadzą im wysokie miejsca w przeglądarce, co często nie działo się z korzyścią dla zwykłych użytkowników internetu. Gdy Google uznawał, że opracowany przez firmę mechanizm stał się zbyt przejrzysty dla dostawców nie do końca wartościowego contentu, zmieniał zasady indeksowania treści przez boty. Później ktoś znowu rozszyfrowywał aktualnie obowiązujące reguły i tak dalej, i tak dalej. Mniej więcej w ten sposób trwa rozgrywka, w której od lat zbyt często przegrywają użytkownicy internetu, którym zwyczajnie zależy na wartościowych treściach.

Wygrać ze spamem

Z całą pewnością narzędzia do tworzenia pozornie sensownych materiałów za pośrednictwem sztucznej inteligencji przyciągną całe rzesze spamerów. O ich atrakcyjności będzie świadczyć bardzo niska cena i dostosowanie do poziomu mało wyrobionego czytelnika, którego zadowolą teksty sprawiające tylko powierzchownie pozytywne wrażenie.  Póki co trudno powiedzieć, czy i jak poradzimy sobie z zalewem kiepskich treści generowanych przez automaty. Rowan Zellers z Allen Institute for AI, który stoi za narzędziem użytym w eksperymencie agencji Fractl, uważa, że są na to duże szanse. Uważa on, że rozpoznanie fałszywego tekstu wygenerowanego przez AI nie jest zbyt trudne ze względu na pewne niuanse gramatyczne. Jego zdaniem teksty tworzone przez automaty zawierają też dużo powtórzeń, co upododabnia je do wypowiedzi małych dzieci, które dopiero uczą się mówić.


Źródło: theverge.com. Zdjęcie główne artykułu pochodzi z pixabay.com.

Patronujemy

 
 
Polecamy
Google stoi za wyciekiem danych? Oskarżenia twórcy Brave