Magazyn Clarkesworld dostaje ponad 500 fejkowych prac w miesiącu
Clarkesworld – magazyn literacki skupiający się na science fiction i fantasy – boryka się z nowym problemem: jest zalewany krótkimi opowiadaniami, które zostały wygenerowane za pomocą sztucznej inteligencji. Portal TechCrunch rozmawiał z Neilem Clarkiem, redaktorem i wydawcą magazynu, który zmuszony był zamknąć portal zgłoszeń po tym, jak liczba nadesłanych prac stała się nie do opanowania.
Przez 17 lat działalności magazyn literacki Clarkesworld często publikował opowiadania, które ukazywały wpływ nowoczesnych technologii na świat. Niestety, teraz sam stał się ofiarą automatyzacji i narzędzi sztucznej inteligencji.
Według statystyk Clarke'a do początku 2023 roku liczba spamowych zgłoszeń nigdy nie przekraczała 25 miesięcznie, a czasem bywały miesiące bez żadnego spamu. Jednak w lutym 2023 roku liczba zgłoszeń wzrosła dramatycznie – do ponad 500, co skłoniło Clarke'a do porównania swojej skrzynki odbiorczej do pokoju pełnego krzyczących dzieci, gdzie trudno usłyszeć kogokolwiek.
Asimov’s Science Fiction dostaje ich niemal 1000
Do podobnej sytuacji doszło u innego wydawcy. Redaktorka magazynu Asimov's Science Fiction, Sheila Williams opowiedziała portalowi The Verge, że otrzymała naraz kilka krótkich opowiadań – wszystkie o tytule "The Last Hope", od różnych autorów i z różnych adresów mailowych. Williams podejrzewa, że wszystkie zostały wygenerowane za pomocą sztucznej inteligencji.
Williams często potrafi na podstawie kilku pierwszych słów stwierdzić, czy tekst jest wytworem człowieka czy AI. Niektóre opowiadania zawierają powtarzające się nazwy postaci i tytuły, a nazwy autorów często są po prostu anagramem imion i nazwisk, łatwych do rozszyfrowania z użyciem tych samych narzędzi opartych na AI. Czasem fejkowi autorzy bezwstydnie dołączają instrukcje, jak przesłać im pieniądze za ich opowieść lub dostarczają jedynie fragment, obiecując resztę po zapłacie. W styczniu magazyn Asimov's otrzymał około 900 takich opowiadań, a w lutym liczba ta wzrosła do około 1000, z czego niemal wszystkie były sztucznie generowane.
Jak walczyć z plagą spamu generowanego przez narzędzia sztucznej inteligencji?
Obecnie brakuje narzędzi, praw i ograniczeń, by skutecznie zmierzyć się z problemem. Rozwiązaniem może być istniejący w koncepcji, ale ponoć jeszcze niewprowadzony kryptograficzny znak wodny w narzędziach typu ChatGPT. Taki znak wodny w wygenerowanym tekście stosowałby kryptografię z użyciem odpowiedniego wzoru słów, liter i interpunkcji w formie tajnego, ale łatwego w identyfikacji kodu.
Pozostaje mieć nadzieję, że będzie to właściwe remedium. Na razie warto być czujnym i świadomym, że nie każdy opublikowany w internecie tekst, może być dziełem człowieka. I że pewnego dnia może to zostać boleśnie ujawnione.
Przeczytaj również
AI ze stocka? Shutterstock uruchamia własne narzędzie do generowania obrazów