Ten algorytm leje wodę równie dobrze jak przeciętny content manager

GPT-3, dziecko OpenAI, to zaawansowany model przetwarzania języka naturalnego, zdolny tworzyć wiarygodnie brzmiący tekst. Jego poprzednik, GPT-2, został zaprezentowany w lutym zeszłego roku. Miał nieźle namieszać w internecie. Obawiano się, że jego powszechne użycie spowoduje zalew fake newsów i chaos informacyjny na nieznaną dotąd skalę. Dlatego, zamiast upublicznić cały model, twórcy co kilka miesięcy publikowali słabsze (ale stopniowo coraz silniejsze) wersje.

Wkrótce OpenAI stwierdziło, że obawy się nie potwierdziły – GPT-2 wykorzystano do najróżniejszych rzeczy – generowania tekstów piosenek, scenariuszy filmowych, gier przygodowych. Szkodliwych zastosowań nie odnotowano. Model w pełnej wersji trafił do internetu.

Mimo to GPT-3, który od swojego poprzednika jest 100 razy potężniejszy, nie został upubliczniony. Zamiast tego wybranym badaczom przyznaje się testowy dostęp do API (interfejs programowania aplikacji – sposób na komunikację pomiędzy systemami), które pozwala korzystać z dobrodziejstw modelu bez dostępu do jego „wnętrzności”. OpenAI zamierza do końca roku zaoferować użytkownikom płatne korzystanie z modelu.

GPT-3, pomimo ograniczeń w dostępie, już znalazł ciekawe zastosowania. Najwięcej z nich dotyczy wsparcia programowania, bo najnowsza wersja GPT, w przeciwieństwie do poprzednich, była szkolona między innymi na stronach typu stackoverflow.com, na których programiści wymieniają się doświadczeniami i fragmentami kodu.

Niedawno pisałem o start-upie, który obiecuje stworzenie opartego na GPT-3 systemu generowania kodu na podstawie tekstowych opisów. Inni wykorzystują model do wsparcia projektowania stron internetowych, generowania zapytań do bazy danych, pisania kodu CSS, a nawet kodu potrzebnego do tworzenia modeli uczenia maszynowego.

OpenAI zamierza do końca roku zaoferować użytkownikom płatne korzystanie z modelu GPT-3

Liam Porr, student computer science na Uniwersytecie Kalifornijskim w Berkeley, chciał zobaczyć, czy algorytm jest już na tyle dojrzały, by poradzić sobie z zadaniem, do którego został pierwotnie stworzony – pisania tekstów na tyle wiarygodnych, by uznano je za dzieło ludzkie.

Postanowił stworzyć bloga prowadzonego przez GPT-3. Kluczowy był właściwy dobór tematyki. GPT-3 jest dobry w konstruowaniu okrągłych zdań. Gorzej z logiką i racjonalnym myśleniem. Dlatego Porr wybrał do swojego eksperymentu temat, który nie wymaga rygorystycznego podejścia do tych kwestii: produktywność i samorozwój.

Wzorując się na popularnych w internecie tekstach poradnikowych, stworzył serię zajawek postów swojego przyszłego bloga – tytuł plus akapit wprowadzenia. „Nawyki czytelnicze ludzi sukcesu”, „Czego się nauczyłem, próbując być zbyt produktywnym?”, „Ten poranny nawyk da ci supermoce i natychmiast uczyni Cię milionerem” – brzmi znajomo?

Parr poprosił o pomoc jednego z doktorantów w Berkeley, który miał dostęp do API algorytmu. Napisał krótki skrypt, który wysyłał do systemu przygotowane wcześniej zajawki i pobierał kilka wersji zaproponowanego przez algorytm rozwinięcia. Tak stworzone artykuły trafiały na bloga. Niektóre niezmienione, inne po niewielkich modyfikacjach.

Jaki był rezultat? Blog odnotował 26 tysięcy odwiedzających. 60 osób zasubskrybowało stronę, by otrzymywać powiadomienia o nowych treściach. Jeden z postów, zatytułowany „Czujesz się nieproduktywny? Może przestań tak dużo myśleć?”, trafił na pierwsze miejsce listy Hacker News (odpowiednik Wykopu czy Reddita, poświęcony głównie nowym technologiom).

W komentarzach pod linkiem do postu znalazło się kilka głosów, że tekst nie zawiera żadnych konkretów, ktoś nawet rzucił sugestię, że został wygenerowany przez GPT-3. Inni użytkownicy bronili jednak wpisu, zarzucając autorom niepochlebnych komentarzy hejterstwo.

„Od momentu, kiedy wpadłem na ten pomysł i skontaktowałem się z jednym z doktorantów, do momentu stworzenia bloga i do chwili, gdy pierwszy post zyskał popularność, minęło może kilka godzin” – mówi Porr w rozmowie z „MIT Technology Review”.

Po dwóch tygodniach prowadzenia bloga Porr opublikował na nim post, w którym przyznaje się do podstępu.

Według Porra eksperyment pokazał, że GPT-3 może być realną pomocą dla ludzi zajmujących się zawodowo pisaniem, zwłaszcza tzw. content marketingiem. „Największą zaletą GPT-3 jest jego wydajność. Wszystko, czego potrzebowałem, to dobry tytuł i wprowadzenie. Mógłbym napisać pięć takich tekstów w ciągu godziny i opublikować wszystkie w ciągu jednego dnia. Innymi słowy – dobry autor z GPT-3 może teraz wykonać tę samą pracę, co cały zespół content managerów” – pisze na swoim blogu.

Czy to oznacza koniec dziennikarstwa? GPT-3 – jak wspominałem – nie najlepiej radzi sobie tam, gdzie w grę wchodzi logika i zdrowy rozsądek. Zupełnie leży zaś tam, gdzie chodzi o fakty, a przynajmniej te, na temat których nie powstało dotychczas kilka tysięcy tekstów, które mogły stanowić pożywkę dla modelu na etapie uczenia.

Dziennikarze relacjonujący najświeższe informacje oraz publicyści je komentujący nie mają się na razie czego obawiać. Co do osób, które hurtowo tworzą quasi-poradnikowe treści na potrzeby marketingu? Zapotrzebowanie na ich pracę może wkrótce gwałtownie zmaleć.

Skip to content