• Świat zna liczne przypadki, kiedy portal został wykorzystany do rozpowszechniania szkodliwych treści
  • Mark Zuckerberg wielokrotnie obiecywał poprawę kontroli nad wpisami zamieszczanymi na portalu
  • Piętnaście tysięcy moderatorów i sztuczna inteligencja próbują powstrzymać panoszącą się w serwisie społecznościowym mowę nienawiści

W 2017 r. Rohingya, mniejszość etniczno-religijna w Mjanmie (dawniej Birma), padła ofiarą czystki etnicznej. Efekt: tysiące ofiar i setki tysięcy uciekinierów do sąsiednich krajów, głównie Bangladeszu. Według ekspertów ONZ znaczący wpływ na te wydarzenia miał portal społecznościowy Facebook. Brak należytej moderacji spowodował, że mowa nienawiści względem muzułmańskiej mniejszości rozprzestrzeniała się bez przeszkód.

To tylko jedna z afer wokół Facebooka w ostatnich latach. Stał się m.in narzędziem rosyjskiej propagandy w czasie wyborów w USA w 2016 r., a przedstawiciele portalu starali się świadomie ukryć skalę tego zjawiska. Ostatnio Facebook utworzył jednak w Dublinie Centrum Operacyjne ds. Wyborów, które ma zapobiegać działaniom trolli internetowych w związku z nadchodzącymi wyborami do Parlamentu Europejskiego (w Polsce odbędą się 26 maja).

Szef serwisu Mark Zuckerberg wielokrotnie obiecywał poprawę kontroli nad treściami zamieszczanymi na portalu. Często wspomniał, że ma w tym pomóc sztuczna inteligencja.

Algorytmy Facebooka już teraz całkiem nieźle radzą sobie z wykrywaniem treści pornograficznych i nagości. Zaczęło się w 2014 r., kiedy nowy dyrektor techniczny firmy Tanton Gibbs postanowił postawić na automatyzację. Przed nim wszystkie zgłoszenia dotyczące niepożądanych treści były oceniane przez ludzi.

Pornografia to nie wszystko

Gibbs zaprzągł do pracy mechanizmy głębokiego uczenia. Podczas gdy Google pracowało nad tą technologią, by rozpoznawać na obrazach wizerunki kotów, grupa Gibbsa uczyła algorytmy wykrywać pornografię i nagość. Po półtora roku pracy dyrektor dostał pozwolenie, by jego system przeczesywał treści zamieszczane na portalu, jeszcze zanim ktoś je zgłosi. Facebook chwali się, że w tej chwili 96 proc. wszystkich nieprzyzwoitych treści jest wykrywane automatycznie właśnie na tym etapie.

Choć serwis chętnie powołuje się na sukces Gibbsa w swoich deklaracjach walki ze szkodliwymi treściami, to z wykrywaniem przejawów prześladowania i mowy nienawiści nie pójdzie tak łatwo. Chociaż algorytmy głębokiego uczenia bardzo dobrze radzą sobie z rozpoznawaniem obrazu, to do rozumienia języka naturalnego jest jeszcze bardzo daleko. A Facebook funkcjonuje w ponad 100 językach.

Według dyrektora ds. technologii Facebooka w ciągu dwóch-pięciu lat algorytmy interpretujące tekst staną się na tyle dobre, że prześladowanie i mowa nienawiści praktycznie znikną z portalu

Algorytmy serwisu, aby działać sprawnie, muszą nauczyć się rozumieć tekst w podobny sposób, jak robi człowiek. A to zakłada rozpoznawanie kontekstu wypowiedzi. Jeśli system trafi na zdanie „Już nie żyjesz.”, nie umie ocenić, czy ma do czynienia z poważną groźbą, czy z reakcją nastolatka na głupi dowcip kolegi. Moderator człowiek mógłby w większości przypadków bez problemu to rozstrzygnąć, czytając wcześniejsze wypowiedzi czy oceniając treść zdjęcia, które towarzyszy wypowiedzi.

Takich moderatorów Facebook zatrudnia 15 tysięcy. Reagują na zgłoszenia użytkowników i automatycznych systemów. Portal chwali się, że w tej chwili połowa usuniętych przypadków mowy nienawiści została wykryta przez algorytmy. 15 proc. postów oznaczonych jako przykład prześladowania zostało automatycznie zidentyfikowanych i usuniętych, zanim ktoś je zgłosił. Trudno jednak ocenić, jaki procent wszystkich tego rodzaju treści stanowią te wykryte. Badacze z zespołu zajmującego się praktycznymi zastosowaniami uczenia maszynowego w Facebooku przyznają, że algorytmom jeszcze daleko do rozumienia niuansów języka naturalnego.

Facebookowa wieża Babel

Firma prowadzi wiele projektów mających poprawić efektywność algorytmów. Jeden z nich korzysta z bazy miliardów hashtagów na Instagramie, by podnieść jakość rozpoznawania obrazów na Facebooku. W zeszłym roku system wprowadzono system Rosetta (czyżby nazwa upamiętniała słynny kamień z Rosetty, który posłużył do odszyfrowania egipskich hieroglifów?). Wykrywa on tekst osadzony w obrazach i próbuje wywnioskować z niego sens grafiki.

Serwis społecznościowy próbuje zmierzyć się z problemem mało szczegółowych danych, na których uczy swoje algorytmy. Zmienił sposób pracy moderatorów. Ci, zamiast samodzielnie decydować, czy zgłoszony post jest zgodny z regulaminem, odpowiadają na serię pytań o jego treść, np.: Czy post jest obraźliwy? Co jest obiektem ataku? itd. Na podstawie tych odpowiedzi moderatorzy wyższego szczebla podejmują decyzję o ewentualnym usunięciu posta. Równocześnie są one cennym materiałem szkoleniowym dla algorytmów uczenia głębokiego.

Problemem jest też liczba języków, którymi posługują się użytkownicy portalu. W przypadku mniej rozpowszechnionych języków posty użytkowników stanowią zbyta małą próbę, by skutecznie wyszkolić systemy wykrywania obraźliwych treści. Ale nawet gdyby to nie był problem, to stworzenie algorytmów osobno dla każdego języka byłoby koszmarnie drogie.

Firma Zuckerberga korzysta z automatycznego tłumaczenia, by systemy już działające np. dla języka angielskiego zastosować do innych. Inne podejście zakłada tworzenie systemów wielojęzycznych opartych na podobieństwach pomiędzy językami.

To dość dziwne, że my, ludzie, musimy powołać do życia sztuczny twór, poświęcić mnóstwo pracy, lat, żeby go nauczyć, jak potrafimy być niegodziwi i okropni dla innych w internecie, a potem żeby ów twór nas pilnował, wychowywał i wyznaczał granice

– Na początku 2019 r. już chyba nikogo nie trzeba przekonywać, jak dużą rolę odgrywają słowa. Słowa, które kierujemy do drugiego człowieka, słowa, które wyrażamy w przestrzeni publicznej, w mediach, na portalach społecznościowych – mówi Mateusz Patera, specjalista naukowo-techniczny na Wydziale Lingwistyki Stosowanej Uniwersytetu Warszawskiego. – Słowa mają w sobie niesamowitą moc, której wiele osób wciąż jest nieświadomych, a ci bardziej obeznani w temacie potrafią tę właściwość wykorzystać do zdobywania różnorakich kapitałów i wpływów. Bardzo cieszy to, że międzynarodowe korporacje, które swoją działalność opierają na wymianie treści pomiędzy użytkownikami, a także firmami czy instytucjami, próbują przeciwdziałać temu niepokojącemu zjawisku.

Dyrektor do spraw technologii Facebooka Mike Schroepfer jest optymistą. Według niego w ciągu dwóch-pięciu lat algorytmy interpretujące tekst staną się na tyle dobre, że prześladowanie i mowa nienawiści praktycznie znikną z portalu.

– Algorytmom Facebooka powierzono nie lada zadanie zbierania danych i odpowiedniego ich segmentowania. Minie sporo czasu, zanim będziemy mogli im zupełnie zaufać – mówi Krzysztof Jurga, inżynier i dziennikarz, właściciel agencji JBS EUROPE. – Z drugiej strony to dość dziwne, że my, ludzie, musimy powołać do życia sztuczny twór, poświęcić mnóstwo pracy, lat, żeby go nauczyć, jak potrafimy być niegodziwi i okropni dla innych w internecie, a potem żeby ów twór nas pilnował, wychowywał i wyznaczał granice.

Skip to content