• Facebook angażuje się w inicjatywy mające pomóc w walce ze zmanipulowanymi treściami w sieci
  • Teraz koncern zamierza ukrócić mowę nienawiści w memach
  • Unia ciśnie koncerny w sprawie dezinformacji dotyczącej COVID-19

Fałszywe zdjęcia i zmanipulowane filmy wideo (deepfakes) – jest tego w sieci zatrzęsienie. Czasem celem takich manipulacji jest rozrywka, satyra, czasem dezinformacja: osobiste porachunki, interesy przestępcze czy brudne zagrywki polityczne. Dostawcy usług internetowych, a w szczególności platformy społecznościowe, szukają skutecznego sposobu na automatyczne blokowanie takich treści.

Facebook od września 2018 roku obwieszcza światu swoje inicjatywy związane z walką z podróbkami filmów, w tym deepfakes. Jesienią ubiegłego roku poinformował o uruchomieniu platformy Deep Fake Detection Challenge, by wspólnie z najlepszymi naukowcami z różnych uniwersytetów i instytutów opracować narzędzia typu open source do zwalczania fałszywek. Gospodarzem wyzwania była Kaggle – witryna społeczności zajmujących się badaniami danych i uczeniem maszynowym.

Miliony na kłamstwa

Partnerzy Facebooka w tym wyzwaniu, m.in. amerykańskie uniwersytety, jak Massachusetts Institute of Technology, firmy – Microsoft, Amazon Web Services – oraz media: np. BBC i „New York Times”, ogłosili niedawno zwycięzców konkursu, który zakończył się 31 maja.

Wyzwanie podjęło ponad 2 tysiące uczestników, którzy zgłosili ponad 35 tysięcy modeli. Najlepsi zgarnęli nagrody pieniężne o łącznej wartości miliona dolarów. Do budowy swoich modeli zwycięskie zespoły wykorzystały architekturę sieci EfficientNet.

Zestaw danych dostarczony przez organizatorów składał się ze 100 tysięcy zmanipulowanych filmów stworzonych na potrzeby tego przedsięwzięcia. To 38 dni filmów z udziałem 3,5 tysiąca osób – aktorów, statystów i ludzi, którzy zgodzili się wziąć udział w projekcie, na który Facebook według komunikatów z jesieni wydał 10 milionów dolarów.

Jak podaje Facebook, model o najwyższej skuteczności osiągnął 82,56 procent wykrywalności fałszywek w publicznym zestawie danych, czyli szerszym, niż przygotowany przez organizatorów. Niektórzy z uczestników do szkolenia swoich modeli dodali dodatkowe deepfakes i niezmanipulowane filmy, głównie z platformy YouTube. Stało się tak przez niedoprecyzowanie regulaminu przedsięwzięcia.

Wyniki nie były zatem jednoznaczne, bo uczestnicy skorzystali też z innych danych niż tylko z bazy dostarczonej przez organizatorów. Podczas oceny uczestników na podstawie danych wyłącznie z dostarczonego zestawu ranking najlepszych modeli znacznie się zmienił. Dla przykładu najlepiej radzącym sobie „uczestnikiem” był model wprowadzony przez Selima Seferbekova. Osiągnął on średnią dokładność na poziomie 65,18 procent dla zestawu danych z konkursowej bazy. Nieprecyzyjne zapisy regulaminu zaowocowały wyborem 10 najlepszych, a nie rankingu i kolejnych miejsc.

Facebook zamierza wykorzystać rozwiązania z konkursu do ulepszenia własnej technologii, co jest szczególnie ważne w kontekście trwającej kampanii przed listopadowymi wyborami prezydenckimi w USA.

Zestaw danych Deepfake Detection Challenge zostanie również udostępniony na zasadach open source.

Ale Facebook idzie jeszcze dalej.

Memy na cenzurowanym

Koncern rozpoczął już kolejne wyzwanie zmierzające do usuwania z sieci obraźliwych lub nieprawdziwych treści. Zestaw danych Hateful Memes zawiera 10 tysięcy memów zaczerpniętych z publicznych grup Facebooka w Stanach Zjednoczonych. Memy w zbiorze danych najczęściej dotyczą rasy, pochodzenia etnicznego lub płci. Ale są tam również memy sklasyfikowane jako porównywanie ludzi ze zwierzętami, powoływanie się na negatywne stereotypy lub kpiące z mowy nienawiści – które według standardów społeczności Facebooka uważane są również za formę mowy nienawiści.

Wyzwanie Hateful Memes kusi pulą nagród w wysokości 100 tysięcy dolarów dla autorów programów najlepiej szperających w sieci za nienawistnymi memami. Atrakcyjna jest też możliwość prezentacji podczas wiodącej konferencji uczenia maszynowego NeurIPS w grudniu.

Zestaw danych Hateful Memes służy do oceny wydajności modeli usuwania mowy nienawiści oraz do dostrajania i testowania uczących się modeli multimodalnych, które pobierają dane z różnych form mediów. Najdokładniejszy model multimodalny oparty na sztucznej inteligencji – Visual BERT COCO – osiąga 64,7 procent dokładności, podczas gdy ludzie wykazują ją na poziomie 85 procent. To odzwierciedla poziom trudności wyzwania.

Dodajmy, że w pierwszym kwartale 2020 roku z powodu naruszenia zasad dotyczących mowy nienawiści z Facebooka usunięto 9,6 miliona opublikowanych treści. To rekord. Od czterech lat, w związku z nagminnymi publikacjami tego typu na portalu w czyszczeniu tej stajni Augiasza pomaga sztuczna inteligencja. Wcześniej takie inicjatywy oddolnie podejmowała sama społeczność Faceboooka. Jednak w 2016 roku Facebook, Twitter, Microsoft i YouTube przyjęły europejskie uzgodnienia, które zobowiązują je do kontroli „większości” nienawistnych treści w ciągu 24 godzin od otrzymania powiadomienia – i usunięcia ich, jeśli to konieczne. To założenia „Kodeksu postępowania” ogłoszonego przez Komisję Europejską, którego celem jest zwalczanie mowy nienawiści i propagandy terrorystycznej w całej Unii Europejskiej. Ustalenia zobowiązują firmy technologiczne do promowania treści przeciwnych mowie nienawiści i propagandzie w sieci.

Unia nie spuszcza z tonu

Facebook pokazał też ostatnio, jak wykorzystuje sztuczną inteligencję do zwalczania dezinformacji o COVID-19 i powstrzymania oszustów handlowych na platformie.

SimSearchNet, rozwijany od lat na Facebooku, to splotowa sieć neuronowa do rozpoznawania duplikatów treści, która służy do umieszczania etykiet ostrzegawczych na treściach uważanych za niegodne zaufania przez dziesiątki niezależnych organizacji. W kwietniu etykiety ostrzegawcze zostały zastosowane do 50 milionów postów.

18 czerwca w Parlamencie Europejskim odbyła się debata o dezinformacji związanej z koronawirusem. W dyskusji mówiono z jednej strony o negatywnym wpływie dezinformacji i potrzebie wzmożonych działań przeciwko niej, a z drugiej – o ryzyku, że rządy wykorzystają pandemię jako pretekst do ograniczenia podstawowych praw i wolności wypowiedzi.

Działania w walce z dezinformacją podjęte przez platformy internetowe w trakcie kryzysu zyskały uznanie unijnych urzędników, ale wiceprzewodnicząca Komisji Europejskiej odpowiedzialna za wartości i przejrzystość Věra Jourova stwierdziła, że jest pole do poprawy. Dlatego KE wezwała platformy do comiesięcznych sprawozdań z ich polityk i działań na polu walki z dezinformacją dotyczącą COVID-19. Przypomnijmy, że podobny obowiązek nałożyła na gigantów internetowych w związku z eurowyborami w maju 2019 roku.

Unia uruchomiła też 1 czerwca Europejskie Obserwatorium Mediów Cyfrowych, które ma być centrum współpracy weryfikatorów informacji, naukowców i innych zainteresowanych stron z mediami w celu zwalczania dezinformacji. Jeszcze w tym roku Komisja zamierza zaprosić do składania wniosków o łącznej wartości 9 milionów euro na tworzenie regionalnych ośrodków badania mediów.

Skip to content