• 500 specjalistów, w tym 100 od sztucznej inteligencji, zatrudni FB w nowym centrum w Londynie
  • To kolejna odsłona walki o powstrzymanie szkodliwych treści w sieci
  • Na Wyspach powstaje kodeks, który ma chronić dzieci przed cyberprzemocą

Wygląda na to, że giganty technologiczne na serio wzięły się do porządków na swoich platformach. Nie ma tygodnia bez doniesień o ich nowych inicjatywach, by zwalczać niepożądane treści. Kilka dni temu Twitter zapowiedział szereg uszczelnień i walkę z fałszywymi kontami, teraz pałeczkę przejmuje Facebook.

Serwis podał właśnie, że do końca roku stworzy 500 nowych miejsc pracy. Setka z nich przeznaczona będzie dla specjalistów od sztucznej inteligencji. Ich zadanie? Opracować rozwiązania, które zatrzymają fake newsy i nadużycia, tym cyberprzemoc. Będą się tym zajmować w nowym centrum inżynieryjnym Facebooka w Londynie.

Tylko dla 13+

Duża liczba nowych pracowników ma trafić do zespołu odpowiedzialnego za integralność społeczności, który działa na rzecz powstrzymywania spamu i nadużyć oraz zwalczania przemocy. Tworzy on m.in. oprogramowanie i systemy sztucznej inteligencji do wykrywania i usuwania szkodliwych treści, takich jak złośliwa i kłamliwa zawartość oraz fałszywe konta.

Facebook ma być bezpieczny, podobnie jak jego siostrzana firma Instagram.

A ma to związek nie tylko z opisywanym przez nas unijnym kodeksem wprowadzonym na pół roku przed majowymi eurowyborami. Facebook, Google i Twitter zgodziły się raportować Komisji Europejskiej o postępach w swoich działaniach przeciw dezinformacji w sieci.

Wielka Brytania niebawem wprowadzi swój kodeks, który ma chronić dzieci. Facebook, Instagram i Snapchat będą musiały zagwarantować, że ich strony będą dostępne bez nadzoru rodziców tylko dla indywidualnych użytkowników powyżej 13 lat. I że treści prezentowane dzieciom są odpowiednie dla ich wieku. Inaczej grożą serwisom wysokie grzywny.

Zmora Zuckerberga w akcji

Kodeks opracowała brytyjska komisarz ds. informacji Elizabeth Denham, odpowiedzialna na Wyspach m.in. za ochronę danych osobowych.

Pochodząca z Kanady komisarz, nazywana „zmorą Marka Zuckerberga”, ma zapewniać, że korporacje i partie polityczne są przejrzyste w wykorzystywaniu danych osobowych. Jej biuro ma także rozległe uprawnienia prokuratorskie: Denham, jedna z najbardziej wpływowych kobiet Zjednoczonego Królestwa, ma możliwość zajmowania serwerów z niewielkim wyprzedzeniem, zamykania firm, prowadzenia dochodzeń w sprawie partii politycznych i nakładania dotkliwych kar pieniężnych. Jest obecnie przewodniczącym Międzynarodowej Konferencji Rzeczników Ochrony Danych i Prywatności. Znana jest z forsowania przepisów nakładających uciążliwe kary na media społecznościowe i komunikatory stosujące uciążliwy marketing oraz m.in. ze sprawy firmy Cambridge Analytica, która pozyskując dane osobowe i profilując reklamy, miała wpłynąć na wynik ostatnich wyborów prezydenckich w Stanach Zjednoczonych czy referendum brexitowego.

Do końca maja projekt nowego kodeksu konsultowany był publicznie, na Wyspach wprowadzony zostanie jesienią.

30-tysięczna armia do ochrony wyborów

Przypomnijmy też, że 29 kwietnia Facebook w stolicy Irlandii uruchomił centrum operacyjne zajmujące się ochroną zbliżających się wtedy wyborów do Parlamentu Europejskiego.

Przed eurowyborami w monitorowaniu wpisów na platformach Facebooka pracownikom pomagała sztuczna inteligencja. Blisko 90 procent zgłoszeń o dezinformacji politycznej weryfikowało oprogramowanie, a 10 procent ludzie

Zatrudnił tam 40-osobową grupę młodych programistów, informatyków i specjalistów do wyszukiwania potencjalnie nielegalnych treści – na FB, Instagramie i WhatsAppie. Do samych wyborów codziennie przez całą dobę pracowało tam 24 informatyków, każdy posługujący się innym językiem urzędowym Unii Europejskiej.

W monitorowaniu wpisów na platformach Facebooka pomagała im sztuczna inteligencja. Blisko 90 proc. zgłoszeń o dezinformacji politycznej weryfikowało oprogramowanie, a 10 proc. ludzie. Z pracownikami centrum nikomu, zwłaszcza dziennikarzom, nie wolno było rozmawiać.

W centrach Facebooka chroniących wybory na całym świecie pracuje około 30 tysięcy osób. Pomiędzy październikiem 2017 r. a listopadem 2018 r. firma zamknęła blisko 2,8 mld fałszywych profili.

Niemcy cisną giganty

Także Niemcy wymuszają administracyjnie na internetowych gigantach działania mające trochę oczyścić sieć. Od początku 2019 roku obowiązują tam przepisy nakładające na portale społecznościowe, które gromadzą więcej niż 2 miliony użytkowników, obowiązek kasowania postów, które nawołują do nienawiści. Prawo dotyczy Instagrama, Twittera, Facebooka, Snapchata, Google+ i YouTube’a.

Serwisy te muszą na bieżąco analizować zgłoszone wpisy i usuwać potwierdzone przypadki hejtu w ciągu 24 godzin od chwili zgłoszenia. Jeśli sprawa jest bardziej skomplikowana, muszą to uczynić w ciągu tygodnia. Jeżeli tego nie zrobią, narażą się na karę grzywny wynoszącą do 50 mln euro.

Hejtowi w sieci poświęcona była jedna z rozmów majowego kongresu Impact w Krakowie.

Skip to content