– Tam, gdzie sztuczna inteligencja niesie za sobą duże ryzyko, musimy być ostrożni. Jeśli chodzi o całą resztę – po prostu cała naprzód – mówi Margrethe Vestager odpowiedzialna za białą księgę europejskiej SI. Jej szczegółowe propozycje poznamy za dwa tygodnie

19 lutego Komisja Europejska przedstawi propozycje dotyczące europejskiego podejścia do sztucznej inteligencji – to tzw. biała księga SI.

Jej opracowanie to zadanie głównie dla Margrethe Vestager, wykonawczej wiceprzewodniczącej Komisji Europejskiej ds. Europy w dobie cyfrowej. Do jej obowiązków należy m.in. ustalenie programu regulacji UE w zakresie SI.

Wstępnie mówiła o nim w trakcie konferencji Web Summit w Lizbonie w listopadzie 2019 roku, zaznaczając, że w Europie musimy „przejąć kontrolę nad niektórymi kamieniami węgielnymi nowych technologii, abyśmy mogli im zaufać, a także sprawować nad nimi nadzór i – co bardzo ważne – zapewnić, że nie ma w nich stronniczości”.

Przypomnijmy też, że przewodnicząca Komisji Europejskiej od 1 grudnia ubiegłego roku Ursula von der Leyen, jeszcze gdy starała się o to stanowisko, zapowiedziała, że „kompleksowe prawodawstwo dotyczące europejskiego podejścia do ludzkich i etycznych konsekwencji sztucznej inteligencji” KE przedstawi w ciągu pierwszych 100 dni jej urzędowania.

Czego należy spodziewać się po białej księdze SI dla Europy?

Nadążyć za SI

Vestager w Lizbonie sugerowała, że giganci technologiczni muszą stawić czoła bardziej restrykcyjnym regulacjom, a 27 stycznia na posiedzeniu Komisji Prawnej Parlamentu Europejskiego ostrzegła, że mogą się pojawić „poważne obawy” związane z korzystaniem z niektórych technologii sztucznej inteligencji.

Chodziło jej głównie o rozpoznawanie twarzy, które może naruszać ochronę danych i inne podstawowe prawa, na przykład do gromadzenia się. W połowie stycznia portal EURACTIV ujawnił, że KE rozważa wprowadzenie do białej księgi SI tymczasowego zakazu rozpoznawania twarzy. Jednak w kolejnej publikacji, zawierającej komentarze Vestager, napisano, że „nie jest to obecnie preferowany kierunek”.

Adres filmu na Youtube: https://www.youtube.com/watch?time_continue=4&v=gp7v79tUjww&feature=emb_logo

Komentarze po debacie o przyszłości europejskiej SI.
Źródło: euronews (in English) / YouTube

Tymczasem 23 stycznia kierowana przez Petrę De Sutter europarlamentarna Komisja Rynku Wewnętrznego i Ochrony Konsumentów (IMCO) zatwierdziła rezolucję dotyczącą wyzwań wynikających z rozwoju technologii sztucznej inteligencji i technologii automatycznego podejmowania decyzji (ADM).

Sutter podsumowała, że „technologia w dziedzinie sztucznej inteligencji i zautomatyzowanego podejmowania decyzji rozwija się w zadziwiającym tempie”. Komisja PE według niej „z zadowoleniem przyjęła potencjał tych postępów”. Europarlamentarzyści jednocześnie nie spuszczają z oczu trzech ważnych kwestii, które należy rozwiązać. „Musimy się upewnić, że zapewniona jest ochrona konsumentów i zaufanie, że przepisy UE dotyczące bezpieczeństwa i odpowiedzialności za produkty i usługi są odpowiednie dla wyzwań ery cyfrowej oraz że zbiory danych wykorzystywane w zautomatyzowanych systemach decyzyjnych są wysokiej jakości i są bezstronne” – zastrzegła.

Parlament podpowiada Komisji

W 16 punktach rezolucja opisuje to, czego posłowie zajmujący się rynkiem wewnętrznym i ochroną konsumentów oczekują od KE w ramach regulacji: co w nich trzeba sprawdzić i poprawić, co nowego ustanowić itd.

Według IMCO dotychczasowe wytyczne z zakresu etyki czy zasady przyjęte przez ekspertów wysokiego szczebla (HLEG AI) mogą nie wystarczyć.

„Stanowią punkt wyjścia; konieczne jest jednak zbadanie obecnych ram prawnych UE, w tym dorobku prawnego w zakresie prawa konsumenckiego, prawodawstwa dotyczącego ochrony danych, bezpieczeństwa produktów i nadzoru rynku, w celu sprawdzenia, czy są one w stanie reagować na pojawienie się sztucznej inteligencji i zautomatyzowanego procesu decyzyjnego oraz czy są w stanie zapewnić wysoki poziom ochrony konsumentów” – brzmi wstęp rezolucji.

Człowiek przed systemem

Komisja Europejska zdaniem posłów IMCO powinna przeanalizować istnienie luk prawnych i zbadać, czy konieczne są dodatkowe środki, by zagwarantować silny zbiór praw chroniących konsumentów w kontekście SI i zautomatyzowanego procesu decyzyjnego.

Gdy konsumenci wchodzą w interakcje z systemem automatycznego podejmowania decyzji, powinni być „odpowiednio informowani o tym, jak on działa, jak dotrzeć do człowieka posiadającego uprawnienia decyzyjne, oraz o tym, jak można sprawdzać i poprawiać decyzje systemu”.

Rezolucja stwierdza, że systemy te powinny wykorzystywać wyłącznie wysokiej jakości i obiektywne zestawy danych oraz „wyjaśnialne i obiektywne algorytmy” w celu zwiększenia zaufania i akceptacji konsumentów.

Kluczowym wyzwaniem dla Europy jest znalezienie równowagi pomiędzy tym, co może zaoferować sztuczna inteligencja, a tym, jak chronić prywatność, budować zaufanie i pozostać etycznym

IMCO zaleca ustanowienie procedur przeglądu, aby zaradzić możliwym błędom w zautomatyzowanych decyzjach. Co istotne, konsumenci powinni mieć również możliwość ubiegania się o ludzką ocenę podjętych automatycznie decyzji i o zadośćuczynienie za błędy i wyrządzone szkody, które są ostateczne i trwałe.

Komisja PE podkreśliła w rezolucji, że „ ludzie zawsze muszą być ostatecznie odpowiedzialni za decyzje podejmowane w ramach ADM i być w stanie je unieważniać ”, szczególnie w odniesieniu do zawodów medycznych, prawniczych i księgowych oraz sektora bankowego.

W dokumencie IMCO zauważa, że zautomatyzowane systemy podejmowania decyzji opierają się na gromadzeniu dużych ilości danych, zatem rozporządzenie w sprawie swobodnego przepływu danych nieosobowych pomoże w gromadzeniu większej ilości danych dostępnych w całej UE, umożliwiając tym samym tworzenie innowacyjnych usług. Europosłowie podkreślili jednocześnie konieczność ochrony danych osobowych w ramach RODO.

Gotowi na ewolucję?

Produkty z obsługą sztucznej inteligencji mogą ewoluować i działać w sposób nieprzewidziany, kiedy zostaną wprowadzone na rynek. Posłowie wezwali Komisję Europejską do przedstawienia wniosków dostosowujących unijne przepisy bezpieczeństwa dotyczące produktów (np. dyrektywy w sprawie bezpieczeństwa maszyn czy zabawek czy też sprzętu radiowego).

Ma to zagwarantować, że użytkownicy i konsumenci są chronieni przed szkodami, producenci mają jasność co do swoich obowiązków, a użytkownicy co do tego, w jaki sposób korzystać z produktów, które mają możliwości zautomatyzowanego podejmowania decyzji.

Zdaniem IMCO należy też zaktualizować ogólną dyrektywę w sprawie odpowiedzialności za produkty wadliwe (85/374) przyjętą ponad 30 lat temu, aby dostosować takie pojęcia, jak „uszkodzenie” i „wada” produktu, a także zasady regulujące ciężar dowodu (według art. 4 obowiązującej dyrektywy to „na osobie poszkodowanej spoczywa ciężar udowodnienia szkody, wady i związku przyczynowego między wadą a szkodą”). IMCO chce, aby regulacje dotyczące odpowiedzialności za produkt dostosować również do sytuacji, gdy decyzje podejmuje automat.

Posłowie z IMCO wezwali też KE do opracowania systemu oceny ryzyka dla sztucznej inteligencji i ADM oraz do wspólnego unijnego podejścia, które pomoże zabezpieczyć korzyści z tych procesów i zmniejszyć ryzyko w całej UE.

Bez dyskryminacji

Zgodnie z nowym prawem Unii Europejskiej na mocy dyrektywy w sprawie lepszego egzekwowania prawa przedsiębiorcy mają obowiązek informowania konsumentów o tym, kiedy ceny towarów lub usług zostały zindywidualizowane na podstawie automatycznego podejmowania decyzji i profilowania zachowań konsumentów.

Posłowie IMCO poprosili KE o ścisłe monitorowanie wdrażania tych przepisów. Musi także sprawdzić, jak wdrażane jest rozporządzenie UE zakazujące nieuzasadnionego blokowania geograficznego, aby zapewnić, że automatyczne podejmowanie decyzji nie jest wykorzystywane do dyskryminowania konsumentów ze względu na ich narodowość, miejsce zamieszkania lub czasową lokalizację.

„Konieczne jest, aby stojące za tymi możliwościami algorytmy były odpowiednio przejrzyste i możliwe do wytłumaczenia organom nadzoru rynkowego” – stwierdza tekst rezolucji. Dlatego IMCO zachęca Komisję Europejską do oceny, czy należy przyznać organom nadzoru rynkowego dodatkowe uprawnienia, a państwa członkowskie jej zdaniem muszą opracować zharmonizowane strategie zarządzania ryzykiem w odniesieniu do sztucznej inteligencji w kontekście swoich krajowych strategii nadzoru rynkowego.

Rezolucja IMCO zostanie przekazana Radzie Europejskiej i Komisji Europejskiej, wykorzysta ją też w swojej pracy Parlament Europejski.

Ostrożnie i śmiało

Ile z powyższych zaleceń Vestager włączy do białej księgi SI? Przekonamy się za kilkanaście dni.

Adres filmu na Youtube: https://youtu.be/BOiTtJHTNwc

Panel Parlamentu Europejskiego ds. Przyszłości Nauki i Technologii, w którym brała udział Margrethe Vestager.
Źródło: Eva Kaili Official / YouTube

Pod koniec ubiegłego tygodnia przeprowadzono też debatę o przyszłości europejskiej SI w ramach Panelu Parlamentu Europejskiego ds. Przyszłości Nauki i Technologii (STOA), która wywołała spore emocje. Vestager, odpowiadając na pytania, starała się przekonać wszystkich, że SI to dobrodziejstwo, o ile zostanie właściwie przygotowana i uregulowana w każdym sektorze, szczególnie silnie tam, gdzie chodzi o technologię wysokiego ryzyka. Stwierdziła, że nie opowiada się za zmianą przepisów o ochronie danych osobowych, ale za ich bardzo dokładną implementacją. Zwróciła też uwagę na kwestię ogromnych ilości danych, często poza osobowymi, które wygeneruje np. internet rzeczy. Stwierdziła, że mogą być złotem dla biznesu, ale dopóki będący w ich posiadaniu boją się nimi dzielić, to złoto jest warte tyle, co nic.

Pewne jest, że kluczowym wyzwaniem jest dla Europy znalezienie równowagi pomiędzy tym, co może zaoferować sztuczna inteligencja, a tym, jak chronić prywatność, budować zaufanie i pozostać etycznym.

– Niektóre zastosowania sztucznej inteligencji niosą za sobą niskie ryzyko lub żadne, ale niektóre mogą być kwestią życia lub śmierci – mówiła Vestager w wywiadzie dla Euronews tuż po wspomnianej debacie. – Więc jeśli jest to bardzo ryzykowne, musimy być ostrożni. Jeśli chodzi o całą resztę – po prostu cała naprzód.

Skip to content