Unia chce, żeby sztuczna inteligencja była etyczna i bezpieczna. W lutym pokazała „Białą księgę sztucznej inteligencji”. Co na to giganci branży SI? Google właśnie opublikował swoją odpowiedź

W styczniu prezes zarządu Google’a Sundar Pichai, podobnie jak inni szefowie techgigantów, osobiście odwiedził Brukselę.

Rozmawiał z unijnymi ekspertami i przedstawicielami Komisji Europejskiej o sztucznej inteligencji oraz o tym, jak Google może się przysłużyć ludziom w erze cyfrowej. Chodziło też zapewne o to, by wywęszyć, co przyniesie przygotowywana wtedy „Biała księga sztucznej inteligencji Unii Europejskiej”, opublikowana w połowie lutego, i ewentualnie wpłynąć na jej zapisy.

Pierwsza wersja „Białej księgi”, przekazanej do konsultacji publicznych wraz z „Europejską strategią danych”, okazała się mocnym krokiem Europy w kierunku takiej Unii, która chce mieć wpływ na standardy rozwoju cyfrowej technologii na świecie, tak by ich głównym punktem odniesienia było dobro człowieka. Cyfrowa strategia Europy ma pomóc firmom z UE skuteczniej konkurować z amerykańskimi gigantami technologicznymi i chińskimi przedsiębiorstwami wspieranymi przez państwo.

Wizyta Pichaia w Brukseli nie była ostatnim ruchem firmy wobec unijnych zamiarów. Pod koniec maja firma opublikowała swoją odpowiedź na „Białą księgę SI” jako wkład do konsultacji prowadzonych nad dokumentem. Takie opinie można zgłaszać jeszcze do połowy czerwca.

„Biała księga” zawiera pogląd, że technologie SI wysokiego ryzyka powinny być poddawane rygorystycznym testom, zanim będą mogły trafić na rozległy rynek wewnętrzny UE. W szczególnie wrażliwych przypadkach trzeba będzie też rozważyć zmianę technik sztucznej inteligencji na tradycyjne. Pomysł ten uwiera branżę technologiczną, która twierdzi, że tak surowe wymagania będą hamować innowacje.

Google: wewnętrzne procedury wystarczą

Stanowisko Google’a w sprawie unijnej SI to 45-stronicowy dokument (wobec 27 stron unijnego), co pokazuje, jak ważny dla techgiganta z USA jest rynek europejski.

„Sztuczna inteligencja jest ważną częścią biznesu Google’a i naszych aspiracji na przyszłość. Mamy wspólny cel z decydentami – chęć budowania zaufania do SI poprzez odpowiedzialne innowacje i przemyślane regulacje, aby obywatele Europy mogli bezpiecznie cieszyć się pełnymi korzyściami społecznymi i ekonomicznymi SI. Mamy nadzieję, że nasz wkład w konsultacje będzie użyteczny, i czekamy na udział w dyskusji w nadchodzących miesiącach” – podsumował Kent Walker z Google’a na blogu firmy.

Gigant sądzi, że włączanie praw konsumentów do kategorii SI wysokiego ryzyka jest „zbyt szerokie, nieuzasadnione i nieproduktywne

Możemy przeczytać tam, że Google pochwala skupienie się Komisji na budowaniu europejskiego „ekosystemu doskonałości”. „Europejskie uniwersytety mają już uznanych liderów w kilkudziesięciu obszarach badań nad sztuczną inteligencją – niektórzy z nich współpracują z Google’em za pośrednictwem naszych centrów badań nad uczeniem maszynowym w Zurychu, Amsterdamie, Berlinie, Paryżu i Londynie – a wielu ich studentów wnosi istotny wkład w europejskie firmy”. Jest to oczywista sugestia, że Google także przyczynia się do rozwoju SI w Europie.

Walker pisze też, że gigant popiera plany Komisji, aby pomóc przedsiębiorstwom w rozwijaniu umiejętności sztucznej inteligencji potrzebnych do rozwoju w nowej gospodarce cyfrowej.

„W przyszłym miesiącu przyczynimy się do tych wysiłków, rozszerzając nasze narzędzie do testowania uczenia maszynowego na 11 krajów europejskich, aby pomóc małym firmom we wdrażaniu sztucznej inteligencji i rozwoju ich firm” – deklaruje.

Mowa o Machine Learning Checkup, które udostępniono włoskim firmom już w ubiegłym roku. Wbrew nazwie nie jest to narzędzie do testowania uczenia maszynowego. To kwestionariusz, po którego wypełnieniu firma otrzyma informacje o tym, jakie rozwiązania Google’a w dziedzinie SI mogą być jej przydatne (oczywiście Google otrzymuje z kwestionariusza wiele przydatnych informacji, więc nie ma w tym nic bezinteresownego).

Kent Walker pisze też, że Google popiera europejski cel, jakim jest stworzenie ram dla innowacji w zakresie sztucznej inteligencji, które zbudują zaufanie do tej technologii, pokierują jej etycznym rozwojem i wykorzystaniem.

„Ważne jest, aby aplikacje SI we wrażliwych dziedzinach – takich jak medycyna czy transport – były zgodne z odpowiednimi standardami”, czytamy.

Definicja SI wysokiego ryzyka

Google zgadza się też, że sztuczna inteligencja ma szeroki zakres obecnych i przyszłych zastosowań, w tym takie, które wiążą się ze znacznymi korzyściami, ale i ryzykiem.

„Uważamy, że wszelkie przyszłe regulacje skorzystałyby na bardziej szczegółowej definicji zastosowań SI wysokiego ryzyka. Zgadzamy się, że niektóre zastosowania wymagają dodatkowej kontroli i zabezpieczeń w celu sprostania prawdziwym i złożonym wyzwaniom związanym z bezpieczeństwem, uczciwością, wyjaśnialnością (explainability), rozliczalnością (accountability) i kontaktami międzyludzkimi”.

Sęk w tym, że Google chciałby oceniać ryzyko takich aplikacji „z zachowaniem równowagi”.

„Proces opracowywania sztucznej inteligencji musi dać ludziom pewność, że używany przez nich system sztucznej inteligencji jest niezawodny i bezpieczny. Dotyczy to zwłaszcza takich zastosowań, jak nowe medyczne techniki diagnostyczne (…). Ale wymogi [wobec takich rozwiązań] muszą być proporcjonalne do ryzyka i nie powinny nadmiernie ograniczać innowacji, przyjmowania takich rozwiązań i ich skutków”.

Wniosek Komisji sugeruje, by ryzyko SI oceniać „ex ante”, czyli robić to, zanim takie aplikacje zostaną wdrożone. Google sugeruje zamiast tego wdrażanie procedur należytej staranności (due diligence) i przeglądu przepisów obejmujących ocenę aplikacji SI. Zdaniem firmy pozwoliłoby to uniknąć niepotrzebnego powielania wysiłków i mogłoby przyspieszać wdrożenia. W „prawdopodobnie rzadkich” przypadkach, w których zastosowania SI wysokiego ryzyka nie są objęte istniejącymi przepisami, gigant sugeruje kierowanie się „jasnymi wytycznymi dotyczącymi kryteriów należytej staranności, które firmy powinny stosować w swoich procesach rozwoju”.

Takie podejście – jak twierdzi Google – dałoby obywatelom Europy pewność co do wiarygodności aplikacji SI, a jednocześnie wspierałoby innowacje w całym regionie. I zachęciłoby szczególnie mniejsze firmy do wprowadzenia szeregu cennych nowych usług.

Google w swoich uwagach do „Białej księgi SI” podkreśla, że Komisja Europejska nie powinna rozważać jedynie stopnia ryzyka, jakie może za sobą nieść SI, trzeba jeszcze rozważać jego prawdopodobieństwo. Dodatkowo sugeruje także analizowanie, jakie ryzyko wiąże się z niezastosowaniem systemu opartego o SI w danym przypadku – ten wątek pojawia się w uwagach kilkakrotnie.

Wniosek Komisji sugeruje, by ryzyko SI oceniać ex ante, czyli zanim takie aplikacje zostaną wdrożone. Google sugeruje zamiast tego wdrażanie procedur należytej staranności i przeglądu przepisów obejmujących ocenę aplikacji SI

Gigant sądzi także, że włączanie praw konsumentów do kategorii wysokiego ryzyka jest „zbyt szerokie, nieuzasadnione i nieproduktywne”. To akurat nie powinno dziwić – większość z nas jest konsumentami produktów firmy, która czerpie zyski z tego, że przetwarza nasze dane również za pomocą SI. Włączenie tej kategorii do grupy wysokiego ryzyka oznaczałoby, że gigant musiałby się gęściej tłumaczyć z tego, jak przetwarzane są nasze dane.

Przedstawiciele firmy uważają też, że przedstawione w unijnych propozycjach zero-jedynkowe podejście do kategorii „ryzyka” (istnieje lub nie) jest zbyt uproszczone. Ryzyko może mieć pewien stopień oraz prawdopodobieństwo wystąpienia. Bardziej zniuansowane podejście pozwoliłoby wyraźniej pokazać, że Europie chodzi o jednoczesne zmniejszanie ryzyka oraz prawdopodobieństwo jego wystąpienia.

Google rozważa również kwestię ludzkiego nadzoru nad systemami SI. W obecnym kształcie według firmy unijne propozycje nie wskazują, czy system SI obarczony jest wysokim ryzykiem, ale z wysokim stopniem ludzkiego nadzoru byłby uważany za bardziej bezpieczny niż bez nadzoru człowieka.

Niezmiernie ciekawy jest komentarz technologicznego giganta do pytania o to, czy SI może utrudnić dochodzenie odszkodowania osobom, którym wyrządziła szkodę. Google twierdzi, że pytanie oparte jest na błędnym założeniu, bowiem już dziś „łańcuchy dostaw są złożone na tyle, że maskują odpowiedzialność za szkodę”, a mimo to istnieją ramy prawne, które pozwalają w takich przypadkach dochodzić odszkodowania.

Równie smakowite jest stwierdzenie odnoszące się do jakości danych (na których SI jest trenowana). Google twierdzi, że choć jest to istotny czynnik, ważniejszy jest sposób, w jaki dane są wykorzystywane.

Słusznie natomiast chyba Google punktuje brak precyzji sformułowań „w „Białej księdze”, które mogą być zbyt ogólne: „wszelkie sytuacje związane z użyciem SI” czy „niebezpieczne sytuacje” to jednak sformułowania na tyle ogólnikowe, że można rozciągnąć je na bardzo wiele przypadków.

Projektować z myślą o prywatności

Kent Walker przypomina, że Google opublikował własne zasady dotyczące sztucznej inteligencji („AI Principles” w 2018 roku i ustanowił wewnętrzne procedury kontroli, między innymi by „projektować z myślą o prywatności”. Przypomina też, że zasady określają obszary, w których firma nie rozwija SI (na przykład do celów masowej inwigilacji czy naruszania praw człowieka, choć nie wspominają na przykład o obronności). Zapowiada też aktualizację zasad w nadchodzących tygodniach.

W uwagach do unijnej „Białej księgi SI” w kwestii rozpoznawania twarzy Google w zasadzie zgadza się ze stanowiskiem Unii – powinno być dozwolone w miejscach publicznych tylko w szczególnych przypadkach, gdy zostaną spełnione szczególne warunki. Firma zauważa, że nawet do zapewnienia bezpieczeństwa publicznego mogą wystarczać inne, tradycyjne środki, bez konieczności zbierania tak wrażliwych danych. To do krajów członkowskich powinny należeć decyzje w kwestii rozwiązań prawnych, twierdzi gigant.

Google proponuje też poszerzyć proponowaną definicję SI. W unijnej wersji są to systemy zaprojektowane przez ludzi, które po zadaniu im złożonych celów uczą się z doświadczenia, jak działać w wymiarze fizycznym lub cyfrowym poprzez zbieranie danych, przetwarzają je, interpretują, wyciągają wnioski i decydują o najlepszym sposobie osiągnięcia celu. Google po słowach „uczą się z doświadczenia” proponuje dodać także „lub są programowane przez projektantów”. Sugeruje natomiast wykreślenie odwołania do hardware’u oraz wykreślenie następnego zdania definiującego systemy SI także jako oparte na regułach symbolicznych, wyuczonych systemach numerycznych oraz dostosowaniu się do środowiska na podstawie wpływu poprzednich działań systemu na otoczenie.

W jednym z pytań Komisji Europejskiej do „Białej księgi SI” w rubryce „inne, niewyszczególnione wyżej kwestie związane z SI” Google odpisuje: „Google wyraża troskę o to, że koszt alternatywny (opportunity cost) niewdrażania rozwiązań SI nie znajduje odpowiedniego odzwierciedlenia w debatach. Przy rozważaniach dotyczących ryzyka związanego z SI powinniśmy także brać pod uwagę, że podejścia nieoparte o SI również mają wady. Powinniśmy porównywać ryzyko SI z istniejącymi rozwiązaniami. Gdyby niedoskonały system SI wykazał większą dokładność w wykonywaniu istotnego, ratującego życie zadania, jego niewykorzystanie byłoby nieodpowiedzialne”.

Skip to content