Ponad 20 prelegentów, trzy panele i tematyka obejmująca prawo cywilne, autorskie, konsumenckie i komunikacyjne. 27 maja w Warszawie odbyła się konferencja „Nowe technologie i sztuczna inteligencja – aspekty prawne i praktyczne”, będąca owocem współpracy Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego z Uniwersytetem Kardynała Stefana Wyszyńskiego.

Profesor Jacek Gołaczyński z Uniwersytetu Wrocławskiego w swoim wystąpieniu rozważał możliwość stworzenia nowego podmiotu cywilnoprawnego w kontekście systemów sztucznej inteligencji (SI). Argumentował, że obecnie oprócz podmiotów prawa cywilnego, które odpowiadają faktycznie istniejącym osobom, mamy również do czynienia z umownymi tworami, na przykład osobą prawną. W tym ostatnim przypadku nie chodzi o realnie istniejącą osobę, ale jednostkę organizacyjną.

Z punktu widzenia prawa – zauważył prof. Gołaczyński – nie ma wielkiej różnicy między osobą prawną jako pewną konwencją a sztuczną inteligencją. Zasadnicza różnica pojawia się dopiero w kontekście odpowiedzialności. W przypadku osób prawnych (np. korporacji) ostatecznie występuje bowiem odpowiedzialność realnych ludzi reprezentujących dany podmiot. Kto jednak miałby odpowiadać za SI? Producent? Użytkownik? Na to pytanie nie ma jednoznacznej odpowiedzi.

Odciążyć sędziów

Katarzyna Szczudlik z kancelarii Wardyński i Wspólnicy omówiła problem wykorzystywania systemów sztucznej inteligencji do pozasądowego rozstrzygania sporów. Argumenty na rzecz wykorzystywania zautomatyzowanych systemów w arbitrażu są konkretne: to przede wszystkim oszczędność kosztów, sprawniejsza analiza dużych ilości danych i w efekcie znaczne przyspieszenie orzekania. Wadą tych systemów jest – przynajmniej na obecnym etapie – ich przydatność tylko do stosunkowo prostych spraw.

– Nie wyobrażam sobie możliwości rozwiązania skomplikowanego handlowego sporu wyłącznie przez arbitra-robota – przekonywała mecenas Szczudlik.

Integracja kontra inwigilacja

Luigi Lai z OPI PIB poruszył problem prywatności w erze big data i uczenia maszynowego. Jego zdaniem współcześnie największym problemem nie jest to, które z naszych danych posiada korporacja, ale co jest w stanie na ich podstawie stworzyć. Chodzi przede wszystkim o działania niezgodne z celami, na które użytkownik pierwotnie wyraził zgodę. W praktyce skutkuje to zwykle profilowaniem.

Prelegent mówił o dwóch możliwych rozwiązaniach tej sytuacji: utopijnym i pragmatycznym. Pierwsze z nich polegałoby na powołaniu niezależnej instytucji kontrolującej, czy algorytmy nie prowadzą do nieoczekiwanych wniosków naruszających prawo do prywatności (na przykład na podstawie pozornie neutralnych danych wnioskują o orientacji seksualnej, poglądach politycznych czy stanie zdrowia danej osoby). Jednak jako narzędzie bardziej prawdopodobne wskazał stworzony do tego celu specjalny algorytm kontroli, który pozwalałaby stwierdzić, czy w danym przypadku mamy do czynienia z nieoczekiwaną korelacją.

Pomysł ten rozwijał w nawiązaniu do teorii Helen Nissenbaum, która ochronę prywatności łączy z przestrzeganiem tzw. integralności kontekstowej, czyli wykorzystywaniem danych tylko w takim kontekście, na jaki wyrażono zgodę przy ich zbieraniu.

Przejrzysta SI w medycynie

Natalia Kalinowska z UKSW poruszyła kwestię przetwarzania danych osobowych w aplikacjach medycznych, m.in. działających na urządzeniach ubieralnych. Pytała, jak w takiej sytuacji najlepiej spełnić obowiązek informacyjny dotyczący przetwarzania danych osobowych. Sugerowała, że informacja taka – zamiast na samym urządzeniu – powinna być udzielana przez lekarza lub kogoś z personelu placówki medycznej. Jest to szczególnie ważne w przypadku osób starszych lub niemających dostępu do internetu.

Wśród korzyści płynących z zastosowania w medycynie inteligentnych aplikacji prelegentka wymieniła:

  • możliwość lepszego dopasowania terapii;
  • ulepszenie składu leków poprawiające ich skuteczność;
  • skrócenie czasu leczenia i zmniejszenie jego kosztów;
  • możliwość całościowej analizy zdrowia pacjenta z uwzględnieniem czynników środowiskowych czy genetycznych.

Wady zastosowania SI w medycynie to z kolei między innymi: ryzyko popełnienia błędu przez algorytm czy wysokie koszty procesu uczenia się SI oraz zabezpieczenia oprogramowania.

Była to pierwsza konferencja OPI PIB i UKSW z cyklu prawo i sztuczna inteligencja, ale kolejne wspólne przedsięwzięcie OPI i UKSW. W latach 2015–2017 obie instytucje realizowały razem projekt Centrum Technik Informacyjnych, w którym zespół OPI stworzył inteligentne narzędzia: E-survey i e-analitics. Przedstawiciele obu instytucji podkreślali, że mają nadzieję na kontynuację podobnych inicjatyw w przyszłości.

Skip to content