Komisja Prawna Parlamentu Europejskiego przyjęła właśnie trzy raporty dotyczące rozwoju i wykorzystania systemów sztucznej inteligencji

Europosłowie zatwierdzili niedawno propozycje dotyczące możliwości i wyzwań prawnych stwarzanych przez sztuczną inteligencję w dłuższej perspektywie. Co dokładnie? Same konkrety. Chodzi o trzy ważne aspekty: etykę, odpowiedzialność cywilną i własność intelektualną. Przegłosowane sprawozdania opierają się na „Białej księdze sztucznej inteligencji” Unii Europejskiej, raporcie w sprawie ram bezpieczeństwa i odpowiedzialności oraz konsultacjach publicznych z tego lata.

Komisja Prawna Parlamentu Europejskiego jest uprawniona m.in. do lepszego stanowienia i upraszczania prawa Unii Europejskiej. Głosując nad trzema raportami, będącymi inicjatywami ustawodawczymi, europarlamentarzyści stwierdzili po pierwsze, że sztuczna inteligencja z możliwością samouczenia się powinna być zaprojektowana tak, aby umożliwić nadzór człowieka, że potrzebny jest przyszłościowy system odpowiedzialności cywilnej do ochrony osób prywatnych i przedsiębiorstw oraz że SI wymaga skutecznego systemu własności intelektualnej i zabezpieczeń dla programistów

Etyczna SI

Pierwsza z inicjatyw ustawodawczych wzywa Komisję Europejską do przedstawienia nowych ram prawnych określających zasady etyczne, które mają być wykorzystane podczas opracowywania, wdrażania i korzystania z SI (oprogramowania, algorytmów i danych), robotyki i powiązanych technologii na terenie Unii. W przyszłych przepisach należy uwzględnić zasady, że SI jest stworzona przez człowieka i kontrolowana przez niego, jest przejrzysta, bezpieczna i stosowana odpowiedzialnie – zarówno jeśli chodzi o społeczeństwo, jak i środowisko, zabezpieczona przed uprzedzeniami i dyskryminacją. Prawo ma dawać możliwość zadośćuczynienia za wyrządzenie szkody, a ochrona praw podstawowych jest zagwarantowana. SI z umiejętnością uczenia maszynowego umożliwiać powinna nadzór człowieka. Jeśli używana jest funkcja, która wiązałaby się z poważnym naruszeniem zasad etycznych i byłaby potencjalnie niebezpieczna dla ludzi, należy wyłączyć zdolność samodoskonalenia i powrócić do bezpiecznego działania.

Odpowiedzialna SI

Druga z przegłosowanych w Komisji Prawnej bez głosów przeciw inicjatyw ustawodawczych wzywa do dostosowania ram odpowiedzialności cywilnej. Osoby wdrażające SI wysokiego ryzyka (high risk AI, gdzie wysokie ryzyko oznacza znaczny potencjał w autonomicznie działającym systemie SI do wyrządzenia krzywdy lub szkody jednej osobie lub większej liczbie osób w sposób losowy i niemożliwy do przewidzenia z góry; znaczny potencjał zależy od wzajemnego oddziaływania między skalą możliwej krzywdy lub szkody, prawdopodobieństwem, że ryzyko dojdzie do skutku, i sposobem użycia systemu) ponoszą całkowitą odpowiedzialność za spowodowane szkody. Ma to zachęcić do innowacji poprzez zapewnienie przedsiębiorstwom pewności prawa, lepszą ochronę obywateli i zwiększenie ich zaufania do technologii SI poprzez powstrzymanie ryzykownych działań. Ścisła odpowiedzialność powinna mieć również zastosowanie do systemów SI, które wielokrotnie powodowały szkody. Europosłowie skupili się na roszczeniach z tytułu odpowiedzialności cywilnej wobec operatorów systemów sztucznej inteligencji. Ma obejmować ochronę życia, zdrowia, nietykalności cielesnej, mienia, a także znaczną krzywdę niematerialną, jeżeli skutkuje „możliwą do zweryfikowania znaczną stratą ekonomiczną”.

Prawa do SI

Trzy głosy przeciwne (na 24 głosujących posłów Komisji) otrzymał wniosek dotyczący własności intelektualnej. Podkreśla on, że jak dotąd Komisja Europejska nie zajęła się kluczową kwestią ochrony praw własności intelektualnej (IPR) w kontekście sztucznej inteligencji. Posłowie wzywają do przygotowania oceny skutków w tej sprawie. W raporcie podkreślono, że światowe przywództwo UE w dziedzinie sztucznej inteligencji wymaga skutecznego systemu własności intelektualnej i zabezpieczeń dla systemu patentowego UE w celu ochrony deweloperów oprogramowania. Sztuczna inteligencja nie powinna mieć osobowości prawnej, dlatego „wynalazczość” powinna być przyznawana tylko ludziom. Posłowie omówili prawa autorskie, ochronę tajemnic handlowych i rozróżnienie między prawami własności intelektualnej na potrzeby rozwoju technologii sztucznej inteligencji a prawami własności intelektualnej, które mogą zostać przyznane w odniesieniu do dzieł stworzonych przez sztuczną inteligencję.

Głosowanie na posiedzeniu plenarnym europarlamentu zaplanowano na sesję w dniach 19-22 października. Wniosek ustawodawczy powinien pojawić się na początku przyszłego roku.

Sojusz SI radzi

Dziś (piątek 9.10) odbywa się drugie zgromadzenie AI Alliance. To forum zaangażowane w szeroką i otwartą dyskusję na temat wszystkich aspektów rozwoju sztucznej inteligencji i jej skutków. Powołane w 2018 roku w ramach europejskiej strategii sztucznej inteligencji na początku miało dostarczać informacje zwrotne Grupie Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji (AI HLEG), która została powołana przez Komisję Europejską w celu opracowania zaleceń dotyczących przyszłego rozwoju polityki związanej z SI. Przez cały dzień trwają debaty na tematy związane ze sztuczną inteligencją: od wykorzystania jej przeciwko koronawirusowi, przez zaawansowaną automatyzację, po identyfikację biometryczną
Możesz wziąć udział online. Start o godz. 10.00.

Skip to content