Sztuczna inteligencja w Unii Europejskiej ma być godna zaufania i tak „ludzka”, jak to tylko możliwe

Unia Europejska zamierza dogonić Stany Zjednoczone i Chiny w dziedzinie sztucznej inteligencji, tyle że na własnych warunkach. W opublikowanym w czwartek dokumencie pt. „Policy and investment recommendations for trustworthy Artificial Intelligence” (Polityczne i inwestycyjne rekomendacje dla sztucznej inteligencji godnej zaufania), za którym stoją eksperci z High-Level Expert Group on AI (AI HLEG), stawia na nowy rodzaj SI. Czym więc jest trustworthy AI?

Przyjazna, posłuszna i wierna

To taka sztuczna inteligencja, którą człowiek może kontrolować i której systemy służą wspieraniu, a nie nadzorowaniu, czy tym bardziej eliminowaniu ludzi. Pod względem technicznym jest wytrzymała i bezpieczna, szanuje naszą prywatność i prawo do danych, które nas dotyczą. Jest też przejrzysta, co oznacza, że wiesz, kiedy korzystając z sieci masz do czynienia z nią, a kiedy z innym człowiekiem.

Trustworthy AI jest też wolna od uprzedzeń, nikogo nie dyskryminuje z jakichkolwiek powodów. Dba, byśmy wśród innych ludzi, w naszym środowisku czuli się dobrze i by wszyscy czerpali z niej korzyści, a odpowiednie procedury gwarantowały, że za jej błędy ktoś odpowiada.

Trustworthy AI to taka sztuczna inteligencja, którą człowiek może kontrolować i której systemy służą wspieraniu, a nie nadzorowaniu, czy tym bardziej eliminowaniu ludzi

Unijni eksperci z AI HLEG oparli tę ideę na trzech założeniach. By jej stworzenie było możliwe, trzeba, po pierwsze, zwiększyć publiczne i prywatne inwestycje w rozwój sztucznej inteligencji jako takiej. Po drugie, jej nadejście powinny poprzedzić odpowiednie zmiany społeczno-ekonomiczne. I po trzecie: należy zadbać, by odpowiednie zasady etyczne i prawne ochraniały i wzmacniały europejskie wartości.

Trzy kryteria etyczności

Dla pewności, że SI będzie postępowała etycznie, opracowano trzy kryteria:

  • SI musi działać zgodnie z prawem – czyli przestrzegać wszelkich niezbędnych praw i regulacji;
  • SI musi być etyczna – czyli szanować etyczne zasady i wartości;
  • SI musi być odporna – zarówno ze strony technicznej, jak w kontekście środowiska społecznego.

Te trzy filary SI są bezpośrednimi pochodnymi zasad, na których oparta jest Unia Europejska: podstawowych praw, demokracji, państwa prawa. UE chce być w tej dziedzinie swoistym bastionem etyki i praw człowieka. Godna zaufania sztuczna inteligencja ma mieć dobry wpływ na sektor prywatny, publiczny, środowisko naukowe, wynalazców, edukację, biznes i infrastrukturę.

Wizja na dziesięć lat

Unia Europejska ma jasną wizję tego, co chce osiągnąć w ciągu najbliższych dziesięciu lat. Chodzi m.in. o to, by wzmocnić ochronę społeczeństwa przed potencjalnie negatywnymi skutkami rozwoju SI, stworzyć wspólny europejski rynek na potrzeby trustworthy AI, rozbudować inteligentne ekosystemy, rozbudować europejską gospodarkę danymi, zwiększyć europejskie możliwości badawcze, rozwinąć nowoczesną edukację i poprawić warunki do inwestowania w sztuczną inteligencję.

Ale przedstawiciele biznesu są mniej entuzjastyczni. Loubna Bouarfa, ekspertka w dziedzinie uczenia maszynowego, założycielka i prezeska firmy OKRA Technologies, wyjaśnia, że „(…) jedynie 25 proc. europejskich firm dostosowuje się do sztucznej inteligencji. Oznacza to, iż 75 proc. firm boryka się z problemami w tej kwestii. Osobiście widziałam opór ze strony korporacji w kwestii SI, szczególnie w przypadku managerów średniego i wyższego szczebla”.

Musimy być ostrożni

Czy trustworthy AI to realistyczne rozwiązanie? Czy będziemy w stanie kontrolować myślące maszyny?

Pekka Ala-Pietilä, członek Artificial Intelligence High Level Group, ocenia sytuację tak:

„Rozwój SI ma na celu polepszenie sytuacji na świecie, co wymaga podejścia holistycznego, byśmy mogli korzystać z dobrodziejstw sztucznej inteligencji, jednocześnie minimalizując zagrożenia. Tak jak w przypadku każdej technologii, SI niesie ze sobą szereg zagrożeń, które muszą być wzięte pod uwagę. Jeśli nie będziemy ostrożni, sztuczna inteligencja może nam zaszkodzić”.

Skip to content