Na pytanie o przyszłość sztucznej inteligencji trzeba patrzeć w szerszym kontekście: Dokąd to wszystko zmierza? Po co nam to? Czy robimy to tylko po to, żeby zarabiać pieniądze, czy jednak poprawić jakość życia? – mówi dr Jarosław Protasiewicz, dyrektor OPI PIB, w rozmowie z Maciejem Chojnowskim

Maciej Chojnowski: Pod adresem sztucznej inteligencji pada dziś sporo zarzutów. Gary Marcus twierdzi, że uczenie głębokie – mimo wielu sukcesów – nie może być uważane za ostateczny paradygmat SI, bo wciąż nie gwarantuje rozumienia przyczynowo-skutkowego. Z kolei Jeffrey Funk przekonuje, że szum wokół SI jest w dużej mierze sztucznie podsycany przez marketerów czy inwestorów i mamy do czynienia z bańką spekulacyjną podobną do Dotcom Bubble z początku XXI w. Jak ty jako wieloletni praktyk SI oceniasz te zjawiska?

Dr Jarosław Protasiewicz*: Raczej przychylałbym się do tych opinii. Choć zarazem nie sądzę, że to będzie taka sama bańka jak ta internetowa sprzed 20 lat. Wszystko zależy od tego, czy tam rzeczywiście są pieniądze, czy nie. Ja myślę, że są, ale nie aż takie, jak niektórzy się spodziewają.

Dużo korporacji „odświeża” dziś swoje portfolio. Coś, co kiedyś nazywało się data mining, jest teraz sztuczną inteligencją czy uczeniem maszynowym. Podążamy za modą. Za parę lat powstanie nowe hasło, które wiele osób ochoczo wypisze na sztandarach. Plejada gwiazd, które żyją z uczestnictwa w konferencjach, będzie wtedy mówić inne rzeczy. Ale na pewno coś też z tego zostanie i inżynierowie czy naukowcy będą kontynuować swoje prace. Może tylko w innym stopniu.

Nie wiemy natomiast, jak za parę lat będzie wyglądał świat. Może w związku z epidemią upadnie paradygmat ciągłego wzrostu? Na pytanie o przyszłość sztucznej inteligencji trzeba patrzeć w szerszym kontekście: Dokąd to wszystko zmierza? Po co nam to? Czy robimy to tylko po to, żeby zarabiać pieniądze, czy jednak poprawić jakość życia?

To też problem weryfikacji, na ile SI rzeczywiście jest skuteczna. Funk przyjrzał się entuzjastycznym raportom tworzonym przez firmy konsultingowe i postanowił sprawdzić, jak wyglądają rzeczywiste osiągnięcia najlepiej dofinansowanych start-upów SI w USA. Okazało się, że huczne zapowiedzi nie do końca się ziściły. Przynajmniej na razie. Czy w takim razie można dziś wskazać obszary, w których SI jest rzeczywiście skuteczna?

Szeroko rozumiana sztuczna inteligencja od dawna jest częścią przemysłu. Przykładem mogą być różne modele prognozowania awarii czy automatycznego sterowania procesami przemysłowymi. Oczywiście, gros tych rozwiązań automatyki przemysłowej to zwykłe sterowniki proporcjonalno-różniczkująco-całkujące. Należy też pamiętać, że nauka modelu SI sprowadza się w rzeczy samej do policzenia pierwszych pochodnych funkcji celu. Kłania się program szkoły średniej.

Tych naprawdę skutecznych rozwiązań SI nie ma aż tak wiele. Najczęściej SI to jednak tylko dodatek, który, technicznie rzecz biorąc, robi małą różnicę. Tylko że ona bywa kluczowa, żeby sprzedać produkt

Ale istnieją inne ważne rozwiązania, np. przetwarzanie języka naturalnego, translatory. Wcześniej były one oparte o modele statystyczne, teraz królują rekurencyjne sieci neuronowe i to się sprawdza. Oprócz tego przetwarzanie mowy na tekst, mówienie przez automaty. I oczywiście przetwarzanie obrazu. Mamy to w samochodach autonomicznych. Tu co prawda pojawia się pytanie, czy samochód autonomiczny będzie działać w systemie otwartym, a nie w wyizolowanym środowisku testowym. Moim zdaniem nie. Ale rozwój trwa, powstają nowe metody.

Trochę tego jest.

Tak, ale tych naprawdę skutecznych rozwiązań SI nie ma aż tak wiele. Najczęściej SI to jednak tylko dodatek, który, technicznie rzecz biorąc, robi małą różnicę. Tylko że ona bywa kluczowa, żeby sprzedać produkt.

Dr Jarosław Protasiewicz

Na pewno więc potrzebujemy nowych rozwiązań, bo to niekoniecznie same sztuczne sieci neuronowe spowodowały rozwój (to podejście znane było od lat), tylko Nvidia i jej procesory, a także coraz lepsze biblioteki programistyczne. Dziś przy odrobinie wiedzy właściwie każdy może stworzyć model SI. Inna rzecz, że większość modeli jest obecnie niezgodna ze sztuką.

Na czym polega ta niezgodność?

Wyniki są podawane na podstawie zbiorów trenujących. W ogóle pomija się kwestie walidacji i testu. Czyli nie jest zachowana żelazna zasada. I takie wyniki są po prostu często nieprawdziwe.

Na dodatek w różnych pracach pojawiają się konkluzje typu: „Poprawiliśmy działanie modelu o pół punktu procentowego”. A to i tak dobrze, bo czasem tylko o jedną dziesiątą! Trzeba zadać sobie pytanie, po co to w ogóle robimy.

Oczywiście, naukowiec może robić sztukę dla sztuki, bo po prostu chce być lepszy. Ale ostatecznie jeśli nie wymyśla nowej metody, tylko wciąż optymalizuje tę starą, uzyskując o pół punktu procentowego lepszą precyzję, to co z tego? A może gdybyśmy zastosowali zwykłą regresję i dostali o jeden procent gorszy wynik, to dla człowieka, który później będzie tego modelu używał, nie miałoby to żadnego znaczenia?

Chyba nazbyt ulegamy technooptymistycznej narracji. Zewsząd słychać, że dzięki SI coś zoptymalizujemy, ale tak naprawdę nie bardzo wiadomo, jaka z tego będzie realna korzyść. Czy duża część projektów SI jest dzisiaj realizowana bez przełożenia na produktywność, tylko z myślą o marketingu lub wysokiej wycenie spółek technologicznych?

W większości wypadków modele czy algorytmy sztucznej inteligencji dają troszkę lepsze wyniki. Ale czy rzeczywiście są potrzebne? Na pewno po to, żeby sprzedać produkt. Reklamuje się go, że jest inteligentny, bo konsumenci się na to łapią. A tam może nawet nie być żadnego algorytmu albo jest tylko jakaś namiastka.

Choć jest też wiele produktów użytecznych. Banalny przykład: w Tajlandii dzięki translatorowi z iPhone’a porozumiałem się przy ognisku z Chińczykiem. Nędznie, bo nędznie, ale to i tak więcej niż nic.

Moją specjalizacją na studiach była robotyka. Pamiętam, że już 20 lat temu próbowano wprowadzać algorytmy, które by lepiej sterowały maszynami. Zawsze jednak była ta twarda matematyka, np. trzeba było obliczyć, czy ramię robota nie wpadnie w rezonans. To było bezwzględnie konieczne.

Choć więc dziś algorytm sztucznej inteligencji może być tylko ciekawym dodatkiem, który zrobi drobną różnicę, najważniejsze jest, żeby sam produkt był użyteczny.

To powinno być kluczowe kryterium.

Jakiś czas temu byłem na konferencji w Stanach poświęconej interfejsom mózg-maszyna. Jeden wynalazca z Berkeley miał pomysł zbudowania prostego ramienia robotycznego sterowanego EEG, które osobie sparaliżowanej pozwoliłoby się napić, tak żeby nie była kompletnie uzależniona od opiekunów. Uważał, że ta podstawowa wersja musi kosztować tysiąc dolarów, żeby osoba niepełnosprawna mogła sobie na nią pozwolić.

Nie wiem, czy ostatecznie mu się to udało. Ale z tej całej masy wystąpień to wryło mi się w pamięć. Praktyczność: bez względu na to, czy to jest SI, czy nie, musi poprawiać jakość życia i być osiągalne finansowo. To jest kluczowe.

Wiele osób krytycznie ocenia prowadzone w Polsce prace badawczo-rozwojowe. Spotkałem się z opiniami, że to częściowo efekt przełomu 1989 r., gdy sporo laboratoriów zostało zlikwidowanych. A może polscy przedsiębiorcy nie są zainteresowani innowacjami?

Zgadzam się, że po 1989 r. zlikwidowano bardzo dużo laboratoriów badawczo-rozwojowych. Gdy w 1998 r. ukończyłem robotykę, okazało się, że nie jestem w stanie wykonywać zawodu, bo robotyka przestała w Polsce istnieć. Teraz już wróciła, ale wtedy musiałem się zająć informatyką.

Uczelnie nie są dostosowane do współpracy z przedsiębiorcami. Przedsiębiorcy nie chcą z nimi współpracować ze względu na organizacyjną archaiczność uczelni. To jest podstawowy problem

Ja mam raczej pozytywny obraz przedsiębiorców. Oni szukają dobrych inwestycji, tylko że w Polsce nie mamy aż takiego kapitału ani bardzo szerokich kontaktów międzynarodowych, by wytworzyć złożone łańcuchy dostaw. Głównie bazujemy na prostych produktach.

Z drugiej strony na tych prostych produktach gospodarka zarabia najwięcej. Te superinnowacyjne wcale nie przekładają się na ogromny dochód narodowy.

A jak oceniasz samą współpracę nauka – biznes w Polsce?

Uczelnie nie są dostosowane do współpracy z przedsiębiorcami. Przedsiębiorcy nie chcą z nimi współpracować ze względu na organizacyjną archaiczność uczelni. To jest podstawowy problem.

Drugi problem to strach przed współpracą, ponieważ mamy ustawę o zamówieniach publicznych i ludzie się boją, że ktoś ich oskarży o jakieś szwindle i utopi w bagnie za jedną złotówkę. Więc przedsiębiorcy nie chcą współpracy instytucjonalnej. Wolą współpracować bezpośrednio z konkretnymi osobami.

Ale nie snułbym też zupełnie pesymistycznej wizji. Coraz więcej młodych ludzi tworzy firmy i stara się we współpracy z uczelnią i jakąś większą firmą coś robić. Przede wszystkim trzeba się więc zastanowić, czego naprawdę potrzebują przedsiębiorcy. A im chodzi po prostu o bezpieczny interes. Choć oczywiście są też pasjonaci, którzy chcą robić to, co lubią. Na pewno duże znaczenie w relacjach nauka – biznes odgrywa też wzajemne zaufanie, kontakt osobisty.

Ostatnio przysłuchiwałem się debacie na ten temat, którą zorganizowały Koalicja na rzecz Polskich Innowacji i Fundacja na rzecz Nauki Polskiej. Przedstawiciel biznesu mówił wtedy, że przedsiębiorcy muszą się nauczyć rozmawiać z naukowcami, natomiast naukowcy muszą wiedzieć, że biznes chce konkretnych rzeczy. Czy w kontekście wymogów, które wprowadza Konstytucja dla Nauki, coś się tutaj zmienia?

Jestem optymistą. Myślę, że istnieje jakaś chęć współpracy. Biznes musi się nauczyć współpracować z uczelniami, ale druga strona również musi być otwarta.

Pamiętam, jak pojawiał się u nas ktoś z uczelni i dostawał zadanie do wykonania. To się niestety często tak kończyło, że zamiast dostać krzesło, otrzymywaliśmy koncepcję młotka. Bo ten ktoś podchodził do sprawy „holistycznie”. To jest właśnie to głębokie odrealnienie wielu osób z uczelni.

Kiedy otwierałem swój przewód doktorski, mówiłem, że mój algorytm został wdrożony w zakładzie energetycznym, gdzie bardzo dobrze działa. Ale profesorów interesowała tylko publikacja. Wdrożenie nie miało znaczenia. Na szczęście teraz to się zmienia.

Mówi się, że trwa nowy wyścig zbrojeń. Tylko już nie na rakiety, ale na technologie, chociaż broń autonomiczna to też ważny wątek. Jak widzisz pozycję Polski na tej mapie? Czy w ogóle mamy szansę jakoś się w tym wyścigu odnaleźć?

Polska nie należy tu do głównych graczy. Robimy to, na co inni nam pozwalają. Nie rozwijamy pewnych ewidentnych gałęzi przemysłu, bo chyba nie możemy. Zresztą wiele krajów nie może.

A czy mamy jakąś szansę? Na pewno tak, zwłaszcza że teraz niektórzy prognozują, że wiele firm z Europy może skrócić łańcuchy dostaw i przenieść produkcję do w miarę tańszej Europy Środkowo-Wschodniej. Być może więc dostaniemy większy kawałek tortu.

Czy zatem polska polityka rozwoju sztucznej inteligencji powinna zdefiniować konkretne obszary i planowo je rozwijać, czy zostawić to spontanicznemu rozwojowi rynku?

Musimy definiować cele strategiczne. Co więcej, państwo musi oceniać kierunki strategiczne w oparciu o wiedzę ekspertów, a nie czyjeś arbitralne decyzje.

Niewidzialna ręka rynku się skompromitowała. Państwo ma różne narzędzia stymulowania rozwoju, ale też obowiązek zapewnienia bezpieczeństwa fizycznego, ekonomicznego i zdrowotnego obywatelom. Więc definiując przeróżne strategie rozwoju (w tym sztucznej inteligencji) i stymulując ten rozwój, musi dbać o to, żeby obywatele mieli przestrzeń do wygodniejszego, lepszego i bezpieczniejszego życia. Wtedy ma to szansę się udać.

Ten sposób myślenia jest wyraźnie obecny w powstających w OPI PIB systemach POL-on 2.0 i RAD-on. RAD-on to elastyczne narzędzie, które pozwoli wykorzystywać zgromadzone dane nie tylko instytucji, która je zamówiła, ale też innym zainteresowanym. Jaką rolę w tych systemach odgrywa sztuczna inteligencja?

POL-on korzysta przede wszystkim z narzędzi do przeszukiwania danych. Chodzi głównie o technologie przetwarzania języka naturalnego. Natomiast w przypadku RAD-onu jesteśmy na etapie budowania analityki w oparciu o tradycyjne narzędzia, czyli tzw. business intelligence, ale planujemy też wykorzystywać bardziej złożone modele uczenia maszynowego.

Musimy definiować cele strategiczne. Co więcej, państwo musi oceniać kierunki strategiczne w oparciu o wiedzę ekspertów, a nie czyjeś arbitralne decyzje

Chcemy szeroko udostępniać te dane, aby przedsiębiorcy mogli wytworzyć na ich podstawie nowe usługi. Nawiązaliśmy współpracę z przedsiębiorstwem z Czech. Oni rzeczywiście pobierają te dane i ich używają.

Jakich danych to dotyczy i dlaczego ich to zainteresowało?

Ta czeska firma dostarcza narzędzia do doboru ekspertów z różnych dziedzin i chciała też znać potencjał Polski. Podpisaliśmy porozumienie o współpracy przy nowych projektach i będziemy się starać to rozwijać.

Ale to też znamienne, że to czeska firma się tym zainteresowała, a nie polska.

Może w Polsce brakuje konkretnych przykładów, które by ilustrowały realne korzyści z nowych technologii? Niemcy postawili na taki model edukacji przedsiębiorców, bo inaczej się rozmawia o wykorzystaniu sztucznej inteligencji z producentem autobusów, a inaczej z rolnikiem.

Tak. Przykłady są bardzo ważne. Ale potrzebna jest też kadra decyzyjna otwarta na świat. Nasze instytucje muszą być umiędzynarodowione. Muszą nas odwiedzać profesorowie, doktoranci, postdocy z innych krajów. Musimy współpracować z różnymi firmami, nie tylko polskimi. Szeroka sieć współpracy to podstawa.

Porozmawiajmy o gospodarce zasilanej danymi. Ile w tej koncepcji prawdy, a ile marketingu?

Istnieje teoria, że kto ma dane, ten ma władzę. Ale ja bym raczej powiedział, że władzę ma ten, kto ma sprawdzoną informację, a nie same dane.

Mamy dwa podejścia do tworzenia wiedzy. Pierwsze, dziś bardzo popularne, polega właśnie na tym, że mamy dane i coś istotnego z nich wydobywamy. Tylko najpierw trzeba sobie zadać pytanie, czy te dane są kompletne i rzeczywiście odzwierciedlają to, co się dzieje. Bo możemy dostać błędne dane i na tej podstawie zbudować wiedzę, która będzie fałszywa.

Nie jest do końca jasne, jak sztuczna inteligencja działa. Dlatego dokładność, wyjaśnialność jest tutaj kluczowa, żeby można było ją stosować w sytuacjach mających wpływ na ludzkie życie.

Jest też drugie, starsze podejście, gdzie wychodzimy od wiedzy eksperckiej. Czasem trzeba skorzystać z takiego modelu top-down, czyli wziąć kilka mądrych osób, które powiedzą, jak się sprawy mają. Nie zawsze potrzebujemy milionów kliknięć. W niektórych wypadkach na pewno gospodarka oparta o dane ma sens, tylko te dane muszą być istotne i wiarygodne. Natomiast w wielu przypadkach takiego sensu nie ma.

W „Rebooting AI” Gary Marcus pisze o konieczności uwzględnienia w dzisiejszym myśleniu o SI także systemów eksperckich. Podaje przykłady wiedzy wrodzonej: kozice w kilka dni po urodzeniu już skaczą po skałach, a przecież nie miały czasu się tego nauczyć. Być może trzeba więc pewne rzeczy programować odgórnie. Czy taka fuzja paradygmatów SI jest sensownym rozwiązaniem?

Zdecydowanie tak. Generalnie stawiałbym na uczenie ze wspomaganiem: żeby jednak wprowadzać do modeli jakąś wiedzę ekspercką czy korygować je w oparciu o tę wiedzę. Oczywiście, eksperci mogą pewnych rzeczy nie wiedzieć, a z danych może wynikać nowa wiedza. Ale ją też powinni weryfikować eksperci. Te dwa podejścia muszą się uzupełniać.

Europa chce dziś etycznej sztucznej inteligencji. Tylko że w podejściu do danych na Starym Kontynencie czy w Stanach Zjednoczonych, a szczególnie w Chinach, jest zasadnicza różnica. My z jednej strony chcemy bronić prawa obywateli do prywatności czy anonimowości, z drugiej zaś rozwijać narzędzia, które właśnie na wielkich zbiorach danych są oparte. Czy to ma szansę powodzenia?

Cóż, technologia ma nam służyć, a nie być celem samym w sobie. Jeżeli ktoś sobie nie życzy przetwarzania swoich danych, to musi mieć do tego prawo.

Ale oczywiście są obszary, gdzie dane przetwarzamy niezależnie od tego, czy ktoś się zgadza, czy nie, bo dzięki temu zapewniamy bezpieczeństwo ogółu albo jesteśmy w stanie wytropić przestępcę. Z RODO postąpiliśmy chyba jednak trochę zbyt restrykcyjnie. A może jednak sami wymyśliliśmy sobie w Polsce niektóre problemy?

Jak w takim razie etycznie rozwijać nowe technologie?

Musimy znaleźć złoty środek, jeśli chodzi o gromadzenie danych. Druga sprawa to wyjaśnialność sztucznej inteligencji. To bardzo istotne.

Gdy zajmowałem się automatyką przemysłową i tworzyłem układ sterowania jakimś procesem, to jakakolwiek pomyłka nie wchodziła w rachubę. Bo jeżeli zrobiłbym coś źle, to byłaby katastrofa. W inżynierii wszystko musiało być dopracowane precyzyjnie.

Natomiast w informatyce jest tak, że software ma ogromną liczbę błędów. Robi się to szybko, niedokładnie. To jest ciągle manufaktura. Tak samo sztuczna inteligencja. Nie jest do końca jasne, jak to działa. Dlatego dokładność, wyjaśnialność jest tutaj kluczowa, żeby można było ją stosować w sytuacjach mających wpływ na ludzkie życie.

Co ciekawe, swoją pracę magisterską miałem pisać o sterowaniu pompą infuzyjną i dozowaniu lekarstwa pacjentowi na podstawie pomiaru temperatur i ciśnienia wewnątrzczaszkowego. Już się przygotowywałem, miałem uczestniczyć w operacjach. Ale w końcu lekarze zapytali: „A jak pan nam to opracuje, a pacjent umrze, to kto będzie za to odpowiadał?”.

To fundamentalne pytanie.

I zadano je w 1997 roku, gdy zaczynałem pracę magisterską. Jeśli chodzi o odpowiedzi, to niewiele się do dzisiaj zmieniło.


Dr Jarosław Protasiewicz – dyrektor Ośrodka Przetwarzania Informacji – Państwowego Instytutu Badawczego**. Pracę doktorską obronił w Instytucie Badań Systemowych PAN. Wykładowca w Wyższej Szkole Informatyki i Zarządzania w Warszawie. W OPI PIB przez wiele lat pełnił funkcję kierownika Laboratorium Inteligentnych Systemów Informatycznych – największego w Instytucie. Jego kariera zawodowa od wielu lat jest związana z obszarem B+R. Wśród jego zainteresowań wymienić można sztuczną inteligencję, tworzenie oprogramowania, statystykę, prognozowanie szeregów czasowych, text i web mining. Obecnie zajmuje się zarządzaniem projektami z wykorzystaniem metodyk zwinnych, projektowaniem i rozwijaniem oprogramowania, jak również uczeniem maszynowym, bioinformatyką oraz big data.


**OPI PIB jest wydawcą portalu sztucznainteligencja.org.pl