Dyskusja o tym, jak w erze sztucznej inteligencji ma wyglądać uniwersytet, jest dyskusją zastępczą. Zastanówmy się raczej nad tym, jak mamy funkcjonować jako społeczeństwo w świecie, w którym rozwiązania oparte o SI będą odgrywały coraz większą rolę. Z Mateuszem Gaczyńskim, zastępcą dyrektora Departamentu Innowacji i Rozwoju w MNiSW, rozmawia Maciej Chojnowski

Maciej Chojnowski: Podczas debaty Koalicji na rzecz Polskich Innowacji oraz Fundacji na rzecz Nauki Polskiej o relacjach nauki i biznesu powiedział pan, że Konstytucja dla Nauki to zwieńczenie szerszego procesu legislacyjnego. Z czego się on składa?

Mateusz Gaczyński*: Konstytucja dla Nauki jest swoistym parasolem dla wszystkich zmian mających pomóc w rozwoju innowacyjności i zbliżenia środowiska naukowego i biznesowego w Polsce, które wprowadzaliśmy od końca 2015 roku. W ich skład wchodzą dwie ustawy o innowacyjności, ustawa o Sieci Badawczej Łukasiewicz i właśnie Konstytucja dla Nauki. Pewnym dodatkiem do tego systemu jest przygotowana przez Ministerstwo Rozwoju ustawa o IP Box, czyli ulgach podatkowych z tytułu zastosowania nowych technologii czy wyników prac badawczo-rozwojowych.

Mamy więc naprawdę bardzo dobrze rozwinięty system wsparcia dla obu stron, które chcą angażować się we wspólne działania i inwestować w badania i rozwój. Nie ma się czego wstydzić nawet w porównaniu z krajami, które w rankingach innowacyjności stoją wyżej od nas.

W „Polityce rozwoju sztucznej inteligencji w Polsce” pojawiają się dwa ważne wątki związane z edukacją: Wirtualny Instytut Badawczy i szkoła doktorska. Co z perspektywy Ministerstwa Nauki i Szkolnictwa Wyższego jest kluczowe, by wesprzeć w kraju rozwój sztucznej inteligencji?

Szkoła doktorska czy Wirtualny Instytut Badawczy są bardzo ważne, bo będą dostarczały kadr i wyników badań, które potem mogą być zastosowane w gospodarce. Natomiast jeżeli mówimy o rozwoju gospodarki opartej o dane, to szansą jest raczej to, że co roku polskie uczelnie kończy około 100 tysięcy absolwentów mających kompetencje w dziedzinach, w których uczenie maszynowe i elementy SI mogą być najszybciej wykorzystane. Inżynier to przecież człowiek, którzy w swoje zawodowe DNA ma już w wpisaną jakąś znajomość technologii cyfrowych.

Przy okazji dotykamy tu jeszcze jednej kwestii – tego, w jakim stopniu polscy przedsiębiorcy dostrzegają możliwości sztucznej inteligencji. Z badania Fundacji Digital Poland z ubiegłego roku wynika, że bardzo niewiele polskich firm widzi potencjał zastosowania technologii cyfrowych, które wiązałyby się z czymś więcej niż z posiadaniem strony internetowej czy e-maila.

Polscy przedsiębiorcy rzeczywiście niezbyt chętnie wdrażają nowe rozwiązania. Jednak nawet tam, gdzie dochodzi do współpracy biznesu z nauką, słychać o innych problemach. Uczelnie narzekają, że biznes podbiera im specjalistów, a przedsiębiorcy – że dostają absolwentów, którzy nie potrafią patrzeć całościowo ani pracować w zespołach. Strona akademicka odpowiada na to, że byliby oni lepiej przygotowani, gdyby firmy dzieliły się danymi albo organizowały praktyki. Czy Ministerstwo może tu jakoś pomóc?

To, że biznes dostaje absolwentów nieprzygotowanych do pracy w firmie, jest prawdą. Tylko że tak samo wygląda to w Polsce, Stanach Zjednoczonych, we Francji, w Niemczech czy Wielkiej Brytanii. Badania OECD pokazują, że przedsiębiorcy ze wszystkich krajów mówią o brakach u absolwentów. Bez względu na to, jak wygląda model edukacji i jak bardzo jest on bliski biznesowi, biznes nigdy nie będzie zadowolony z „produktu”, który wychodzi z uczelni. Oba systemy mają po prostu trochę inne cele.

Ale można starać się wyrabiać wśród przyszłych pracowników umiejętność szybkiego uczenia się. Wtedy i przedsiębiorcy, i dydaktycy będą zadowoleni. Tylko to jest proces, który musi się zacząć dużo wcześniej niż na studiach. Potem takiego człowieka, który wie, jak się szybko uczyć, w ciągu pół roku do roku firma jest w stanie prawie całkowicie przekwalifikować.

Oczywiście, możliwe jest też profilowanie nauczania zgodnie z potrzebami firm, o ile nie kłóci się to z programem kształcenia. To już się dzieje. Istnieją studia, których programy są przygotowywane we współpracy z przedsiębiorcami: w przemyśle maszynowym, samochodowym, elektronicznym czy farmaceutycznym. W Krakowie działa studium podyplomowe dla absolwentów farmacji, które uczy farmacji przemysłowej.

Mylimy się, uważając, że zbudujemy coś mającego wszystkie przymioty inteligencji, a jednocześnie działającego wyłącznie na naszą korzyść

Niedawno rozmawialiśmy w trójkącie: Polpharma, Uniwersytet Warszawski i Ministerstwo o tym, by na UW stworzyć ścieżkę edukacyjną, która brałaby pod uwagę zapotrzebowanie na kompetencje istotne dla Polpharmy. Obie strony muszą się jeszcze dogadać, co można zrobić. Uczelnia musi to włożyć w ramy, które będą uzasadniały nadanie absolwentowi tytułu magistra. Bo to świadczy o jakości kształcenia, tym bardziej że kilka lat temu Ministerstwo wprowadziło Ogólnopolski system monitorowania Ekonomicznych Losów Absolwentów szkół wyższych (ELA). Dziś ludzie, decydując się na wybór kierunku na tej czy innej uczelni, mają czarno na białym to, co się najbardziej opłaca.

Czy taka współpraca firmy i uczelni przy tworzeniu programu studiów odbywa się spontanicznie i wynika ze specyfiki dziedziny, na którą jest zapotrzebowanie? Czy może jest wspierana instytucjonalnie, na przykład przez resort nauki?

W Ustawie 2.0 są jasne przepisy wskazujące na potrzebę interakcji między uczelnią a otoczeniem społeczno-gospodarczym. Na kierunkach „zawodowych” dwukrotnie wydłużyliśmy okres praktyk, z trzech do sześciu miesięcy. Przemysł uznaje to za minimum. Więc ramy formalne do współpracy już istnieją.

To jest też kwestia tego, na ile otwarte są z jednej strony władze uczelni, a z drugiej firmy. Firmy przychodzą do uczelni z tego typu zapotrzebowaniem, jeżeli widzą szansę rozwoju swojej działalności. Na przykład branże energetyczna czy biotechnologiczna mają przed sobą bardzo jasną przyszłość.

Uczelnie też coraz częściej się otwierają, bo wiedzą, że jeżeli nie będą tworzyć oferty atrakcyjnej dla ludzi, to stracą na znaczeniu. Pamiętajmy, że to wszystko dzieje się w warunkach malejącej liczby studentów. Walka o dobrych ludzi, w tym o dobrych studentów, zaczyna być coraz bardziej widoczna.

Oczywiście, są uczelnie, które uważają się za tak świetne, że nie potrzebują współpracy z przemysłem. Na krótszą metę pewnie mają rację. Pytanie, czy to przekonanie potwierdzi się za 10-15 lat. Moim zdaniem nie, bo rywalizacja o dobrych ludzi ma charakter globalny.

Mateusz Gaczyński

Joseph Aoun, rektor Uniwersytetu Northeastern w Bostonie, pisze w książce „Robot-Proof” o „roboodpornej” edukacji. Jego zdaniem w erze SI bardzo ważna jest zmiana modelu myślenia o uniwersytecie. Uczelnie powinny się otworzyć na ludzi, którzy chcą w trakcie kariery zdobywać nowe kompetencje, by dostosować się do rynku pracy. Czy taka wizja ma w Polsce szanse na spełnienie?

Nie jesteśmy dziś w stanie powiedzieć, jak powinna wyglądać edukacja, gdy rozwiązania z zakresu SI będą w dużo większym stopniu kształtowały naszą rzeczywistość społeczną czy gospodarczą. Przywołane przez pana pomysły traktowałbym więc niestety raczej jako przykład uzasadniania przez uczelnie swojej racji bytu w rzeczywistości, która może się okazać dramatycznie różna od tego, do czego jesteśmy przygotowani.

Max Tegmark w książce „Życie 3.0” twierdzi, że w konfrontacji z możliwościami sztucznej inteligencji ludzie będą mogli znaleźć pracę głównie w obszarach wymagających interakcji społecznych i empatii. A tego nie uczy się na uniwersytecie. To proces kulturowy, wynikający bardziej z kwestii rodzinno-społecznych niż z edukacji. Przy czym nie wiemy, jak będą wyglądały relacje międzyludzkie, gdy będziemy mieli do czynienia z bardziej zaawansowaną sztuczną inteligencją.

Problem w tym, że próbujemy pisać scenariusz naszej przyszłości, wciąż myśląc o przeszłości. Nie jesteśmy w stanie wyjść poza to, co mamy „wdrukowane” w procesie edukacji: że tak wyglądało społeczeństwo, a tak ewolucja pracy. A przecież nie wiemy, jak to wszystko będzie działać, gdy pojawi się coś, co będzie od nas szybsze, sprawniejsze, tańsze. Czy w ogóle będziemy jeszcze potrzebni?

Dyskusja o tym, jak ma wtedy wyglądać uniwersytet, jest więc moim zdaniem trochę dyskusją zastępczą. Powinniśmy raczej zastanowić się, jaki ma być cały model naszego funkcjonowania jako społeczeństwa czy ludzkości w sytuacji, w której coraz większą rolę będą odgrywały rozwiązania oparte o SI. Sztuczna inteligencja spełniająca te kryteria, o których pisze Tegmark, będzie „bytem” o wiele sprawniejszym z punktu widzenia ewolucyjnego niż my. Pytanie, jak ułożymy sobie z nią relacje.

Zgodnie z unijną koncepcją sztucznej inteligencji mamy budować rozwiązania skoncentrowane na człowieku, godne zaufania, etyczne. Ci, którzy tworzą wizję takiej odpowiedzialnej sztucznej inteligencji, mówią, że jedną z jej podstaw musi być właśnie edukacja, która jednak powinna się zmienić. Obecne podziały – że inżynier zajmuje się tylko sprawami technicznymi, a humanista tylko humanistyką – muszą zostać zniesione. Komponent etyczny czy humanistyczny jest ważny nie tylko w przypadku inżynierów, ale też menedżerów. I nie chodzi o 30 godzin zajęć z etyki, tylko o poważne potraktowanie tego wyzwania w sytuacji, kiedy ludzie projektujący i wdrażający takie rozwiązania zwykle działają w oderwaniu od tych problemów. Czy taki pomysł ma sens?

Moim zdaniem to przejście już się dokonało. iPhone nie odniósł sukcesu dlatego, że potrafi dużo więcej niż inny smartfon, ale dlatego, że został zaprojektowany we współpracy z ludźmi, którzy wiedzieli, jaki produkt będzie przyjemny dla użytkownika. Z tym samym mamy do czynienia w przypadku przemysłów kreatywnych. W sferze designu też dokonuje się mariaż inżynierów i ludzi zajmujących się szeroko rozumianą estetyką połączoną z anatomią.

To odbywa się bardziej na naturalnych zasadach. Wracam do kwestii uczenia się przez całe życie. Jego elementem jest też to, że ludzie powinni być otwarci na to, co dzieje się wokoło. Nie bez kozery mówi się, że innowacje najlepiej wychodzą w tyglach kulturowych, gdzie ścierają się różne punkty widzenia, pomysły na rzeczywistość czy elementy kulturowe. Dlatego, między innymi, taką wylęgarnią innowacji jest Kalifornia.

Tworzenie etycznych rozwiązań też wymaga uwzględnienia różnych punktów widzenia.

Tak. Tylko jak zagwarantować takie podejście do rozwiązań, które w założeniu mają samodzielnie myśleć? Ludzie mają 10 przykazań, ale nie zawsze postępują zgodnie z nimi.

Jeżeli nie „wdrukujemy” jakoś tych zasad w systemy SI, to do jakich wniosków dojdzie samodzielnie myśląca sztuczna inteligencja? Może uzna, że jesteśmy zbędnym bagażem białkowym i bez nas ona zrobi wszystko dużo lepiej? To podstawowe prawo ewolucji: byt słabiej przystosowany zostaje zastąpiony przez inny, lepiej przystosowany.

Mówienie o tym, że zaprojektujemy sztuczną inteligencję z dużym bagażem etyki, jest więc trochę myśleniem życzeniowym. To oczywiście całkowicie naturalne, ale moim zdaniem mylimy się, uważając, że zbudujemy coś mającego wszystkie przymioty inteligencji, a jednocześnie działającego wyłącznie na naszą korzyść. Chcemy stworzyć dżina, wobec którego mamy nieograniczoną liczbę życzeń, ale który nam nigdy nie zrobi krzywdy. To chyba niemożliwe.

To, o czym pan mówi, jest tematem niedawnej książki Stuarta Russella. Jego zdaniem należy zmienić paradygmat SI, tak żeby w centrum decyzyjnym sztucznej inteligencji znajdował się człowiek. Czy powinniśmy wspierać takie podejście, dostosowując do niego program nauczania?

Dochodzimy do pytania, kto rozwija sztuczną inteligencję. W tej chwili największe nakłady na SI ponosi wojsko. A ono z założenia, przygotowując się do konfliktu, nie stawia dobra drugiej strony w centrum zainteresowania. Rozwiązania są tam projektowane pod kątem maksymalnej efektywności.

Co więcej, o ile w kulturze demokracji zachodniej, chrześcijańskiej możemy oczekiwać, że rozwój sztucznej inteligencji nastąpi zgodnie z paradygmatem mówiącym o człowieku jako centrum świata, o tyle inne kultury, które bardzo dużo inwestują w rozwój sztucznej inteligencji, mogą mieć do tego inne podejście. Jeden z ekspertów SI powiedział kiedyś, że on się nie boi sztucznej inteligencji, tylko ludzi, którzy będą używali opartych na niej rozwiązań.

Badania pokazują, że ludzie boją się kontaktu z humanoidalnymi robotami. A może powinniśmy uczyć kolejne pokolenie, żeby się tego nie bało?

Etyka jest więc pojęciem bardzo wygodnym, ale obawiam się, że bardzo trudnym do zastosowania. Abstrahując od kwestii militarnych – przecież parametry algorytmów giełdowych są ustawione na maksymalny zysk! Nie patrzą na to, czy dana operacja grozi zamknięciem jakiejś fabryki albo tym, że jedna waluta pójdzie do góry, a druga w dół, powodując problemy w tym czy innym kraju. Oczywiście, te algorytmy działają w jakichś ramach, tyle że to my je określiliśmy. A co się zdarzy, gdy te ramy zostaną rozszerzone, bo tak nakaże potrzeba maksymalizacji zysku po tej albo innej stronie?

Dlatego, choć zgadzam się z głęboko humanistycznym przesłaniem, że powinniśmy rozwijać sztuczną inteligencję z człowiekiem w centrum podejmowania decyzji, mam poważne wątpliwości, czy to jest w ogóle możliwe. A nawet gdybyśmy rozwijali SI z człowiekiem w centrum, to jaka jest rola tego centrum? Kto będzie decydował o tym, co zrobi sztuczna inteligencja? Ktoś pokroju papieża Franciszka czy raczej Pol Pota?

Uzgodnienie celów i wartości 8 miliardów ludzi faktycznie może być problemem. Przyznaje to sam Russell.

Może więc paradoksalnie w tym, że sztuczna inteligencja nas zastąpi, nie byłoby nic złego. W książce science fiction „Diaspora” Greg Egan przedstawił społeczeństwo, którego część funkcjonuje w zdigitalizowanej formie. Te zaawansowane byty, przy zachowaniu wszystkich aspektów, które kojarzymy z bardzo wysoką kulturą humanistyczną, mają gigantyczną swobodę przemieszczania się pomiędzy galaktykami, eksplorowania rzeczy, których w życiu byśmy nie zrobili jako forma białkowa.

Żaden proces nie jest nas w stanie zahibernować do czasu, kiedy obudzimy się na planecie odległej od nas o 50 tysięcy lat świetlnych. Ale jeżeli wyobrazimy sobie sytuację, że jesteśmy w stanie zdigitalizować swoją świadomość, zapisać ją na jakimś trwałym nośniku i wysłać razem z robotem, do którego zostaniemy po przybyciu na miejsce „wdrukowani”, to moglibyśmy eksplorować głęboki kosmos.

Ale to już nie bylibyśmy do końca my.

Na pewno nie byłoby to nasze ciało biologiczne. Ale nasza świadomość już tak. Zupełnie niezależna od bytu. Moglibyśmy funkcjonować jako forma białkowa, forma zrobotyzowana bądź jako połączenie obu tych form. Wreszcie jako informacja, co ma też swoje plusy i minusy.

Ray Kurzweil jest entuzjastą takiego myślenia o przyszłości. Ale inni podkreślają wagę ucieleśnienia: stanowimy jedność psychofizyczną, w związku z czym rozdzielenie umysłu od ciała jest fikcją.

Zakładając, że postęp naukowy będzie przebiegał szybciej niż do tej pory, jest możliwe, że za kilkadziesiąt lat ludzkość zacznie produkować formy białkowe. Kurzweil twierdzi, że około 2045 roku będziemy w stanie sobie wybrać, w jakiej formie chcemy funkcjonować: czy jako element chmury informacji, czy jako byt wgrany w tę czy inną postać. Tam byłaby zachowana jedność psychofizyczna: zdigitalizowana psyche, którą można wgrać w ciało białkowe uwolnione od ryzyka zapadnięcia na różne choroby. A na dodatek wyglądające tak, jak zawsze chcieliśmy wyglądać.

Problem polega na tym, że my tego wszystkiego nie wiemy. Więc trudno nam powiedzieć, jakich potrzebujemy zmian, by lepiej funkcjonować w takiej rzeczywistości. Według mnie jedyna rzecz, którą jesteśmy w stanie zrobić, to maksymalnie uelastyczniać wszystkich w procesie edukacyjnym.

Badania pokazują, że ludzie boją się kontaktu z humanoidalnymi robotami. A może powinniśmy uczyć kolejne pokolenie, żeby się tego nie bało? Bo za chwilę postęp biotechnologiczny może doprowadzić do tego, że nie będziemy w stanie stwierdzić, kto jest w 100 procentach człowiekiem, a kto człowiekiem jakoś udoskonalonym.

Spogląda pan w przyszłość bardziej z optymizmem czy lękiem?

Obawianie się przyszłości niczego nie zmieni. Jedyne, co jesteśmy w stanie zrobić, to być otwarci, elastyczni, dopuszczać do siebie wiele możliwości. Kilkadziesiąt lat temu nikt nie wyobrażał sobie, że będzie miał w kieszeni przedmiot, który w ułamku sekundy da mu każdą informację, o jaką go zapyta. I że używanie go nie będzie wymagało jakiegoś gigantycznego przygotowania, jakiejś wielkiej wiedzy. Niektórzy twierdzą, że mając smartfona czy komputer, już jesteśmy trochę elektroniczni, bo trudno nam wyobrazić sobie funkcjonowanie bez tych przedmiotów.

Dlatego też nawoływanie, żeby zmniejszyć swój ślad węglowy, jest bez sensu, kiedy coraz bardziej uzależniamy się od produktów, które ten ślad zwiększają. Oczywiście to dobrze, że staramy się ograniczać swoje oddziaływanie na środowisko, ale są też granice wyznaczone przez nasz model konsumpcji. A ten niestety nie polega na samoograniczaniu się.

Niektórzy wierzą, że właśnie nowe technologie pozwolą nam poradzić sobie z tymi problemami.

Dopóki nie będziemy w stanie wyprodukować absolutnie czystej energii, nic się nie zmieni. A chyba jesteśmy od tego jeszcze daleko.


*Mateusz Gaczyński jest zastępcą dyrektora w Departamencie Innowacji i Rozwoju Ministerstwa Nauki i Szkolnictwa Wyższego. Na obecnym stanowisku zajmuje się polityką badań i innowacji, w tym instrumentami polityki spójności i programami europejskimi w tym obszarze. Wcześniej pracował w Ministerstwie Gospodarki (tematyka zrównoważonego rozwoju, zmian klimatu, Strategii Lizbońskiej), Stałym Przedstawicielstwie RP przy UE (portfolio polityki spójności i zatrudnienia), Polskiej Agencji Rozwoju Przedsiębiorczości (przedsiębiorczość) oraz Ministerstwie Pracy i Polityki Społecznej (migracja zarobkowa). Jest absolwentem Uniwersytetu Jagiellońskiego i Krajowej Szkoły Administracji Publicznej.

Read the English version of this text HERE

Skip to content