Yoshua Bengio i Gary Marcus, światowe autorytety w dziedzinie sztucznej inteligencji, dowiedli, że o deep learning można się pokłócić równie ostro, jak o politykę

Nic nie zapowiadało tak ostrej wymiany zdań. Zorganizowane w Montrealu pod koniec 2019 roku spotkanie Yoshuy Bengio i Gary’ego Marcusa niemal do końca przebiegało w przyjaznej atmosferze. Zaiskrzyło dopiero na koniec.

Jak rozwijać sztuczną inteligencję?

Pochodzący z Kanady Yoshua Bengio to jeden z twórców współczesnej SI. W 2018 r., obok Yanna LeCunna i Geoffreya Hintona, za badania w dziedzinie głębokiego uczenia został uhonorowany Nagrodą Turinga, nazywaną „informatycznym Noblem”.

Z kolei Gary Marcus jest kognitywistą i specjalizuje się w badaniu mechanizmów uczenia się. Amerykanin jest także współautorem (obok Ernesta Davisa) książki „Rebooting AI”, która krytycznie odnosi się do możliwości dzisiejszej SI, w znacznej mierze wykorzystującej osiągnięcia z obszaru głębokiego uczenia.

Bengio i Marcus są zgodni w diagnozie obecnych ograniczeń deep learningu. Podkreślają, że w zbyt dużym stopniu zależy on od wielkich zbiorów danych i mocy obliczeniowych. Na dodatek brakuje mu elastyczności, by zbliżyć się do możliwości ludzkiego mózgu. Jeśli więc chcemy dalej rozwijać SI, musimy wyjść poza te ograniczenia. Tylko jak to zrobić?

Deep learning? Ale który?

Marcus proponuje hybrydowy (synkretyczny) model sztucznej inteligencji. Jego zdaniem głębokie uczenie trzeba wzbogacić o rozwiązania podobne do tzw. systemów eksperckich, w których reguły działania były kodowane przez człowieka, a nie odkrywane samodzielnie przez maszynę. Ma to pozwolić SI lepiej rozumieć rzeczywistość, a także szybciej myśleć, abstrahować i generalizować.

Adres filmu na Youtube: https://www.youtube.com/watch?v=EeqwFjqFvJA

Debata z udziałem Yoshua Bengio i Garym Marcusem
Źródło: Montreal.Ai / YouTube

Bengio definiuje cele podobnie: od współczesnego uczenia maszynowego, które nazywa nieświadomym i intuicyjnym, trzeba przejść do systemów umożliwiających wnioskowanie i logiczne działanie w zmieniającym się środowisku. Jednak w przeciwieństwie do Marcusa uważa, że da się to zrobić bez stosowania rozwiązań spoza uczenia głębokiego. Nazywa to przejściem od pierwszego (obecnego) systemu deep learningu do systemu drugiego.

Oto przyczyna sporu między badaczami, który z czasem przeniósł się do internetu.

To pan nic nie rozumie!

W artykule opublikowanym niedługo po debacie Marcus zarzucił Bengio, że rozszerza pojęcie uczenia maszynowego, przez co traci ono związek z metodą, z którą do tej było identyfikowane.

„Uczenie głębokie, które ‘ewoluuje’, staje się bardziej marką niż rygorystyczną hipotezą naukową czy rodzajem komponentów, których moglibyśmy oczekiwać w ogólnej inteligencji” – pisze Marcus.

Producenci pojazdów autonomicznych mogą dziś wprowadzić na drogi cokolwiek. Brakuje regulacji, więc możemy ich pozwać dopiero wtedy, gdy wydarzy się coś złego – Gary Marcus

I dodaje, że zgodnie z tą linią argumentacji do kategorii deep learningu będzie niebawem można włączyć dowolne metody, a przecież ogromna popularność uczenia maszynowego bazowała na bardzo konkretnych rozwiązaniach.

Bengio ripostuje, że Marcus odwołuje się do historycznego rozumienia pojęcia deep learning i – jako człowiek spoza dziedziny – niewłaściwie je rozumie. Zarzuca mu też brak elastyczności i ograniczanie cudzych badań.

Wolność badań, precyzja pojęć

Spór trwa i być może nieprędko się skończy. Słuszniej chyba jednak myśleć o nim w kontekście dyskusji o ewolucji badań naukowych i ich społecznym oddziaływaniu.

Bengio ma rację, gdy broni prawa do rozwijania własnych badań i stosowanych w jego obrębie metod. Z drugiej strony nie sposób odmówić słuszności Marcusowi, kiedy zwraca uwagę, że pojęcia używane w badaniach nie są neutralne. Ich popularność przekłada się bowiem na konkretne korzyści, jak choćby środki przeznaczane na badania. Do tego dochodzi retoryka medialna czy biznesowa, która jeszcze bardziej rozmywa znaczenie używanych pojęć i prowadzi do coraz większego chaosu. Warto więc dbać o precyzję naukowego słownika, szczególnie gdy dana dziedzina znajduje zastosowanie komercyjne.

Ten ostatni argument jest o tyle ważny, że w swojej książce Marcus krytykuje przesadnie entuzjastyczny ton, w jakim media i biznes mówią dziś o możliwościach SI. Jego zdaniem prowadzi to do nadużyć i utrudnia rzeczywistą dyskusję na temat możliwości i zagrożeń związanych z SI.

Jak na Dzikim Zachodzie

Z debaty między Bengio a Marcusem warto jednak zapamiętać nie tylko przedmiot sporu. Wydaje się, że znacznie ważniejsze jest to, co obu badaczy łączy. Oprócz przekonania, że dzisiejsza SI musi zostać uzupełniona o nowe umiejętności, wspólny obu jest niepokój wobec praktycznych zastosowań SI. Zapytani o niebezpieczeństwa związane z technologiami, nad którymi pracują, badacze byli zgodni: stoimy przed poważnymi wyzwaniami związanymi z uregulowaniem ich użycia.

Bengia niepokoi także to, że powstające narzędzia okażą się zbyt potężne nawet dla zbiorowej mądrości ludzi

– Rzeczywistość, w jakiej działa dziś SI, to Dziki Zachód – mówi Bengio. – Społeczeństwo powinno inwestować nie tylko w tworzenie inteligentnych maszyn, ale także (i to znacznie więcej) w badanie sposobów ich odpowiedzialnego wykorzystywania.

Wtóruje mu Marcus: producenci pojazdów autonomicznych mogą dziś wprowadzić na drogi cokolwiek. Brakuje regulacji, więc możemy ich pozwać dopiero wtedy, gdy wydarzy się coś złego. Wystarczy porównać to np. z przemysłem farmaceutycznym, by dostrzec wyraźną asymetrię.

Ograniczyć wdrożenia?

Bengia niepokoi także to, że powstające narzędzia okażą się zbyt potężne nawet dla zbiorowej mądrości ludzi. Dlatego podkreśla znaczenie działań podejmowanych przez rządy i agendy odpowiadające za poszczególne sektory, także na forum międzynarodowym. Zauważa przy tym jednak, że rządzący wciąż nie są gotowi, by takie regulacje opracować. Sztuczna inteligencja może być narzędziem wywierania wpływu, sprawowania kontroli a nawet zabijania – i by zrozumieć nową sytuację, w jakiej się znaleźliśmy, potrzeba więcej czasu.

To co możemy zrobić?

Bengio nie miałby nic przeciwko spowolnieniu wdrażania rozwiązań bazujących na SI – dla naszego bezpieczeństwa. Łatwo powiedzieć? Być może. Jednak trudno zarzucić Kanadyjczykowi hipokryzję. W końcu w odróżnieniu od Hintona i LeCunna nie prowadzi on badań dla firm.

Skip to content