Jaka jest różnica między sztuczną inteligencją a uczeniem maszynowym i dlaczego ma to znaczenie

Niektóre firmy wprowadzają w błąd klientów, ogłaszając, że stosują w swoich technologiach sztuczną inteligencję. Czasem to zwykła ściema, a czasem mylenie pojęć.

Niedawno opublikowano raport funduszu inwestującego w młode spółki technologiczne dotyczący nadużyć ze strony firm twierdzących, że używają sztucznej inteligencji w swoich produktach i usługach. Według MMC Ventures 40 procent europejskich start-upów, które twierdziły, że używają sztucznej inteligencji, w rzeczywistości z niej nie korzysta. W zeszłym roku TechTalks natrafił również na takie nadużycia ze strony firm twierdzących, że wykorzystują uczenie maszynowe i zaawansowaną sztuczną inteligencję do gromadzenia i badania tysięcy danych użytkowników w celu zwiększenia komfortu użytkowania ich produktów i usług.

Niestety, w społeczeństwie i mediach nadal panuje spore zamieszanie co do tego, czym naprawdę jest sztuczna inteligencja, a czym jest uczenie maszynowe. Często terminy te są używane jako synonimy, w innych przypadkach są one używane w sposób dyskretny. Bywa, że popularność tych pojęć służy do tworzenia szumu medialnego, aby zwiększyć sprzedaż i przychody.

Czym jest uczenie maszynowe

Według Toma M. Mitchella, dziekana tymczasowego wydziału informatyki na Carnegie Mellon University, profesora i byłego kierownika wydziału uczenia maszynowego na CMU, dziedzina naukowa najlepiej definiuje się przez główne pytanie, które zadają sobie jej badacze. A dziedzina uczenia maszynowego ma na celu udzielenie odpowiedzi na pytanie: „W jaki sposób możemy budować systemy komputerowe, które automatycznie ulepszają się wraz z doświadczeniem, i co jest fundamentalnym prawem, które reguluje wszystkie procesy uczenia się?”.

Uczenie maszynowe (machine learning – ML) to gałąź sztucznej inteligencji zdefiniowana przez informatyka i pioniera w dziedzinie uczenia maszynowego Toma M. Mitchella: „Maszynowe uczenie jest badaniem algorytmów komputerowych, które pozwalają programom komputerowym automatycznie doskonalić się poprzez doświadczenie. ML to jeden ze sposobów, w jaki oczekujemy, że osiągniemy SI. Uczenie maszynowe polega na pracy z małymi i dużymi zestawami danych poprzez badanie i porównywanie danych w celu znalezienia wspólnych wzorów i poznania niuansów”.

Szum marketingowy i nagminne mylenie pojęć z dziedziny SI w końcu mogą doprowadzić do utraty zaufania społecznego i spowodować kolejną zimę sztucznej inteligencji

Jeśli na przykład dostarczymy model uczenia maszynowego z dużą liczbą piosenek, które nam się podobają, wraz z odpowiadającymi im statystykami audio (taneczność, instrumentalność, tempo lub gatunek), będzie on w stanie zautomatyzować (w zależności od zastosowanego modelu uczenia maszynowego) i wygenerować system rekomendacji sugerujący, że w przyszłości najprawdopodobniej spodoba nam się to i to. Takie narzędzia stosują już choćby Spotify i Netflix.

Przykład z innej dziedziny: jeśli zaprogramujemy aplikację wykorzystującą uczenie maszynowe z dużym zestawem danych zdjęć rentgenowskich wraz z ich opisem (objawy, diagnozy), będzie ona w stanie pomóc w analizie danych zdjęć rentgenowskich (lub ją zautomatyzować). Model uczenia maszynowego obejrzy każde ze zdjęć w zróżnicowanym zestawie danych i znajdzie wspólne wzory znalezione na zdjęciach, które zostały oznaczone porównywalnymi wskazaniami. Ponadto (zakładając, że używamy dobrego algorytmu ML dla obrazów), gdy załadujemy model z nowymi zdjęciami, porówna on swoje parametry z zebranymi wcześniej przykładami, aby ujawnić to, jak prawdopodobne jest, że zdjęcia zawierają którekolwiek z analizowanych wcześniej wskazań.

Z nadzorem, bez, ze wzmocnieniem

Typ uczenia maszynowego z naszego poprzedniego przykładu nosi nazwę „uczenia z nadzorem” (supervised learning), gdzie algorytmy uczenia nadzorowanego próbują modelować relacje i zależności pomiędzy docelowym wynikiem prognozowania a cechami wejściowymi, tak że możemy przewidzieć wartości wyjściowe dla nowych danych w oparciu o te relacje, których maszyna nauczyła się z poprzednich zestawów danych.

Nienadzorowane uczenie (unsupervised learning) to inny rodzaj uczenia maszynowego – obejmuje ono rodzinę algorytmów uczenia się, które są wykorzystywane głównie w wykrywaniu wzorów i modelowaniu opisowym. Algorytmy te nie posiadają kategorii wyjściowych ani etykiet na danych (model jest szkolony z danymi nieoznakowanymi).

Uczenie ze wzmocnieniem (reinforcement learning) to trzeci popularny typ uczenia maszynowego. Wykorzystuje obserwacje zebrane w wyniku interakcji z otoczeniem do podjęcia działań, które zmaksymalizują nagrodę lub zminimalizują ryzyko. W tym przypadku algorytm uczenia ze wzmocnieniem (zwany agentem) stale uczy się ze swojego otoczenia za pomocą iteracji. Doskonałym przykładem wzmacniania uczenia są komputery osiągające nadzwyczajną biegłość pozwalającą im pokonywać ludzi w grach komputerowych.

Ruchomy cel SI

Uczenie maszynowe jest hipnotyzujące, szczególnie jego zaawansowane podgałęzie, tj. głębokie uczenie i różne rodzaje sieci neuronowych. W każdym razie jest to „magia” (computational learning theory), gdyż nie do końca rozumiemy, jak maszyny w swojej pracy dochodzą do ostatecznego efektu. W rzeczywistości, podczas gdy niektórzy mają tendencję do porównywania głębokiego uczenia i sieci neuronowych do sposobu działania ludzkiego mózgu, istnieją tu istotne różnice.

Sztuczna inteligencja, z drugiej strony, ma wyjątkowo szeroki zakres. Według Andrew Moore’a, byłego dyrektora Szkoły Informatyki na Carnegie Mellon University, „sztuczna inteligencja jest nauką i inżynierią tworzenia komputerów zachowujących się w sposób, który do niedawna uważaliśmy za wymagający ludzkiej inteligencji”.

Gdy nadeszła „pierwsza zima SI”, firmy zaczęły unikać terminu „sztuczna inteligencja”, który stał się synonimem szumu medialnego. Na przykład IBM opisał Deep Blue (na zdjęciu w siedzibie firmy w Armonk), który w 1997 r. pokonał w szachy Garriego Kasparowa, jako superkomputer i wyraźnie stwierdził, że nie używa sztucznej inteligencji, podczas gdy faktycznie tak było.

Słowa Moore’a świetnie definiują SI w jednym zdaniu, ale jednocześnie pokazują, jak szerokie i niejasne jest to pole. Pięćdziesiąt lat temu program do gry w szachy był uważany za formę SI, ponieważ teoria gry, wraz ze strategiami gry, były zdolnościami, które mógł opanować tylko ludzki mózg. Obecnie gra w szachy byłaby uważana za nudną i przestarzałą ze względu na to, że można ją znaleźć na prawie każdym komputerze z systemem operacyjnym, dlatego też „do niedawna” z powyższej definicji jest czymś dynamicznym, co rozwija się z czasem.

Adiunkt i naukowiec w CMU Zachary Lipton wyjaśnia w przybliżeniu poprawnie, że termin SI „jest aspiracyjnym, ruchomym celem opartym na tych zdolnościach, które ludzie posiadają, ale których nie posiadają maszyny”. SI obejmuje również znaczną miarę postępu technologicznego, który znamy. Uczenie maszynowe jest tylko jednym z nich. Wcześniejsze prace SI wykorzystywały różne techniki, na przykład Deep Blue, SI, która pokonała mistrza świata w szachach w 1997 roku, wykorzystywała metodę zwaną algorytmami przeszukiwania drzew do oceny milionów ruchów na każdym kroku.

Sztuczna inteligencja, jaką znamy dzisiaj, jest symbolizowana przez gadżety interakcji człowiek – maszyna, na przykład przez Google Home, Siri i Alexę, przez uczenie maszynowe napędzane na przykład przez systemy rekomendacji treści w serwisach takich jak Netflix, Amazon i YouTube. Te postępy technologiczne stają się stopniowo coraz ważniejsze w naszym codziennym życiu. W rzeczywistości są to inteligentni asystenci, którzy zwiększają nasze możliwości jako ludzi i profesjonalistów – czyniąc nas coraz bardziej produktywnymi.

W przeciwieństwie do uczenia maszynowego SI jest celem ruchomym, a jej definicja zmienia się wraz z postępem technologicznym w tym zakresie. Być może za kilkadziesiąt lat dzisiejszy innowacyjny postęp w dziedzinie sztucznej inteligencji będzie uważany za nudny, tak jak przestarzałe stały się dla nas telefony z klapką.
Termin „sztuczna inteligencja” został zaproponowany w 1956 przez Johna McCarthy’ego na konferencji w Dartmouth. Na tej samej konferencji grupa badaczy, w tym Allen Newell i Herbert A. Simon, przedstawili Logic Theory Machine. Spotkanie to zapoczątkowało nowy dział badań – sztuczną inteligencję.

SI na przynętę

W pierwszych dekadach przemysł ten otaczało wiele szumu, a wielu naukowców zgodziło się, że SI na poziomie ludzkim jest tuż za rogiem. Jednak niezrealizowane obietnice wywołały ogólne rozczarowanie i doprowadziły do „pierwszej zimy SI”, okresu, w którym zainteresowanie tą dziedziną i jej finansowanie znacznie spadły.

Organizacje zaczęły unikać terminu „sztuczna inteligencja”, który stał się synonimem szumu medialnego, i w odniesieniu do swojej pracy używały innego nazewnictwa. Na przykład IBM opisał Deep Blue jako superkomputer i wyraźnie stwierdził, że nie używa sztucznej inteligencji, podczas gdy faktycznie tak było.

W tym okresie wiele innych pojęć, takich jak duże dane (big data), analiza prognostyczna i uczenie maszynowe, zaczęło zyskiwać na popularności. W 2012 roku uczenie maszynowe, głębokie uczenie i sieci neuronowe poczyniły wielkie postępy i zaczęły być wykorzystywane w coraz większej liczbie dziedzin. Terminy machine learningdeep learning zaczęły być używane do reklamowania produktów.

Wprowadzenie głębokiego uczenia umożliwiło wykonywanie zadań, z którymi nie radziło sobie klasyczne programowanie oparte na regułach. Dziedziny takie jak rozpoznawanie mowy i twarzy, klasyfikacja obrazu i przetwarzanie języka naturalnego, które znajdowały się na wczesnym etapie, nagle wykonały wielki skok, a w marcu 2019 roku trzech najbardziej uznanych pionierów w zakresie głębokiego uczenia – Yoshua Bengio, Geoffrey Hinton i Yann LeCun – zdobyło Nagrodę Turinga 2018 za wkład w tę dziedzinę i przełomowe odkrycia, które uczyniły głębokie sieci neuronowe krytycznym komponentem współczesnej informatyki.

Wtedy zaczął się triumfalny powrót SI, który trwa do dziś. Dla tych, którzy przyzwyczaili się do granic staromodnego oprogramowania, efekty głębokiego uczenia wydawały się niemal „magiczne”, zwłaszcza że część dziedzin, w które wchodzą sieci neuronowe i głębokie uczenie, była uważana za niedostępne dla komputerów ze względu na problemy optymalizacyjne oraz niewystarczającą moc obliczeniową ówczesnych komputerów. Inżynierowie specjalizujący się w uczeniu maszynowym zarabiają bajońskie sumy nawet wtedy, gdy pracują w organizacjach non-profit, co świadczy o tym, jak gorąca jest ta dziedzina.

Niestety, jest to coś, co firmy medialne często wykorzystują bez odpowiedniego zgłębiania tematu i co nierzadko idzie w parze z artykułami o SI, które ilustrują zdjęcia kryształowych kulek i inne nadprzyrodzone portrety. Takie oszustwo pomaga firmom nastawionym na krótkoterminowe zyski wygenerować szum medialny wokół ich ofert. Jednak często, ponieważ nie spełniają one oczekiwań, organizacje te są zmuszone zatrudniać ludzi, aby nadrobić braki w ich tzw. SI (mamy na przykład programistów, którzy tworzą wyspecjalizowane reguły poprawiające błędy SI, a zdarzają się nawet sytuacje, kiedy to sztab ludzi ręcznie koryguje te błędy, czasem wręcz utrzymując działanie jakiejś usługi). Firmy nagminnie mylą też opisane tu pojęcia. W końcu może to doprowadzić do utraty zaufania społecznego i spowodować kolejną zimę sztucznej inteligencji.

Skip to content