Kiedy myślimy o inteligentnych maszynach lub systemach, nie sposób pominąć kluczowych momentów z najnowszej historii, które wyznaczają swoiste kamienie milowe w rozwoju tej dziedziny. Poniżej kilka z nich.

“Czy maszyny mogą myśleć?” (1950)

Od tego pozornie prostego pytania rozpoczyna się pionierski artykuł “Computing Machinery and Intelligence” (Maszyny obliczeniowe oraz inteligencja) autorstwa Alana Turinga opublikowany w kwartalniku naukowym Mind w 1950 roku. Wybitny brytyjski matematyk, który tuż po II wojnie światowej zaprezentował ideę inteligentnych maszyn, powszechnie uważany jest za jednego z ojców tzw. sztucznej inteligencji (aczkolwiek ten termin pojawił się w powszechnym użyciu dopiero kilka lat później).

Próbował jednoznacznie zdefiniować pojęcie maszyny inteligentnej na podstawie eksperymentu nazwanego później testem Turinga. Bazuje on rzekomo na pochodzącej z czasów wiktoriańskich zabawie w zgadywanie płci osoby znajdującej się w innym pokoju. Używa się do tego serii pytań i odpowiedzi pisanych na kartkach papieru. Zastosowano tu model sędziego (człowieka), który używając języka naturalnego, rozmawia z maszyną i człowiekiem. Maszyna przechodzi test dopiero wtedy, kiedy sędzia nie jest w stanie odróżnić jej odpowiedzi od tych, których udziela człowiek.

CIEKAWOSTKA – Współcześnie zmodyfikowaną formą testu Turinga jest mechanizm CAPTCHA (ang. Completely Automated Public Turing test to tell Computers and Humans Apart). Tym razem to jednak maszyna sprawdza, czy ma do czynienia z inną maszyną czy człowiekiem.

Pierwsza sztuczna sieć neuronowa (1951)

Być może trudno w to dziś uwierzyć, ale już w 1951 roku zaprezentowano pierwszą sztuczną sieć neuronową. Za konstrukcję noszącą nazwę SNARC (ang. Stochastic Neural Analog Reinforcement Computer) odpowiadają Marvin Minsky oraz Dean Edmonds. Minsky jest współtwórcą laboratorium SI na terenie słynnego Massachusetts Institute of Technology. Obecnie jest ono znane pod nazwą CSAIL (MIT Computer Science and Artificial Intelligence Laboratory).

Alan Turing był zapalonym biegaczem. Na zdjęciu finiszuje w wyścigu na 3 mile w Dorking w Anglii w 1946 roku. Był drugi

Warto pamiętać, że w tamtym czasie nie było jeszcze tranzystorów ani mikrochipów. Całość została zbudowana w oparciu o 3 tys. lamp próżniowych. Zadaniem sieci była pomoc wirtualnemu szczurowi w pokonaniu labiryntu. Wysyłał on instrukcje pomocne w nawigowaniu i za każdym razem efekty działań szczura były zapisywane w systemie (do tego służyły wspomniane lampy). Maszyna była w stanie uczyć się i na tej podstawie podejmować trafniejsze decyzje. Na podobnej zasadzie działa dziś klasyfikowanie przez sieci neuronowe obiektów na zdjęciach.

Powstaje termin “sztuczna inteligencja” (1956)

Autorem powyższego terminu (ang. Artificial Intelligence, w skrócie AI) wprowadzonego do powszechnego obiegu jest prawdopodobnie profesor nauk komputerowych John McCarthy z Uniwersytetu Stanforda. Od 1948 roku zajmował się on intensywnym rozwijaniem systemów prezentujących inteligencję na poziomie ludzkim. Zawdzięczamy mu również język programowania LISP, który szybko stał się popularnym językiem do badania i rozwijania SI. Terminu użyto po raz pierwszy w trakcie konferencji branżowej w Dartmouth w 1956 roku.

Grupa zgromadzonych tam ekspertów sformułowała kluczowe dla rozwoju SI założenie o następującej treści:

“…Każdy aspekt uczenia się, jak również każda inna własność inteligencji mogą być w zasadzie opisane tak precyzyjnie, że można będzie zbudować maszynę zdolną do ich symulacji…”

To ja, ELIZA – twój psychoanalityk (1965)

Zaprojektowany na MIT przez matematyka Josepha Weizenbauma program ELIZA był wczesną inkarnacją dzisiejszych asystentów głosowych w stylu Alexy czy Siri. Stał się jednym z pierwszych zastosowań przetwarzania języka naturalnego (ang. natural language processing). NLP zmierza do nauczenia maszyn komunikowania się za pomocą ludzkiego języka, zamiast interakcji przez interfejs lub programowania.

Oczywiście ELIZA (udająca psychoanalityka) nie mogła się jeszcze komunikować głosowo. Rozmowa prowadzona była w formie tekstowej. Program nie był w stanie przyswajać wiedzy na podstawie konwersacji z człowiekiem, ale stanowił ważny krok ku przełamaniu bariery językowej między ludźmi i maszynami. To nie przeszkodziło jednak wielu użytkownikom angażować się emocjonalnie w rozmowy z chatbotem, o czym krąży wiele anegdot.

Nadchodzi zima. Złożoność obliczeń pokonała sprzęt (1974-80)

Zgodnie z modelem cyklu dojrzałości (ang. Hype Cycle) opracowanym przez firmę analityczną Gartner każda nowa technologia wprowadzana na rynek przechodzi przez burzliwe etapy wzrostów i spadków aktywności. Wyróżnia się następujące fazy:

  • Technology Trigger – wprowadzenie technologii na rynek, któremu zazwyczaj towarzyszy spory szum marketingowy.
  • Peak of Inflated Expectations – szczytowa faza zainteresowania i pierwsze duże wdrożenia, a do tego przerośnięte oczekiwania odnośnie do nowej technologii.
  • Though of Disillusionment – gwałtowny spadek zainteresowania mediów i branży na skutek weryfikacji oczekiwań ze stanem faktycznym, selekcja i konsolidacja.
  • Slope of Enlightenment – etap dokonywania poprawek i i stopniowego nabierania dojrzałości.
  • Plateau of Productivity – pełna dojrzałość technologii.

Początkowa fascynacja nową technologią, jaką niewątpliwie była w połowie ubiegłego wieku sztuczna inteligencja, była efektem ambitnych założeń postawionych przez naukowców zajmujących się tematem. Stworzenie maszyn zdolnych do zastąpienia człowieka porwało świat nauki do tego stopnia, że nawet najbardziej kosztowne badania były bez zająknięcia finansowane przez różne instytucje rządowe.

Pierwsze oznaki spowolnienia przyszły już w pierwszej połowie lat 70. Na przeszkodzie stanęły naukowcom ograniczone możliwości obliczeniowe ówczesnych komputerów. Gigantyczna ilość danych do przetworzenia i brak pieniędzy nałożyły się na silną krytykę ze strony etyków i filozofów zaniepokojonych nowym trendem. Badania zostały mocno ograniczone, a co za tym idzie – ich efekty były ledwo zauważalne. Nastała tzw. pierwsza zima SI.

ŹRÓDŁA:

  1. Test Turinga: Czy komputer może być uważany za człowieka? – Alex Gendler
  2. Alan Turing: Crash Course Computer Science #15
  3. Alan Turing. Maszyny obliczeniowe i inteligencja (1950)
  4. Turing Machines Explained – Computerphile
  5. Prof. John McCarthy
  6. Artificial Intelligence, the History and Future – with Chris Bishop
  7. Metody sztucznej inteligencji w rozwiązywaniu problemów mikro- i makroekonomicznych
  8. Dartmouth workshop
Skip to content