Algorytm – zestaw czynności służących wykonaniu jakiegoś zadania. W sztucznej inteligencji algorytm mówi maszynie, jak uzyskać odpowiedzi na pytanie lub jak rozwiązać problem.


Algorytm genetyczny (genetic algorithm) – metoda wyszukiwania rozwiązania stosowana w sztucznej inteligencji i informatyce. Pozwala znaleźć najlepsze rozwiązania problemów w oparciu o teorię doboru naturalnego i biologii ewolucyjnej (algorytm genetyczny wykorzystuje techniki takie jak selekcja, mutacja, dziedziczenie i rekombinacja).

Algorytmy genetyczne są bardzo skuteczne w przeszukiwaniu dużych i złożonych zestawów danych. Różne zestawy możliwych rozwiązań danego problemu są oceniane pod kątem jakości. Te, które okazują się lepsze, mogą się reprodukować.

Algorytmy genetyczne są szeroko stosowane w wielu dziedzinach, m.in. w robotyce, projektowaniu na potrzeby motoryzacji czy telekomunikacji.


Analiza predykcyjna (predictive analytics) – wydobywanie informacji z istniejących zbiorów danych po to, by na ich podstawie można było określić wzory i przewidzieć przyszłe zdarzenia czy trendy.


Analiza sentymentu (sentiment analysis) – automatyczne i półautomatyczne metody analizowania tekstu, których celem jest określenie stanu emocjonalnego jego autora i wpływu, jaki ten tekst może wywrzeć na emocje innych osób.

Analiza sentymentu opiera się na rozwiązaniach wypracowanych w dziedzinie przetwarzania języka naturalnego (NLP). Istnieją algorytmy pozwalające automatycznie klasyfikować teksty na te o pozytywnym i te o negatywnym wydźwięku emocjonalnym. Mamy też algorytmy umożliwiające dokonywanie klasyfikacji bardziej złożonych, tj. zdolne do wychwytywania stanów smutku, niepokoju, agresji, dumy czy miłości.


Autonomiczny samochód (self-driving car, autonomous car, driverless car) – pojazd zdolny samodzielnie, bez udziału człowieka, przemieszczać się pomiędzy wybranym celami, w wybranym terenie, unikając kolizji z nieoczekiwanymi przeszkodami, np. pieszymi. Autonomiczna jazda jest efektem połączenia widzenia maszynowego, rozpoznawania obrazu i głębokiego uczenia się.

Według Amerykańskiej Narodowej Administracji Bezpieczeństwa Ruchu Drogowego (NHTSA) istnieje sześć poziomów automatyzacji jazdy samochodu: 0 – autem kieruje człowiek; 1 – zaawansowany system wspomagania (ADAS) wspiera kierowcę w kierowaniu, hamowaniu lub przyspieszaniu, ale niejednocześnie. System obejmuje kamery cofania i funkcję ostrzegania kierowcy, gdy zjeżdża ze swego pasa ruchu; 2 – ADAS może sterować i hamować lub przyspieszać jednocześnie, ale człowiek za kierownicą nadal prowadzi auto; 3 – zautomatyzowany układ napędowy (ADS) może wykonywać wszystkie zadania związane z parkowaniem pojazdu. Człowiek musi być wtedy gotowy do ponownego przejęcia kontroli nad autem, wciąż pozostając kierowcą; 4 – ADS może wykonywać wszystkie zadania związane z prowadzeniem i monitorować warunki jazdy w pewnych okolicznościach. Układ działa wtedy na tyle pewnie, że kierowca może się na niego zdać; 5 – ADS działa jak wirtualny kierowca, wykonując wszystkie potrzebne czynności w każdych okolicznościach. Ludzie są tylko pasażerami.

Big Data – zbiór danych pochodzących z nieprzebranych i niejednolitych źródeł, które mogą być nieuporządkowane, częściowo uporządkowane lub całkowicie uporządkowane. Big Data mogą być wydobywane w celu uzyskania informacji i wykorzystywane w projektach uczenia maszynowego i innych zaawansowanych aplikacjach analitycznych.

Big Data mogą pochodzić ze źródeł takich jak systemy transakcji biznesowych, bazy danych klientów, dane medyczne, dzienniki kliknięć internetowych, aplikacje mobilne, sieci społecznościowe, zbiory wyników badań naukowych, dane generowane przez maszyny i czujniki danych w czasie rzeczywistym w środowiskach internetu rzeczy (IoT).

Big Data mogą być pozostawione w surowej postaci lub wstępnie przetworzone za pomocą narzędzi do eksploracji danych albo oprogramowania do przygotowania danych przed ich analizą.

Chatbot (bot, wirtualny asystent) – system, który potrafi rozmawiać z ludźmi. Chatbot jest tym lepszy, im trafniej odpowiada na pytania zadawane mu przez ludzi, np. klientów czy internautów.

Klasyczny chatbot działa w sposób zautomatyzowany. Potrafi odpowiadać tylko na pytania przewidziane przez jego menedżera, który programuje go według reguły: „jeżeli usłyszysz to, to odpowiadasz tak”. Dlatego interakcje z takim chatbotem są płytkie.

Inaczej jest z chatbotami wykorzystującymi uczenie maszynowe. Pozwala ono bowiem botom na analizowanie danych i takie uczenie się na bazie wcześniejszych interakcji, by kolejne interakcje były bardziej dopasowane do kontekstu rozmowy.

Data crunching (dosł. chrupanie danych) – to taka zautomatyzowana analiza ogromnych zbiorów danych, dzięki której można podejmować decyzje. Po zaimportowaniu do systemu dane są sortowane, przetwarzane, a następnie analizowane tak, by maszyna mogła łatwiej podejmować decyzje. To dzięki mechanizmowi „chrupania danych” możliwa jest konwersacja człowieka z chatbotem.

Jak wygląda data crunching w praktyce? Jeśli witrynę twojej firmy w internecie odwiedza dziennie tysiąc osób, ustalenie, ile z nich szuka informacji o produkcie, ile myślałoby o nawiązaniu z tobą współpracy biznesowej, ile chciałoby u ciebie pracować, a ile trafiło tu przypadkiem, ma dla ciebie podstawowe znaczenie. Dzięki data crunching można te informacje od siebie odseparować i uporządkować.


Data science (nauka o danych, nauka oparta na danych, danologia) – polega na badaniu, skąd pochodzą określone informacje, co reprezentują i jak sprawić, by były wartościowe dla technologii informatycznych (IT) lub biznesu. Wydobywanie dużych ilości uporządkowanych i nieustrukturyzowanych danych po to, by zidentyfikować w nich wzorce, może np. pomóc firmie ograniczyć koszty i zwiększyć efektywność działania, rozpoznać nowe możliwości rynkowe i dać jej przewagę na rynku.

Data science obejmuje kilka dziedzin, m.in. matematykę, statystykę, informatykę i uczenie maszynowe.


Data scientist – naukowiec przekształcający surowe, nieuporządkowane dane w informacje wartościowe dla biznesu. Informacje cyfrowe, które bada, czerpie z wielu źródeł, w tym smartfonów, urządzeń internetu rzeczy, mediów społecznościowych, ankiet, danych na temat zakupów, wyszukiwań i zachowań użytkowników sieci. Sortując te duże zbiory danych i analizując je, może określić wzorce pomocne w rozwiązywaniu różnych problemów.

Data scientist to ktoś, kto umiejętności analityczne i statystyczne łączy z wiedzą na temat uczenia maszynowego, eksploracji danych, algorytmów oraz doświadczeniem w zakresie kodowania.

Eksploracja danych (ekstrakcja danych, data mining) – proces polegający na pobieraniu danych z ich dużych, nieustrukturyzowanych źródeł i odkrywaniu w nich wzorców, które pozwalają wydobyć potrzebne informacje. Techniki eksploracji danych są wykorzystywane np. w matematyce, cybernetyce, genetyce i marketingu. Działy sprzedaży i marketingu firm mogą pozyskiwać dane klientów, by tworzyć skuteczne indywidualne kampanie marketingowe. Z kolei firmy finansowe eksplorują dane, by tworzyć modele ryzyka i wykrywać oszustwa. W przemyśle wytwórczym z kolei data mining pomaga choćby określać problemy związane z jakością czy zarządzaniem łańcuchem dostaw.

Głębokie uczenie (deep learning) -– proces, który odbywa się w sieciach neuronowych. Takie sieci mogą składać się z wielu warstw. Prostsze dane, pochodzące z niższej warstwy, są przetwarzane w dane bardziej złożone, które są przekazywane do warstwy wyższej. Warstwy neuronów uczą się wykrywać i reprezentować złożone własności danych (np. dotyczące obiektów czy obrazów) oraz rozpoznawać w nich określone wzorce.

By zrozumieć głębokie uczenie się, wystarczy wyobrazić sobie małe dziecko, którego pierwszym słowem jest np. „kot”. Dziecko uczy się, czym jest kot i czym kot nie jest, wskazując różne przedmioty i mówiąc, że to kot. Wspomagając tę naukę, rodzic mówi: „Tak, to jest kot” albo: „Nie, to nie jest kot”. Testując w taki sposób kolejne przedmioty i otrzymując informacje od rodzica, dziecko poznaje kolejne cechy kota, które pozwalają mu go coraz lepiej rozpoznawać.

Dziecko, nie zdając sobie z tego sprawy, powoli precyzuje znaczenie pojęcia (tu: kota), które z początku jest dla niego kompletną abstrakcją. Robi to, tworząc hierarchię, w której każdy poziom abstrakcji jest tworzony dzięki wiedzy zdobytej w poprzedniej warstwie hierarchii. Stosujące głębokie uczenie, programy komputerowe działają właśnie w taki sposób.

Głębokie uczenie się jest stosowane m.in. w wyszukiwarce Google, kanale informacyjnym Facebooka, do przewidywania trzęsień ziemi czy chorób serca.

Internet rzeczy (internet of things, IoT) – system połączonych wzajemnie komputerów, urządzeń mechanicznych i obiektów, które mają tzw. unikalne identyfikatory (UID, specjalne kody złożone z liczb, liter i znaków, przypisane każdej jednostce w systemie) oraz możliwość przesyłania danych przez sieć bez udziału człowieka. Ludzie mogą jednak wchodzić w interakcje z urządzeniami IoT, np. by je skonfigurować, przekazać instrukcje lub uzyskać dostęp do danych.

Co ważne, rzeczą w internecie rzeczy nie musi być jedynie martwy przedmiot. Może nią także być człowiek z implantem do monitorowania pracy serca czy pies z wszczepionym chipem.

Język naturalny (natural language) – język, którym posługują się ludzie, np. angielski, niemiecki czy polski.

Kognitywistyka (cognitive science) – badania procesów poznawczych u ludzi i zwierząt, w których wykorzystuje się wiedzę dostarczoną przez sztuczną inteligencję i neuronaukę oraz psychologię, lingwistykę i filozofię.

Neuroinżynieria (neural engineering) – stosowanie technik inżynieryjnych do naprawiania, wymiany lub ulepszenia elementów układu nerwowego.


Neuronauka obliczeniowa (computational neuroscience) – dziedzina nauki obejmująca zarówno badanie przetwarzania informacji w obrębie układu nerwowego, jak również wykorzystanie modeli i systemów generowanych przez komputery do badania układu nerwowego.

Przetwarzanie języka naturalnego (natural language processing, NLP) – przekształcanie języka ludzkiego za pomocą programu komputerowego w taki sposób, by stał się on zrozumiały dla maszyny. NLP umożliwia komputerom czytanie tekstu, słyszenie mowy, interpretowanie jej, dokonywanie tzw. analizy sentymentu i ustalanie, które części komunikatu są ważne, a które nie.

Przetwarzanie języka naturalnego jest zadaniem niezwykle trudnym nawet dla najbardziej zaawansowanych programów, ponieważ język ludzki jest bardzo złożony i różnorodny: istnieją setki języków, dialektów i narzeczy, a każdy posiada unikalny zestaw reguł gramatycznych, własną składnię, frazeologię, słownictwo, interpunkcję i intonację.

Jednak wsparcie maszyn w tej dziedzinie jest dziś niezbędne, ponieważ w przestrzeni publicznej – od np. dokumentacji medycznej po media społecznościowe – codziennie generowana jest ogromna ilość nieustrukturyzowanych danych, które trzeba szybko i sprawnie analizować. Maszyny są w stanie analizować nieporównanie więcej danych opartych na języku niż ludzie, nie męcząc się i zachowując większą precyzję i bezstronność.

Robotyka (robotics) – dziedzina inżynierii zajmująca się projektowaniem i produkowaniem robotów. Roboty są często używane do wykonywania zadań dla człowieka zbyt niebezpiecznych, uciążliwych, skomplikowanych lub monotonnych. Pracują na liniach montażowych do produkcji samochodów, ale także np. w NASA, gdzie służą do przemieszczania dużych obiektów w przestrzeni kosmicznej. Wykorzystując uczenie maszynowe, naukowcy konstruują także takie roboty, które mogą wchodzić w interakcje społeczne z ludźmi.

Sieci neuronowe (sztuczne sieci neuronowe, neural networks/artificial neural networks) – struktury składające się z neuronów połączonych synapsami. Sztuczne sieci neuronowe składają się z trzech typów warstw: wejściowej (zbiera dane i przekazuje je dalej), ukrytej (tu szukane są powiązania między neuronami, czyli zachodzi proces uczenia się) i wyjściowej (gromadzi wnioski, wyniki analizy). Sieć neuronowa może składać się z dowolnej liczby warstw.

W technologii informacyjnej (IT) sieć neuronowa to sprzęt albo oprogramowanie (może być jedno i drugie) wzorowane na działaniu neuronów w ludzkim mózgu.

Zazwyczaj sieć neuronową tworzy wiele warstw. Do pierwszej warstwy – analogicznie jak w przypadku obrazów rejestrowanych np. przez nerwy wzrokowe u człowieka – trafiają nieprzetworzone dane wejściowe. Każda kolejna warstwa otrzymuje dane będące wynikiem przetworzenia danych w warstwie poprzedniej. To, co wytwarza ostatnia warstwa, to tzw. dane wyjściowe systemu.

Sieć neuronowa funkcjonuje jak ludzki mózg: każdy neuron przeprowadza własne proste obliczenia, a sieć, którą tworzą wszystkie neurony, zwielokrotnia potencjał tych obliczeń. Sieci neuronowe wykorzystywane w sztucznej inteligencji są zorganizowane na tej samej zasadzie – ale z jednym wyjątkiem: by wykonać określone zadanie, połączenia między neuronami można odpowiednio dostosować.

Technologia sieci neuronowych ma wiele praktycznych zastosowań. Używa się jej m.in. do rozpoznawania pisma ręcznego w celu przetwarzania czeków, transkrypcji mowy na tekst, prognozowania pogody czy rozpoznawania twarzy.


Systemy ekspertowe (expert systems) – programy komputerowe stosujące technologie sztucznej inteligencji po to, by symulować oceny i zachowania ludzi lub organizacji mających w danej dziedzinie wiedzę ekspercką i bogate doświadczenie.

Podobnie jak w przypadku ludzi-ekspertów od systemu ekspertowego oczekuje się, by także był specjalistą (znał fakty i procedury), stosował heurystykę (obliczał, szacował wartości na podstawie znanych faktów), uzasadniał wnioski (bo użytkownik może zapytać, skąd system zna konkretny fakt lub dlaczego zadaje określone pytanie), umiał się uczyć (potrafił wchłonąć nową wiedzę i stosować ją) i był zdolny oszacować wiarygodność swojej odpowiedzi.


Sztuczna inteligencja (SI, artificial intelligence, AI) – naśladowanie przez maszyny, zwłaszcza systemy komputerowe, procesów decydujących o inteligencji człowieka. Inaczej mówiąc, sztuczna inteligencja to nauka o tym, jak produkować maszyny wyposażone w niektóre cechy ludzkiego umysłu, takie jak umiejętność rozumienia języka, rozpoznawania obrazów, rozwiązywania problemów i uczenia się.

Termin „sztuczna inteligencja” wymyślił John McCarthy, amerykański informatyk, w 1956 r. na konferencji naukowej w Dartmouth. Określił ją jako „naukę i inżynierię tworzenia inteligentnych maszyn”. Badania nad sztuczną inteligencją wykorzystują narzędzia i ustalenia z wielu dziedzin, m.in. informatyki, psychologii, filozofii, neuronauki, kognitywistyki, lingwistyki, badań operacyjnych, ekonomii, teorii sterowania, prawdopodobieństwa, optymalizacji i logiki.

Podział sztucznej inteligencji ze względu na uniwersalność:

  • Słaba/wąska sztuczna inteligencja (weak/narrow artificial intelligence) – polega na zastosowaniu sztucznej inteligencji tylko do określonych zadań lub konkretnych typów problemów. Słaba sztuczna inteligencja koncentruje się na jednym wąskim zadaniu (np. grze w szachy), które potrafi wykonać nawet lepiej od człowieka. Na co dzień słaba SI występuje np. w postaci asystentów głosowych (m.in. Cortana czy Siri), automatycznych tłumaczy (Google Translator) czy autonomicznych samochodów (Tesla).
  • Silna/ogólna sztuczna inteligencja (strong/general artificial intelligence, AGI, ogólna sztuczna inteligencja) – inteligentne, dysponujące wszechstronną wiedzą i zdolnościami poznawczymi systemy, które potrafią samodzielnie myśleć i wykonywać zadania tak samo sprawnie, jak wykonałby je człowiek. Także te zadania, których wcześniej nie znały. Gdyby silna SI istniała – bo na razie jeszcze nie istnieje – byłaby maszyną zdolną do zrozumienia świata i każdego człowieka, posiadającą taką jak ludzie, a z czasem jeszcze doskonalszą, zdolność uczenia się i działania.

Podział sztucznej inteligencji ze względu na funkcjonalności:

  • Maszyny reaktywne (reactive machines) – jedna z podstawowych form SI, charakteryzująca się tym, że do swych działań nie może wykorzystywać informacji z przeszłości, ponieważ nie ma pamięci. Taki był komputer IBM, z którym w latach 90. przegrał w szachy mistrz świata Garri Kasparow.
  • Maszyny o ograniczonej pamięci (limited memory) – systemy SI zdolne wykorzystywać przeszłe doświadczenia do podejmowania decyzji. W taki sposób zaprojektowano m.in. niektóre funkcje w autonomicznych samochodach (np. informacje o możliwych konsekwencjach zmiany pasa przez inne auto) lub w chatbocie Siri firmy Apple.
  • Teoria umysłu (theory of mind) – rodzaj sztucznej inteligencji potencjalnie (bo jeszcze nie istnieje we właściwej postaci) będący w stanie zrozumieć ludzkie emocje, myśli, oczekiwania – i wchodzić w interakcje społeczne.
  • Samoświadomość (self-awareness) – sztuczna inteligencja, która ma własną, superinteligentną świadomość; byt czujący i zdolny do refleksji. Taka sztuczna inteligencja jeszcze nie istnieje.  

Test Turinga – test pozwalający ocenić, czy maszyna jest zdolna naśladować człowieka w takim stopniu, że nie można jej odróżnić od człowieka. Został opracowany w latach 50. XX w. przez genialnego angielskiego matematyka Alana Turinga.


Tłumaczenie maszynowe (machine translation) – automatyczne tłumaczenie z jednego języka naturalnego na inny, np. z polskiego na angielski.

Uczenie maszynowe (machine learning, ML) – gałąź sztucznej inteligencji, w której programy automatycznie modyfikują swoją wiedzę i procedury, by poprawić swą wydajność. Programy działają tu w oparciu o wyraźne instrukcje od nauczyciela, przykłady ze szkoleń, doświadczenia lub eksperymenty generowane przez program. Uczenie maszynowe pozwala komputerom radzić sobie z nowymi sytuacjami dzięki analizie, samokształceniu, obserwacji i zdobywaniu doświadczeń.

Przed wykonaniem zadania maszyna otrzymuje wiele przykładów próbnych. Na nich uczy się, dostosowując swoją strategię działania tak, by osiągnąć cel, jaki postawił przed nią człowiek. Maszyna jest wystawiana na nowe scenariusze. Tą metodą komputery uczą się np. rozpoznawać obiekty.

Uczenie maszynowe ułatwia nieustanny rozwój informatyki, jako że maszyny są konfrontowane z nowymi scenariuszami, muszą przeprowadzać testy i adaptować się do nowych sytuacji. Jednocześnie, by ich kolejne decyzje były lepsze od poprzednich, muszą wykrywać wzorce i trendy.


Uczenie nadzorowane (supervised learning) – rodzaj uczenia się, w którym instruktor – człowiek zapewnia przykłady do szkolenia i odpowiada za ich prawidłowe klasyfikowanie.


Uczenie się ze wzmocnieniem (reinforcement learning) – dziedzina sztucznej inteligencji, w której chodzi o osiągnięcie celu w niepewnym, potencjalnie złożonym środowisku. Sztuczna inteligencja staje tu przed sytuacją podobną do gry: w drodze prób i błędów komputer szuka rozwiązania danego problemu. By maszyna mogła robić to, czego oczekuje od niej programista, za działania, które wykonuje, jest karana albo nagradzana. Poza karami i nagrodami programista nie udziela jej jednak żadnych wskazówek ani sugestii. To od maszyny zależy, jak wykonać zadanie, by zmaksymalizować nagrodę. Tak więc zaczynając od zupełnie przypadkowych prób, kończy ona na wyrafinowanej taktyce i nadludzkich wręcz umiejętnościach.

Uczenie się ze wzmocnieniem jest dziś najskuteczniejszym sposobem uczenia maszyn kreatywności. W przeciwieństwie do ludzi, sztuczna inteligencja może bowiem gromadzić doświadczenia z tysięcy równoległych rozgrywek, o ile algorytm pracuje na wystarczająco mocnych komputerach.

Uczenie się ze wzmocnieniem jest wykorzystywane m.in. w teorii informacji, teorii gier, teorii sterowania, statystykach i algorytmach genetycznych.

Widzenie maszynowe (machine vision, rozpoznawanie obiektów) – technologia, która pozwala maszynom widzieć. Obrazy, czyli informacje wizualne, są rejestrowane i analizowane za pomocą kamery, konwersji analogowo-cyfrowej i cyfrowego przetwarzania sygnału. W odróżnieniu od ludzkiego widzenia, widzenie maszynowe nie wiąże się z biologią, więc maszyna może zostać zaprogramowana np. tak, by widziała przez ścianę.

Z widzenia maszynowego korzystamy w wielu aplikacjach, np. do identyfikacji podpisu czy medycznej analizy obrazu.