• Od chatbotów po systemy inwestycyjne na giełdzie – SI w finansach coraz bardziej powszechna
  • Algorytmy w bankach wcale nie muszą oznaczać problemów z uzyskaniem kredytu
  • Firmy mają narzędzia do walki z błędami myślących maszyn

– O sztucznej inteligencji dziś się dużo mówi, a mniej robi. W przypadku sektora finansowego jest odwrotnie – zauważa dr Aleksandra Przegalińska, twórczyni kierunku studiów z zakresu sztucznej inteligencji w biznesie w Akademii Leona Koźmińskiego. – Ta branża bardzo interesuje się rozwiązaniami z obszaru SI. I jako jedna z niewielu rzeczywiście mocno je wdraża.

Nie tylko chatboty

Jeśli chodzi o poprawę jakości obsługi klienta, to prawdopodobnie najbardziej powszechnym narzędziem z „zaszytym w środku” SI są chatboty. Dzwonisz do banku i rozmawiasz z wirtualnym asystentem, który pomaga ci dobrać odpowiednią ofertę czy produkt finansowy. Jednak automaty jeszcze długo nie będą mogły same decydować, jaki produkt komu zaproponować.

Chatboty są nieskomplikowanymi rozwiązaniami, wyższą szkołą jazdy jest zaangażowanie przez banki i instytucje finansowe mechanizmów sztucznej inteligencji na giełdzie.

W zeszłym roku szwajcarski bank UBS zadebiutował z nowym systemem SI, który służy identyfikacji wzorców handlowych na parkiecie. Rozwiązanie to wykorzystuje uczenie maszynowe, aby opracować dla klientów nowe strategie inwestycyjne.

Dzięki wykorzystaniu uczenia maszynowego w bankowości możemy liczyć na lepsze oferty kredytu dla klienta, a także bezpieczniejsze rozwiązania

System skanuje duże ilości danych handlowych i używa ustalonych wzorców rynkowych, aby uczynić inwestycje bardziej efektywnymi. Działa jak swoisty doradca inwestycyjny. Strategia taka musi jednak zostać zatwierdzona przez pracowników banku.

– Dzięki uczeniu maszynowemu system może poprawić wyniki finansowe. A to powinno przełożyć się na większe zwroty rynkowe dla udziałowców – informuje Jędrek Fulara, CTO firmy Sparkbit.

W tej chwili najpopularniejsze jest wykorzystanie uczenia maszynowego do grupowania klientów czy do wykrywania oszustw.

Wiele banków na całym świecie już wdraża te rozwiązania lub je testuje. Polskie instytucje, przynajmniej te większe, nie zostają w tyle. Uczenie maszynowe do dzielenia klientów na różne kategorie wykorzystują m.in. PKO BP czy Santander (wcześniej BZ WBK). Co ciekawe, każdy z nich robi to w inny sposób. Największy bank w Polsce ma wielką bazę klientów i starał się ją po prostu usystematyzować. Z kolei BZ WBK wyszukiwał konkretne grupy klientów potrzebne do określonych działań banku.

Z kolei wykrywaniem oszustw na kartach za pomocą algorytmów zajmują się dziś w zasadzie wszystkie organizacje płatnicze, oferując swoje rozwiązania bankom.

Na rynku są już systemy, które pozwalają oceniać np. zdolność kredytową klienta w oparciu o setki czy tysiące czynników. Zgodnie z podawanymi przez banki i firmy z branży SI danymi dzięki temu liczba udzielanych kredytów się zwiększa. Jednocześnie liczba tzw. złych kredytów – gdy banki muszą się pogodzić z tym, że nie zostaną spłacone – sukcesywnie spada. A osoby, które według analiz z użyciem SI nie byłyby w stanie spłacić zaciągniętego zadłużenia, będą miały przez to problem z uzyskaniem kredytu czy pożyczki.

Kłopoty z algorytmem

Jednak taki system może w pewnym sensie oszukać sam siebie. Z wykorzystaniem SI w bankowości może się bowiem wiązać też kilka zagrożeń. Jednym z nich jest tzw. stronniczość algorytmów (z ang. bias). Chodzi o wykorzystanie w treningu SI błędnych danych, co w efekcie daje stronniczość samego systemu.

Głośnym echem na całym świecie odbił się choćby błąd sztucznego rekrutera Amazona stworzonego w 2015 roku. Szukając pracowników, algorytm dyskryminował kobiety. System Amazona stworzył sobie 500 modeli komputerowych, które miały analizować CV przysyłane do firmy. Do szkolenia programu wzięto dane z ostatnich dziesięciu lat, a w tym czasie pracownikami Amazona chcieli zostawać głównie mężczyźni. Okazało się, że algorytm pracujący na podstawie tak źle dobranej próbki danych odrzucał kobiety lub przyznawał im mniej punktów w rekrutacji.

– Jeżeli segmentacja klienta bankowego, na której będziemy polegać, oparta zostanie o zbiasowane dane, gdzie dyskryminuje się osoby o jakimś kolorze skóry czy wieku, czy płci, to mamy poważny problem – ostrzega Przegalińska.

Co jeśli taki błąd pojawi się w ocenie kredytowej? Wyobraźmy sobie sytuację, że dane wskazują, iż 90 procent mieszkańców danej dzielnicy miasta ma problemy ze spłatą pożyczek, bo nie uwzględniały jakiegoś ważnego kryterium. Mieszkasz pod „złym” adresem? Nici z pożyczki.

Na szczęście dziś mamy wiele narzędzi, które pozwalają na stworzenie explainable AI. Dzięki nim firmy mogą „odbiasowywać” swoje narzędzia, swoje sieci neuronowe i już na pierwszym etapie wdrożeń takie błędy będą widoczne – tłumaczy Przegalińska.

Przykładem takiego narzędzia jest działający w chmurze produkt firmy IBM oparty na słynnym superkomputerze Watson. Usługa w czasie rzeczywistym automatycznie wykrywa wszelkie objawy stronniczości w działaniu danego algorytmu. I poleca dane, które powinny zostać dodane do modelu, aby zapobiec takim błędom w przyszłości.

Nie taki diabeł straszny

Co jednak oznacza użycie SI dla zwykłego klienta banku? Na początku pewnie nieufność. Użytkownik może mieć poczucie, że brak mu „pełnego” kontaktu z bankiem. I czuć się nieswojo z tym, że jego dane są przetwarzane przez systemy SI, a decyzja kredytowa zależy od „jakiejś maszyny”.

Oczywiście, o ile będzie miał tego świadomość.

Skutki użycia algorytmów do oceny kredytowej nie są jednoznaczne.
Po pierwsze dlatego, że np. według firmy AdviceRobo dzięki wykorzystaniu algorytmów liczba sprzedanych kredytów rośnie nawet o 15 proc.
Po drugie, jeśli nie stać nas na kredyt, to może warto docenić to, że dzięki SI nikt nie zaproponuje nam obciążenia finansowego ponad nasze możliwości.
Nie można więc tego nowego sposobu analizy decyzji kredytowej demonizować.

– Zauważmy, że dzięki wykorzystaniu uczenia maszynowego w bankowości możemy mieć do czynienia z lepszymi ofertami kredytu dla klienta, a także bezpieczniejszymi rozwiązaniami. Może dzięki temu dane będą w końcu jasno pokazywać, czy dana osoba powinna brać tak wysoki kredyt, czy może jednak nie poradzi sobie z tym, aby go spłacić. To może rozwiązać wiele problemów – podsumowuje dr Przegalińska.

Skip to content