Algorytmy już nie raz pokazały, że mogą być rasistowskie, homofobiczne, dyskryminować kobiety, starszych, wytatuowanych, biednych. Niekiedy nawet okazywały się bardziej stronnicze w podejmowaniu automatycznych decyzji niż człowiek. Dr Deepak Padmanabhan, naukowiec z Queen’s University w Belfaście chce stawić temu czoła. Wymyślił sprawiedliwy algorytm.

Zastosowanie technik sztucznej inteligencji działających na surowych danych prowadzi do stronniczych spostrzeżeń, a to może pogłębić istniejące dysproporcje. Ważne jest, aby techniki SI były uczciwe, pomagając w podejmowaniu decyzji. Ludzie muszą mieć pewność, że SI nie dyskryminuje wrażliwych atrybutów, takich jak rasa, płeć, wiek, religia czy narodowość.

Dr Deepak Padmanabhan z Queen’s, współpracując z ekspertami z Indian Institute of Technology Madras za cel obrał sobie rozwiązanie problemu dyskryminacji w ramach algorytmów klastrowania czyli grupowania obiektów o podobnych cechach.

FairKM może być stosowany w wielu scenariuszach danych, w których sztuczna inteligencja jest wykorzystywana do wspomagania podejmowania decyzji

Wraz z międzynarodowym zespołem Padmanabhan zaproponował innowacyjny system, który pomoże uczynić sztuczną inteligencję bardziej sprawiedliwą i mniej tendencyjną podczas korzystania z udostępnionych jej danych. To niezwykle ważne w przypadku procesów, wymagających analizy mnóstwa danych – np. w trakcie procesów rekrutacyjnych, w trakcie sporów sądowych, udzielania kredytów czy wyliczania zasiłków. Algorytm określony jako „obliczeniowe pojęcie uczciwości” nazwano FairKM.

„Dzięki wprowadzeniu bardziej sprawiedliwego procesu komisje selekcyjne mogą skoncentrować się na innych podstawowych kryteriach związanych z pracą. (…) FairKM może być stosowany w wielu scenariuszach danych, w których sztuczna inteligencja jest wykorzystywana do wspomagania podejmowania decyzji, takich jak proaktywne działania policyjne w celu zapobiegania przestępczości i wykrywania podejrzanych działań. Uważamy, że jest to znaczący krok naprzód w kierunku budowy algorytmów uczciwego uczenia maszynowego, które mogą sprostać wymaganiom naszego współczesnego społeczeństwa demokratycznego” – opisali swoje rozwiązanie naukowcy.

Badania, które mogą zmienić SI na lepszą, zostaną zaprezentowane już wkrótce: w kwietniu na konferencji EDBT 2020 w Kopenhadze.

Skip to content