Platforma Airbnb próbuje ulepszyć swoją ofertę wynajmu nieruchomości za pomocą sztucznej inteligencji. Naukowcy zbadali, jak reagują na to osoby korzystające z serwisu

Airbnb to niezwykle popularna na całym świecie platforma do rezerwacji miejsc noclegowych. W zasadzie nie ruszając się z domu, możemy wynająć piętrowe łóżko w hostelu w San Francisco, pokój w Paryżu czy apartament w Londynie, często płacąc za wynajem poniżej ceny rynkowej. Mieszkania oferują właściciele, zwykle prywatni, choć nie brakuje agencji nieruchomości czy nawet mniejszych hoteli.

Sztuczna inteligencja w każdym kącie

Modele uczenia maszynowego stosowane są w portalu od 2013 roku.

Platforma wykorzystuje sztuczną inteligencję do ograniczania przestępstw czy oszustw, które przy takim profilu biznesowym mogą być szczególnie uciążliwe dla wynajmujących. Dotyczy to np. zakładania „fejkowych” kont czy prób wyłudzenia pieniędzy, oszustw w postaci korzystania z kradzionych kart płatniczych.

W Airbnb za wygląd w sieci danej oferty wynajmu, jej parametry czy układ zdjęć nie zawsze jest odpowiedzialny człowiek

Algorytmy stosowane są również w optymalizacji cen dla gospodarzy mieszkań. Nie każdy wynajmujący wie, ile powinna wynosić cena za pokój w danym miejscu i może zaproponować zbyt wysoką lub zbyt niską. Wtedy on nie będzie zarabiał na swoim wynajmie, a co za tym idzie – platforma nie będzie zarabiać na prowizjach.

Nie wszyscy wiedzą o tym, że także za wygląd w sieci danej oferty wynajmu, jej parametry czy układ zdjęć nie zawsze jest odpowiedzialny człowiek.

Jak informuje Airbnb, nie chodzi tylko o zaoferowanie mieszkania podobnego do tych, z których korzystaliśmy poprzednio, ale znalezienie dla klienta miejsca idealnego pod względem opisu, atrakcji, doświadczeń z ostatnich lat.

Wyobraźmy sobie, że użytkownik poszukuje mieszkania w danym miejscu. Sprawdza odpowiednie parametry, jak cena czy metraż, i wybiera. Na podstawie tych danych algorytm łatwo podsuwałby mu podobne rozwiązania i na tym koniec. Ale Airbnb chce, aby algorytmy działały głębiej. Mają zatem sprawdzać, jakie zdjęcia ogląda użytkownik, czy jakieś opisy lub ilustracje powodują, że dłużej się nad nimi zatrzymuje, czy jakieś parametry mają szczególnie duże znaczenie. Słowem, ważna jest powtarzalność wyszukań, a nie tylko ostateczny wybór. Algorytm ma się uczyć użytkownika i starać się mu podsuwać takie oferty, które w tym momencie mogą być dla niego optymalne.

Airbnb pod lupą

Tymczasem ciekawe wnioski w kwestii wynajmu w Airbnb opublikowano w kwietniu 2019 roku na stronie Cornell University. Mowa o badaniach przeprowadzonych wraz z naukowcami z Uniwersytetu Stanforda.

Celem naukowców było zbadanie, czy użytkownicy ufają algorytmicznie zoptymalizowanym lub wygenerowanym profilom.

Im więcej uczestników wierzyło, że profil wynajmującego został wygenerowany przez SI, tym mniejsze mieli do niego zaufanie, choć profile, które ocenili, zostały napisane przez ludzi, a nie maszyny

W przedsięwzięciu wzięło udział łącznie ponad tysiąc użytkowników Airbnb w trzech etapach. Na każdym etapie pokazywano im przykładowe, starannie wyselekcjonowane profile serwisu wraz z informacją o nich: stworzone bez udziału SI lub z nim (I etap) oraz bez uprzedzania, który profil jest prowadzony przez sztuczną inteligencję (II etap). W III etapie postanowiono się nieco „zabawić”. Uczestnikom niebiorącym do tej pory udziału w badaniu powiedziano, że niektóre profile zostały wygenerowane przez system komputerowy wykorzystujący sztuczną inteligencję, podczas gdy inne zostały napisane przez wynajmującego. Uczestnicy obejrzeli także demonstrację systemu wykorzystaną w poprzednich etapach. Wskazano również, który profil jest oparty o SI, a który został stworzony przez człowieka – nie zawsze zgodnie z prawdą.

Kto za tym stoi

Wyniki? Etap I: jeśli wszystkie profile wynajmujących używają do zarządzania algorytmu, to w zasadzie użytkownicy im ufają. Podobnie jest w przypadku, kiedy profile prowadzone są przez człowieka samodzielnie. Stopień wiarygodności był dla SI był nieco niższy, ale różnica nie przekraczała jednego procenta. Ważna była wiedza o działaniu profili.

Kiedy jednak w badaniu numer II poinformowano o tym, że „być może niektóre” z profili są zarządzane przez sztuczną inteligencję, zadziałał czynnik psychologiczny. Każdy badany miał własne wyobrażenie na temat tego, jak wygląda profil stworzony przez człowieka, a jak przez maszynę. Często mylne. Tym razem profile oceniane jako te tworzone przez SI (nawet jeśli to nie była prawda) były oceniane znacznie gorzej niż te z etapu I. Z kolei te uznane na 100 procent za „ludzkie” – nawet jeśli były „sztuczne” – oceniane były jako bardziej wiarygodne. III etap, choć był nieco bardziej skomplikowany, również nie wyszedł profilom SI na dobre.

„Im więcej uczestników wierzyło, że profil wynajmującego został wygenerowany przez SI, tym mniejsze mieli do niego zaufanie, choć profile, które ocenili, zostały napisane przez ludzi, a nie maszyny” – czytamy na stronie Cornell University.

Wnioski? Twórcy eksperymentu zwracają uwagę na znaczenie komunikacji. Gdy ludzie otrzymują jasną informację, akceptują wkład automatów w obszarze e-commerce czy usług. Natomiast badania na etapie II i III pokazują zjawisko nazwane przez ekspertów efektem replikacji (być może z inspiracji filmem SF „Bladerunner”, którego bohaterami były prawie nieodróżnialne od człowieka roboty zwane replikantami). Jeśli człowiek nie jest pewien, ale podejrzewa, że profil jest „replikantem”, czyli wygenerowała go sztuczna inteligencja, staje się nieufny.

Na razie firma nie odniosła się do opisanych badań.

Co by tu jeszcze zautomatyzować

W 2018 roku jeden z szefów działu technicznego platformy Mike Curtis zapewniał, że maszyny nie zastąpią człowieka w Airbnb, a jedynie będą go wspomagać. Jednocześnie informował, że serwis ma jeszcze kilka pomysłów na wykorzystanie sztucznej inteligencji w przyszłości. Airbnb bada m.in. technologię głębszego zrozumienia obrazów. Przykład? Źle dobrane lub skadrowane zdjęcia zostaną poprawione. Ponadto jeśli na zdjęciu pojawi się ważny element dla szukającego noclegu, np. łóżeczko dla dziecka, a gospodarz o nim nie wspomniał w opisie, to tekst może zostać uzupełniony automatycznie.

Z kolei narzędzia przetwarzania języka naturalnego (NLP) mają poprawić dobór widocznych recenzji, aby były bardziej dopasowane do prezentowanego mieszkania, a nie tylko związane z danym miastem. NLP ma również pomóc w wyszukiwaniu miejsc nieoczywistych, np. bungalowów na plaży w danej okolicy, bez podawania dokładnej lokalizacji.

Czy sztuczna inteligencja pomoże Airbnb? Jeśli profile właścicieli mieszkań będą ulepszane przez SI, klient będzie otrzymywał piękne zdjęcie, uzupełnione opisy, odpowiednie recenzje. Co jednak, jeśli rzeczywistość okaże się mniej zadowalająca, a wspominane przez Airbnb doświadczenie użytkownika będzie wystawione na próbę? I co z zaufaniem do serwisu, jeśli wiedza o wspomaganiu SI trafi pod strzechy?

Skip to content