Alexa, asystent głosowy Amazona, coraz lepiej rozpoznaje ludzką mowę. Ankur Gandhe, naukowiec zajmujący się mową w grupie Alexa Speech, stworzył inteligentny system, który zmniejsza liczbę błędów w rozpoznawaniu mowy nawet o 15 procent

Efekty badań, które prowadził jego zespół, szczegółowo opisano w pracy pt. „Skalowalna adaptacja modelu językowego dla systemów dialogu głosowego”, zaprezentowanej na konferencji IEEE Spoken Language Technologies w Atenach, w grudniu 2018 roku.

Gandhe zwrócił uwagę na to, że modele przetwarzania naturalnego języka (NLP), chociaż dostosowują się do kontekstu konwersacyjnego, umieją odróżnić „Red Sox” od „red sauce”, czyli nazwę drużyny baseballowej od nazwy sosu pomidorowego, i działają lepiej niż ich technologiczne odpowiedniki, które generalizują otrzymane informacje. Modele te muszą być jednak szkolone za każdym razem, ilekroć wprowadzana jest nowa funkcja, a to wymaga dużej ilości danych i zabiera sporo czasu.

By przeprowadzić takie szkolenie naukowcy zajmujący się sztuczną inteligencją często wykorzystują losowe próbki zdań z szablonów. Zespół Ankura Gandhe zaproponował jednak algorytm analizujący matematyczne przedstawienie gramatycznych reguł, według których tworzy się słowa i zdania. Opracował także metodę integrowania nowo wygenerowanych i wyszkolonych modeli NLP z istniejącymi już systemami w sposób, który nie wpływa negatywnie na ich wydajność.

Naukowcy ocenili efekty nowej metody szkoleniowej przeprowadzając testy asystenta głosowego Alexa w trzech różnych scenariuszach dla NLP: sprawdzając cenę akcji, znajdując i dyktując przepis kulinarny oraz rezerwując bilety lotnicze. W najważniejszym momencie testu polegającego na zarezerwowaniu lotów, w tekście, z którym miała do czynienia Alexa, odnotowano do 15 procent mniej błędów. Wygląda na to, że asystent Amazona rozumie nas coraz lepiej.

Skip to content