Na łamach bloga Apple Machine Learning Journal opublikowany został nowy wpis, który opisuje proces personalizacji asystenta głosowego Siri. Uczestniczą w nim użytkownicy, aktywując funkcje „Hej Siri”.

Możliwość aktywacji Siri za pomocą komendy głosowej wprowadzona została w systemie iOS 8 na iPhone 6. Wówczas z funkcji tej korzystać można było tylko wtedy, gdy urządzenie podłączone było do ładowania. W kolejnych generacjach iPhone'ów ograniczenie to zostało usunięte dzięki zastosowaniu energooszczędnego koprocesora, który „nasłuchuje” komendy „Hej Siri”.

W nowym wpisie, zespół odpowiedzialny za Siri szczegółowo omawia swoje podejście rozwoju systemu rozpoznawania głosu. W rozwiązaniu tym zaimplementowany został system sieci neuronowych, zbudowany w taki sposób, aby można było go doskonalić w kolejnych iteracjach asystenta Siri.

Fraza „Hej Siri” wybrana została dlatego, że wydaje się najbardziej naturalna. Dodatkowo opracowane zostały scenariusze, w których Siri może zostać aktywowana wbrew woli użytkownika. Wdrożono też narzędzia, które mają temu zapobiec. Siri skupia się na tym, kto mówi, identyfikuje więc użytkownika, a nie to, co zostało wypowiedziane.

Proces personalizacji rozpoczyna się podczas aktywacji „Hej Siri”, kiedy to użytkownik musi kilka razy wypowiedzieć tę frazę. Trwa on jednak jeszcze przez jakiś czas, za każdym razem, gdy Siri wywoływana jest za pomocą komendy głosowej w codziennych sytuacjach.

Wyzwanie, które teraz stawia przed sobą zespól ds. rozwoju Siri dotyczy ulepszenia procesu aktywacji Siri za pomocą głosu w pomieszczeniach, w których występuje pogłos oraz w głośnych miejscach, na przykład w samochodzie.

Wpis zatytułowany „Personalized Hey Siri” przeczytać można na blogu Apple.

Źródło: MacRumors za machinelearning.apple