Digital Personal Assistants

На скільки розумні сьогодні голосові помічники



    

Маркетингове агентство Stone Temple Consulting провело у 2018 році порівняльне дослідження ефективності голосових помічників, які представлені на ринку. Вони порівняли результати дослідження 2018 року з даними 2017 і зробили кілька цікавих висновків.

Digital Personal Assistants — це програмне забезпечення, яке розташоване в хмарних сервісах, призначене для того, щоб допомогти кінцевим користувачам виконувати різні задачі в онлайн режимі. Ці завдання включають відповіді на запитання, керування розкладом дня, керування домашніми пристроями, відтворення музики та багато іншого. Іноді їх називають персональними цифровими помічниками, або просто персональними помічниками; провідними продуктами на ринку є Google Assistant, Amazon Alexa, Siri (від Apple) і Microsoft Cortana.

Опитування Comscore показало, що найчастіше користувачі ставлять питання загального характеру.

Top Use Cases for Smart Speakers

Stone Temple для дослідження ефективності помічників обрали 4952 запитань, які задали кожному персональному помічнику.

  • Alexa
  • Cortana Invoke
  • Google Assistant на Google Home
  • Google Assistant на смартфоні
  • Siri

Google Assistant, як і у 2017 році, відповідає на більшість запитань і має найбільший відсоток повних та правильних відповідей. При чому Google Assistant, який є основою смарт-колонки Google Home, дещо відстає від свого смартфонного брата. Другий результат показала Cortana, а помічник Alexa показала найбільше зростання: за рік вона збільшила кількість правильних відповідей у 2,7 раза. В цілому відзначається, що усі помічники значно скоротили розрив із Google у ефективності.

Розглянемо детальніше представлені результати дослідження.

Кожному з п'яти «піддослідних» задали однаковий набір запитань і обрали різні можливі категорії параметрів для оцінки відповідей, зокрема:

  • Чи помічник відповідав усно
  • Чи була отримана відповідь із бази даних (наприклад, Knowledge Graph в Google)
  • Чи відповідь була отримана зі стороннього джерела (наприклад Вікіпедія)
  • Як часто помічник не розуміє запит
  • Коли пристрій намагався відповісти на запит, але не зрозумів його

Всі чотири особисті помічники включають можливості діяти від імені користувача (бронювання в ресторані, замовлення квітів, бронювання квитків), але ці параметри в дослідження не включались. Основна увага була приділена «розумності» з точки зору знань.

2018 Summary Results

Результати визначались за такими параметрами:

  1. Спроба відповіді означає, що особистий помічник вважає, що він розуміє запитання, і намагається дати відповідь. Сюди не відносяться результати, у яких відповідь була «Я все ще навчаюсь» або «Вибачте, я не знаю», відповіді на запитання, які були розпізнані невірно (останній варіант класифікований окремо, оскільки це обмеження мовних навичок, а не знань).
  2. Повна і правильна відповідь на поставлене запитання. Наприклад, якщо особистого помічника запитують, скільки років Аврааму Лінкольну, то відповіддю не може бути дата його народження. Або, якщо відповідь була частковою, то не рахувалась як повна правильна. Важливо, щоб користувач отримав 100% інформації, яка була потрібна, без уточнень і додаткових запитань.

Дослідження Google Assistant на смартфоні у 2017 році не проводилось.

Всі чотири особисті помічники збільшили кількість спроб відповідей, але найбільш значні зміни відбулися в Alexa: цей параметр показав зростання з 19,8% до 53,0%. Cortana Invoke показала друге найбільше зростання спроб відповідей (з 53,9% до 64,5%), на третьому місці Siri (з 31,4% до 40,7%).


Порівняння повноти та точності відповідей

Fully and Correctly Answered

Єдиним помічником, який підвищив свою точність є Cortana Invoke (з 86,0% до 92,1%). Alexa трохи зменшила свої показники ефективності, але у світлі збільшення спроб відповідей у 2.7 раза, це зменшення не є поганим результатом.

Зазначено, що у стовпчику 100% Complete&Correct відповіді повинні бути повні. Як з’ясувалось, існує кілька типів перешкод для цього:

  • Запит може містити декілька можливих відповідей, наприклад, «how fast does a jaguar go?» («Яка швидкість ягуара?»: «ягуар» може бути твариною або автомобілем).
  • Замість того, щоб ігнорувати запит, який помічник не розуміє, він може спробувати відповісти на запитання, наближене, на його думку, до теми, про яку говорив користувач.
  • Асистент може надати часткову правильну відповідь.
  • Асистент може відповісти жартом.
  • Асистент може цілком неправильно зрозуміти запитання (цей сценарій трапляється рідко).

У підсумку, Google Assistant як і раніше відповідає на більшість запитань і має найбільший відсоток правильних відповідей.


Типи помилок, які асистенти роблять найчастіше

Number of Incorrect Responses

Найбільша кількість некоректних відповідей була в Alexa, але варто пам’ятати, що також збільшилась і кількість запитань, на які вона відповіла. Багато «помилок» як в Alexa, так і у Siri з'явилися внаслідок погано структурованих або незрозумілих запитів, наприклад «What movies does The Rushmore, New York appear in?» («У яких фільмах є Рашмор, Нью Йорк?»). Запити такого типу становлять приблизно третину причин некоректних відповідей.

Після детального аналізу невірних відповідей у всіх п'яти випробуваних сценаріях з’ясувалось, що в основному всі помилки були логічними за своїм характером. Іншими словами, коли користувач чує / бачить відповідь, він розуміє, що отримав неправильну відповідь.


Приклади неправильних відповідей

У тесті асистентів попросили відповісти на запитання «Who is the voice of Darth Vader?» («Хто є голосом Дарта Вейдера?»).

Ось як відповідає Siri:

Siri`s wrong answer

Як видно, Siri відповідає списком фільмів, в яких присутній персонаж Дарта Вейдера. Відповідь релевантна, але не відповідає на запитання користувача.

Ось як відповів один з Google помічників на запитання «Як зробити пісок?»

Google`s Wrong Answer

Якщо ви хочете зробити щось подібне до піску для дитячих ігор, це буде цілком правильною відповіддю.

У Alexa видається помилкова відповідь на запит «compare tiger and cheetah» («порівняй тигра і гепарда»).

Alexa`s Wrong Answer

Відповідь Cortana на запит «Is Joe Biden divorced??» («Чи розлучений Джо Байден?»):

Cortana`s Wrong Answer

Асистент в цілому зрозумів тему запиту, але питання не зовсім про його доньку.


Цікавим параметром, який розглядали дослідники Stone Temple, була дотепність асистентів. Кожен із помічників може пожартувати у відповідь на ваше запитання. З 4942 запитань жартівливу відповідь отримали на таку кількість запитів:

Number of Responses Which Are Jokes

Включення жартів в діалог користувача та асистента є дуже важливим, оскільки часто користувачі ставлять підступні, жартівливі запитання. Також ці жарти додають індивідуальності асистентам.

Alexa`s Joke
Google`s Joke

Ефективність персональних помічників зростає пропорційно до зростання їх популярності серед користувачів, і навпаки. Конкуренція серед представлених на ринку продуктів збільшується. Google Assistant залишається найефективнішим помічником, водночас інші додатки значно скоротили відставання. Очікується, що можливості асистента будуть розширюватись шляхом навчання та взаємодії з більшою кількістю додатків та керування ними.


Як Нас Знайти

Контакти

м. Хмельницький

вул. Подільська, 109

Пiдписатись на Оновлення