Журналист в течение 8 часов задавал вопросы Siri, Google Assistant, Cortana и Alexa и сравнил качество ответов
Пользователи регулярно издеваются над этими помощниками, задавая им неприличные вопросы или ставя в тупик фоновым шумом, пишет iGate.com. А как насчет того, чтобы протестировать этих помощников по их прямому назначению? Обозреватель Джефф Данн в течение 8 часов тестировал голосовые помощники Siri, Google Assistant, Cortana и Alexa, задавая ботам вполне бытовые, повседневные вопросы. И вот результаты.
Вопрос: Как добраться до автостанции Порт Авторити?
Google Assistant: Сориентировался моментально и открыл в Google Maps проложенный маршрут.
Siri: Более-менее поняла, о чем речь: выдала результат поиска с шестью разными местами со схожим названием и уточнила «вы имеете в виду автобусную станцию в Нью-Йорке?» После подтверждения – открыла маршрут в Apple Maps.
Alexa: Учитывая, что это помощник, «сидящий» в Bluetooth-колонке, особых шансов у нее не было. Впрочем, она нашла через поисковую систему нужное место и сообщила адрес и время работы. В своем «сопутствующем» приложении для мобильного ничего не показала.
Cortana: Выдала список из трех подходящих мест, но после ответа «да, первое из них» отправилась в поисковик искать слово «первое». Не лучший результат.
Победитель: Google Assistant