Siri、音声アシスタント比較テストにおいて78%の正答率を記録ーー1年前から12%アップ

IPhone X Hey Siri

Googleアシスタント」、「Siri」、「Cortana」、「Alexa」の4種類の音声アシスタントに対し、様々なジャンルにおける質問を合計800問投げかけて正答率を調査するLoup Venturesの実験において、「Siri」は78%を記録したことが明らかになった。

Googleアシスタント」(正答率:85.5%)には及ばないものの、「Cortana」(正答率:52.4%)、「Alexa」(正答率:61.4%)を上回っている上に、1年前の測定時から正答率が12.4%も伸びていることが明らかになった。

実験データや内容には疑問が残るが、Siriは少しずつ成長しているらしい

すべての音声アシスタントは質問の認識率は98%以上となっていて、「Googleアシスタント」は100%を記録。

実験で使われた質問は「最寄りのコーヒーショップはどこ?」などの地図情報、「ペーパータオルを注文して」など買い物のサポートを始め、スケジュールの追加やデバイスの設定変更などの精度が測定された。

Siriが特に精度が高かったのは「コマンド」カテゴリ。その他のカテゴリでは「Googleアシスタント」に圧倒されるが、スマートホームや音楽などの操作に関してはAppleの音声アシスタントが最も長けているという結果になった。

Comparison between Siri, Cortana, Google Assistant, Alexa
【image via Loup Ventures

AmazonMicrosoftの音声アシスタントが想像以上に結果が悪いが、「Googleアシスタント」は「Pixel XL」、「Siri」は「iOS 11.4」が動作するiPhoneが使われていたが、「Cortana」と「Alexa」はそれぞれのiOSアプリが使われていることが影響している可能性がある。

実際、同じくLoup Venturesが実施したスマートスピーカーによる音声アシスタントの精度を比較した実験によると、「Siri」は他の音声アシスタントに惨敗している。

また、テストに使われた言語が英語であることも考慮する必要がありそうだ。個人的には日本語版のSiriがこれほど高い正答率を出せるとは思えない。

これらのことから、音声アシスタント同士の比較という意味では実験データおよび内容には少々の疑問は残るものの、「Siri」単体で見れば1年前より精度が向上していることは事実だと言える。その調子、その調子!

(via 9to5Mac