無縫地帯

詐欺師に電話をかけてしまうぐらい騙される人工知能のアシスタントの知性が幼稚園児なみである問題

詐欺師のサイトが検索結果の上位だと情報のリテラシーに欠ける人工知能が音声アシスタントを通じて詐欺師の設定した問い合わせ電話番号にかけてしまう危険が指摘され始め、人工知能の知性問題が大きくなりそうです。

しばらく前にこんな記事を書きました。

まだまだ不完全な音声アシスタント周辺はプライバシー面で取り扱いが面倒だという話(ヤフーニュース個人 山本一郎 19/8/5)

音声アシスタントサービスで業界大手となるAmazon、Google、Appleの三社が音声解析において、ユーザーに事前の了承を得ることなく人間による聞き取り作業を実施していたという話ですが、その後、他のサービスにおいても同様な状況であることが発覚してニュースとなりました。技術革新があり、それがしっかりと運営されるためには、なんだかんだ人が中に入って情報を見て判断しなければならない、というのは致し方のないことではあるのですが、それをユーザーに黙ってやるべきではないということで、かなり議論になりました。

Microsoft、Skype通話とCortanaとのやり取りの一部を人間が聞いていることを認める(ITmedia 19/8/8)

フェイスブック、利用者の音声チャット文字起こしを外部委託(Bloomberg 19/8/14)

故に、起きたこと自体は「まあそうですよね」という感じでもあります。逆に人間が一切聞き取り作業に関与していない音声認識サービスがあるとすればそれは非常に画期的なことでありますが、現状ではちょっと実現不可能なのではないかと考えられます。もちろん、あと2~3年もすれば、完全に人間不在で音声認識の開発が進められることも当たり前になるのかもしれませんが、現状はそれだけ発展途上の技術であるということは開発側もユーザー側も体感的に理解できているのではないでしょうか。

なので、音声アシスタントの応答や挙動が少しばかり不完全でもまあそれは仕方ないよねみたいな共通認識がサービス提供側にもユーザー側にもなんとなくあるとは思うのですが、そうした“隙”を上手に突くような形の犯罪もじわじわと起きているようです。

音声アシスタントを利用したサポート詐欺、非営利団体が警告(CNET Japan 19/8/22)

音声アシスタントに企業のカスタマーサービスの番号を検索して電話するよう頼むと、代わりに詐欺師に電話がつながる羽目になるかもしれない。
(中略)
詐欺師らは偽の番号を作成し、それらの番号が検索結果の上位に表示されるようにしている。これにより、ユーザーが音声検索をする際にSiriやAlexa、Googleアシスタントが誤って詐欺の番号にかけてしまう可能性があるという。CNET Japan
どんなに便利な道具があったとしても、それを悪用しようと思えばいくらでもできてしまうという人間社会の真理は、当然これらの人工知能搭載のスマートスピーカーにおいても起きるということの証左でもあります。

この記事で報告されている詐欺犯罪の場合、一番の問題は検索エンジンで不正な情報を排除できない点にあるわけですが、現在普及している音声アシスタントデバイスには情報を視覚的に確認できる表現画面がほぼ無いという弱点を利用して、堂々と偽の電話番号へ誘導することに成功しているということになります。いわゆる「オレオレ詐欺」が電話による声だけの芝居で被害者を騙すのと似た側面があるのかもしれませんが、音声だけで操作できる音声アシスタントならではの直感的な操作を通じて返ってくる情報をなんの疑いもなくそのまま信用して自ら詐欺を仕掛けようとする相手に電話してしまうという罠になっているようです。

実際、スマートスピーカーが勝手にかけてしまう電話は、機械を介している以上、利用者もそれが正しい電話であると信じるほかなく、まさか人工知能が上位表示の内容をそのまま信じて詐欺師に電話を繋いでしまう、なんてことを日常的に警戒する人などいません。

原則として、音声アシスタントが利用されるシチュエーションとしては、運転中など視覚的にディスプレイ画面などを確認できない場合に適しているとされていますが(ハンズフリー用途)、その場合に音声アシスタントの返す情報が必ずしも信用できるものではないというコンセンサスは今のところほぼ無いわけでして、今回発覚した音声アシスタント詐欺は今後検討しなければならない問題をいろいろと示唆する話だなと感じました。

突き詰めれば、検索エンジンの返す情報そのものの信頼性がどれぐらいあるのかという問題もあるのですけれど、子供やお年寄りにもやさしいみたいな紹介がされることも多い音声アシスタントの使われ方を考えると、より深刻な事態が今後起きるのではないかと危惧してしまうのですよね…。

人でさえ騙されるのに、ましてや人工知能をや、というのは仕方がない気がします。確かにAI分野は発展著しい世界で、もはや小学生のプログラミング教育においても人工知能に強い言語であるPythonを習うのも当たり前になっている昨今、実はこれらのツールは5歳児以下の社会経験しか実装できていなかったというのが真実なのかもしれません。慎みある社会人のように振る舞う人工知能の社会経験が幼稚園児なみである可能性を考えると、ひとりでお使いにいくのもむつかしいという現実の前にいろんなサービスが立ち往生してしまう危険性もあります。

いまは検索結果に対するハッキングで起きる詐欺電話の問題で済んでいますが、ひょっとするとスマートスピーカーなどの音声アシスタントそのものを騙していろんなことをネットでさせる機能も出てきてしまうかもしれません。一口に「自宅に入るAI制御が乗っ取られるサイバー犯罪の問題」と言われると物凄い仰々しい事件を思い浮かべさせますが、もはや本当に乗っ取られてしまったり、サイト側の情報を検証せず鵜呑みにして詐欺師に電話してしまう状況になるならば、もはや何のための技術革新なのか分からないなあという気持ちにすらなってしまいます。

それが、人工知能バブルの終わりであるというのならば、その通りなのかもしれませんが。