無縫地帯

人間が相手でなければプライバシーを見られても平気という心理はいつまで成立するか

Gmailアプリでやり取りされているユーザーのメール内容を第三者企業が解析していたという報道が出て、いろいろと物議をかもしております。人間なら駄目だが機械なら良いのか、雑記調に論考してみました。

Gmailでやり取りしているメールの内容が勝手に第三者に閲覧されていた可能性があるということが発覚しちょっとした話題になっていました。かねて噂はあったものの、こうはっきり報じられると、いろんな思いが去来いたします。

Google、「サードパーティ開発者がGmailの内容を読んでいる」報道について説明(ITmedia 18/7/4)

Wall Street Journalはこの記事で、例えばメールマーケティング支援企業の米Return Pathが、Gmailアプリのユーザーのメールの内容を解析しており、約8000件のメールを人間のエンジニアが読んだと報じた。ITmedia
この一件は様々な要素が複雑に絡んでおり、ITサービスを使っていく上でエンドユーザーの我々が理解し考慮しなければならない問題が山積みの事案でありますが、ここではあえて一つのポイントに注目してちょっと極端な与太話をしてみたいと思います。

Wall Street Journalから事の次第を問い詰められたReturn Path社は以下のように説明しているそうです。

8000件のメールを人間が読んだというのはAIの学習データ作成のためであって常に人間が読んでいるわけではなく、読む際はデータの匿名化など、扱いには十分注意していると説明した。
なるほど、「常に人間が読んでいるわけではなく」ということは、裏をかえせばたまには人間が読んでいたこともあったということになりそうです。そして、そういう行為に及んでいた理由は「AIの学習データ」を作成するためであったということですね。

以前、総務省で筑波大学准教授の石井夏生利さんが出したペーパーが一定方面で大変な議論を呼びましたが(健全な意味で)、議論の土台としてメールや画像、映像など個人に関するデータも含まれるこれらの流通物はどのような権利物で、いかにして守られるべきなのかという議論は叩き台のところからいろんな意見が百出しやすい状況にいまだある、というのが大事な観点ではないかと思います。

プライバシー・個人情報の「財産権論」-ライフログをめぐる問題状況を踏まえて-

そのような個人に帰属する財産権論も論考されるなかで、読み取る主体が人工知能(AI)や機械学習だからといってこうした作業のやり方が許されるのかといえばそれは甚だ疑問を感じるところです。そうした事業者側のモラルについての議論はこの際あえて無視するとして、こうした経緯から察するに将来的には人間が一切関与しない形でAIによってメールの内容すべてが読まれる事態が起こり得るだろうことは容易に想像できます。もし、そういう形で人が一切かかわることなく機械であるAIだけがメールの内容を読み取っているということであれば、多くの人は事の次第をそれほど気にしなくなるものなのでしょうか。

実はGoogleは無料の個人向けGmailサービスにおいて過去にメール本文の内容を機械的にスキャンしてそのデータの自動解析からターゲティング広告を表示するということをやっていたわけですが、2017年にそうしたサービスを停止しました。広告表示をやめた明確な理由は表明されませんでしたが、その採算性を含め広告効果の面以外にも、暗にプライバシーやセキュリティの面でトラブルが生じることを避けたかったようだ、という印象はあります。

グーグル、パーソナライズ広告表示のための「Gmail」のスキャン停止へ(CNET Japan 17/6/26)

G Suiteの顧客と、無料のコンシューマー版Gmailを使用するユーザーは、Googleがプライバシーとセキュリティを最優先に考えて革新を続けていくと確信できるCNET Japan
しかし、当時、こうした広告表示のためのメール本文のスキャン行為があるという理由からGmailを使わないという人はいたとしても、Gmailの普及が著しく阻害されるほどには多くなかったと思われます。もし、これが常に誰かGoogleのスタッフがメール内容を確認しつつ表示される広告を選ぶようなシステムであれば事情はまったく異なったはずで誰も使わなかったかもしれません。つまり、機械が読んでいる限りは人々はあまりプライバシー侵害ということについて気にしてないという傾向はあると考えられます。同じことをそのまま非常に優秀なAIが担うとしたらどうなんでしょうか。

あくまでも「もしも」といった仮定の話なんですが、人間よりもはるかに文章内容を正確にしかも高速に把握することができるAIが開発され、Gmailのようなメールサービスでやりとりされる全文をスキャンして各ユーザーの嗜好に非常に正確にマッチングした広告を表示できるようになったとしたら、そうした機能を導入してくるサービスプロバイダは少なくないでしょう。そして、そうなったときに人々はこのAI導入がプライバシー侵害であるとしてサービス利用を拒絶するのか、それともまったく意に介せず利用を続けるのか、その成り行きが気になるところです。

同じように、万引き防止機構や一部の小売店がなし崩しに行っている万引防止システムも、万引きしそうな人を映像などでパターン認識し、機械学習の結果、それっぽい行動をした人が疑わしいということでピックアップされることになりますし、犯人の顔データなどが万引き防止システム導入企業間で横の連携を取られるとこれはこれで本来は重大な人権侵害に陥る可能性は指摘されます。にもかかわらず、人が判断しないからという謎の理由でこのあたりが完全にスルーされかねないというのは地味に大変なことで、ある意味で「人は間違うが、AIは間違わない」という先入観でもどこかにあるんじゃないか、あるいは「人に見られるのは嫌だが、機械的に処理されるのであれば不快感はない」という警戒感のガードが下がっている部分があるのかもしれません。

いかに人間よりも優秀な能力を持つAIが登場しても、AIが機械であるかぎりは何を見られても人はそこに不安や羞恥、危機感などを覚えないものなのかどうか。こういう考え方はシンギュラリティーにも通じるものがありそうですが、AIの普及が進み身近なものになればなるほど、人の感情的な面にぶつかる事案は出てくる可能性があるのではないかと考えます。スマートスピーカーなどを見ていると、その挙動の演出次第ではAIの能力がそれほど高度なものにならなくてもユーザーが過剰に反応して、AIによってプライバシーを侵害されたというような議論は出てくるのかもしれません。いずれにしても、最終的にはAIを使ってサービサー側が何をしようと目論んでいるのかという問題であり、結局はAIではなく人が裏にはいるわけです。もちろん本当にシンギュラリティが到来すればそこに人はおらず、AIがAIの意志をもって何かをやっていることになるのですが、それはまたずいぶん先の未来の話になりそうです。

かつて、消費者金融は契約者の心理的ハードルを下げるために「無人契約機」を用意して、そこで与信をやるという体裁を取っていました。しかし、蓋を開けてみれば機械の裏側には与信担当者がいて、合議しながら貸し出しをできるかを決めていたという笑えない話があります。AIだ、シンギュラリティだとバズワードで「人間じゃない何か」を用意しながらも、実際には…ということが横行しなければいいんだがなあという思いを新たにしたんですよね。