道徳を超越したAIの判断が重んじられる未来はやって来るのか
このところ人工知能(AI)開発がブームになっておりますが、先行すると見られるGoogleなどでの逸話や事例を知ると、絵空事ではなく「感覚を持ったAI」が人間臭い動きをする未来が垣間見えます。
山本一郎です。私はよく道徳が服を着て歩いていると言われる男です。私が。ええ、私が。
ところで、Googleがその持てるリソースを活かして人工知能(AI)開発にかなりの力を注いでいることは、これまでも様々なメディアで報じられております。一体どのような研究が行われているのかは、実はあまりよく分かりません。研究の大枠については以下のような記事が参考になりますが、必ずしも全てが事実ということではなく、様々な憶測で書かれている部分もありますから、正直なところ実態はよく見えないんですよね。
「Google DeepMind」が驚異的な速さで学習!人工知能への危機感も高まる(ITpro 15/1/27)
Googleは世界で最先端の人工知能技術を有し、音声検索などで活用している。そのGoogleが人工知能ベンチャー「DeepMind」を買収し、技術強化を加速している。DeepMindに関する情報は限られているが、ビデオや論文などから、その輪郭が見えてきた。ITproで、こうしたAI開発の一環として、画像解析技術に関する研究も進められているわけですが、Googleが上手なのはそうした研究に必要とされる大量の画像データを自前で用意することなく、世界中のユーザーから無料で提供してもらう形で賄っているところです。
無料かつ容量無制限でiOS・Android・ブラウザから使える写真サービス「Googleフォト」使い方まとめ(15/5/29 Gigazine)
無垢なエンドユーザーの視点からすれば、無料かつ容量無制限で写真を保管できて素晴らしいということになりますが、実のところGoogle側からすれば、ありとあらゆる種類の画像データを世界中から集めて画像解析の研究に使えるのですから、これほど願ったり叶ったりなことはありません。
Googleフォトはサービス開始と共に順調に世界中のユーザーから画像データを集め、画像解析機能の研究開発に大いに利用されてきたことでしょうが、そうした研究活動の中には、画像の内容をAIが認識・判断することで自動的にタグ付けするという機能があり、エンドユーザー側にもそのまま使えるように提供されていました。認識精度がかなり高いという点もあって話題にもなっていたわけですが、そのタグ付けでちょっと洒落にならない事態が発生してしまいました。
「Googleフォト」で黒人の写真に誤って「ゴリラ」のタグGoogleが謝罪(ねとらぼ 15/7/2)
Googleが、写真アプリ「Googleフォト」で、黒人の写真に誤って「ゴリラ」とタグが付けられたとユーザーから指摘を受け、謝罪した。ねとらぼこれはやってしまいましたなあ。
問題の画像を見ると、写り方がやや明瞭ではないため、ゴリラの写真であると言われて見せられれば、誰もがゴリラの写真と認識してしまう可能性は否定できません。そういう意味でAIは画像内容をちゃんと認識しているという点で驚かされます。つまり、ゴリラに似た写真があったから、それをそのまま機械的にゴリラとタグ付けしたということです。もし、人間が同じようなタグ付け作業をしていたとしたらどうなっていたのでしょうか。人かゴリラか判別が難しいときに、誤って人に対してゴリラとタグ付けしてしまうことは社会常識として好ましくありませんから、そこで躊躇してタグ付けを保留するといった行動様式が見られるかもしれません。しかし、AIはそうした社会常識、モラルや道徳みたいなロジックで思考することは苦手なのかもしれません。
人工知能、人間のしつこい質問にキレる--グーグルの実験より(CNET Japan 15/7/2)
人間が「道徳的に振る舞うにはどうすればよいか知る必要があるんだ」と言うと、機械は理解するものの「どのように説明すればよいか分からない」と答える。上記は、人間とAIが道徳観について会話を試みた経緯をレポートするものですが、AIは上手く対応することができず癇癪を起こしてしまったようです。単純にAIも怒ることがあって面白いという見方も出来ますが、それよりも、AIでは道徳観のようなものをプログラムに組み込んで問題解決させるのが困難である可能性も感じさせます。
(中略)
人間が「道徳観と倫理観に関するこの会話を本当に気に入っているよ」と言うと、機械は「哲学的な議論をしたい気分ではない」と答える。CNET Japan
見た目はまさにゴリラなのに、それをゴリラと言ってはいけないというのは矛盾した論理ですが、そうした判断まで出来るAIが今後登場することはあるのでしょうか。これはあくまでも個人的な想像でしかありませんが、Googleの場合、あくまでも機械的な認識精度を向上させることで、道徳のようなものが介在しない純粋な論理的判断を重んじていくのではないかと感じます。しかし、そうした感情の入る余地がない問題解決の仕方は必ずしも社会において正解とはなり得ないところでして、AIと人間の軋轢がどういう形で表出するのか気になるところです。道徳に斟酌しない価値判断が下されるという状況は、まるで人間を超越した神の視点を思わせるものもあります。
このあたりの漠然とした危惧がAIリスク研究につながっているのかもしれません。
米団体、AIのリスク研究グループに700万ドル提供--E・マスク氏からの寄付を活用(CNET Japan 15/7/2)
一部の業界ウォッチャーからは、AIがどこまで進化するのか、またその潜在的な危険性について懸念する声が高まっている。こうした人々は、AIが賢くなり過ぎないうちに制御することが極めて重要だと警告している。CNET Japan逆に言えば、黒人をゴリラと間違ってタグ付けしてしまったAIと、それの件で怒っている人たちに謝罪を行う専門のAIができて役割分担をすると凄いことになったりするのでしょうか。やらかし続けるAIと、やらかした被害者に謝り続けるAIみたいな永久機関ができると凄いのではないかと思うんですよね。
どうでもいいですかそうですか。