AIの犯したミスは誰が責任をとるのかについて今のところ正解がありません
「人工知能が人間の仕事を奪う」とは従前から言われ続けていることではありますが、その便利であるはずのAIが何か問題を起こしたときに誰がどう責任を取るのが望ましいのか、まだ議論は始まったばかりのようです。
山本一郎です。ICT分野におけるテクノロジーの進化速度が早い様を「ドッグイヤー」などと称しますが、このところのAI関連の発展ぶりについてはまさにそんな印象がしっくりきます。
人工知能がポーカーでも人間のプロに勝利--カーネギーメロン大学の「Libratus」(CNET Japan 17/2/2)
「不完全な情報について戦略的推論を行う最も優秀なAIの能力は、最も優秀な人間の同じ能力を超えた」しばらく前に囲碁でプロ棋士にAIが勝利したとして話題になっていましたが、今度はブラフのような高度な神経戦にまでも対応してAIが人間に勝利したということで、これはこれでちょっと驚いてしまいます。AIが勝ちやすいルールが採用されたと評される一方、人間の熟練プレイヤーの間でポーカーのセオリーとされるブラフの掛け方と異なるアプローチをしたとも言われており、単なる勝敗だけでなく、ゲームの進め方や定石にも大きなブレイクスルーが期待されそうです。
(中略)
4人のプロを倒すために、Libratusはすべてのカードを把握できるわけではない状態で決定を下し、同時に相手のブラフを見破ろうと試みる必要があった。CNET Japan
また、日経では決算記事がAIによって自動生成されるようになったという発表がありました。
日経新聞、AIで決算記事を自動生成「日経電子版」などに配信(ITmedia 17/1/25)
決算開示後数分で、売上高や利益などのデータをまとめ「日本経済新聞 電子版」や「日経テレコン」に配信するという。喜ぶ日経「AIで記事自動配信」の時代遅れ感と希望(山本一郎) - Y!ニュース(17/2/1)
(中略)
決算発表資料からデータや文意を読み取って要点を抜き出し、日本語の文章として構成する仕組みITmedia
適材適所ということでもありますが、AIが得意とする仕事は今後どんどん人間から置き換わって仕事を任されていく可能性は高いでしょう。以下の事例はそのわかりやすい一例ととらえることもできそうです。
ゴールドマン・サックス、自動化でトレーダー大幅減3割がエンジニアに(MIT Technology Review 17//2/8)
世界最大級の投資銀行ゴールドマン・サックスは金融取引の自動化を進め、全社員の3分の1がエンジニアになった。2000年には600人いたニューヨーク本社の株式トレーダーは、今では2人しかいない。MIT Technology Reviewまあ、金融取引は人間がやる必要はないとして、囲碁やギャンブルがAI同士の戦いになった場合にはたしてそれでもプロの世界が存続しうるのかどうかはまた別の問題ではありますが。
ただ、いずれにしても社会においてAIに任される仕事が徐々に増えていくことは間違いないでしょう。いずれは人間であればかなり責任の重たいと見なされるような立場の仕事もAIが自動で状況を判断して対応するような事例は出てくることと思われます。そうした際に、不幸にしてAIの判断が間違っていた場合に、その責任の所在はどこにあるのかが問われるわけですが、今のところ明確な指針は見つからないようです。
「それはロボットがしたことです」は認められる?--AIと法律の専門家に聞く(CNET Japan 17/2/10)
英王立協会で開かれた、英学士院のロボットと法律に関する討論会に登壇したある専門家は、その答えがごく身近なところにあるかもしれないと指摘している。飼い犬の行動について法律上の責任を問われるのは、その犬を売ったブリーダーではなく飼い主であり、ロボットにも同じ原則が適用されるというのだ。CNET JapanAIと犬が同じというのもなかなか微妙なたとえではありますが、AIを起用している者が責任の一端を担うというのはある程度納得できなくもありません。しかし、一方でAIのプログラムを行った者の責任はどうなのかといったことや、AIが機械学習を経て出した判断にまで誰かが責任を負う必要はあるのかといった議論もあります。
AIの使用者と製作者で責任を分けることについて、こう指摘する。「そのような機械を所有するうえで重要なのは、機械が犯す過ちについて誰も責任を負いたくないということだからだ」犬もさることながら、AIがやらかしてしまった問題について誰も責任を取りたくない、というのは当然です。これはそう簡単に結論が出るものではなさそうですが、遅かれ早かれ何らかの司法的な回答を出さねばならない事態はやってくることでしょう。
(中略)
ソフトウェアが、自身が接するデータセットから学習している場合は、そこから誤った結論を導き出すこともあり、そもそも学習に使われるデータが誤っているおそれもあるCNET Japan
たとえば、AIを応用した自動運転車はまさにそうした人命に直接かかわる可能性が高い存在ですが、こうしたテクノロジーの普及推進が国レベルで急務であることは間違いないとして、普及に向けた規制緩和を進めるのであれば同時に何かあったときのルール策定も同じように進められているのかどうかは気になるところです。
自動運転車の公道走行ルール緩和ハンドルやブレーキペダル省略可能に国交省(ITmedia 17/2/9)
一定の安全確保措置を満たした車両であれば、地方運輸局の認可を条件に、ハンドルやアクセル、ブレーキペダルなどの装備を省略した状態でも公道走行が可能になった。ITmedia少なくとも、過去にワープロソフトを使っていてOSごと落ちたり、アプリが勝手にシャットダウンして原稿がパーになった、というのはいままでは使用していたユーザーが泣き寝入りするしかありませんでした。これが、仮にAIに自動運転を任せて寝ていたら、AIが状況判断を間違えて人を怪我させてしまったときの責任はどこにいくのか、と考えたときに、ケセラセラでとりあえず動けばβで良いやと思っていたICT業界の文脈だけではなかなかむつかしいのでしょう。また、スケールが大きいから、マネタイズされているからと言って、保険をかけ何かあったら賠償でいいや、というわけにもいかないでしょう。
ここのところがしっくりこないと、なかなか議論が前に進まないのではないかと危惧するところなのですが、どうでしょう。