「人工知能を使った開発」を巡る模擬裁判から見える、情報と技術と社会の未来
人工知能による開発で、発注者側と分析委託・モデル開発を行ったベンダー側とで法的紛争が起きたらどうなるか、という模擬裁判が東京弁護士会主催で行われ、非常に興味深い結果となりました。
8月29日から、中国・上海で世界人工知能大会2019が開催されていました。
当大会で、中国上海市によるAI行動プランが発表され、諸外国とは異なるプライバシーや人権の取り扱われ方をする中国の積極的な取り組みが物議を醸す一方、呼び出された中国で当局に日本人教授がスパイ容疑などで身柄を拘束されてしまう事件が発生し、これはこれでどうなのかという状況になっております。
「2019世界人工知能大会」開催、上海市がAIのホットスポットへ(中国)(JETRO 19/9/9)
上海市、AI行動プランを発表 (SciencePortal China 19/9/3)
北海道大学の教授が中国当局に拘束。反スパイ法や刑法違反に問われている可能性も(ハフィントンポスト 19/10/20)
我が国の人工知能の利活用についても広い分野で進んでおり、10月28日に東京弁護士会が主催で行われたAIシンポジウムで模擬裁判が開催され、その内容についても話題になっていました。
史上初めてAI開発契約の効力が争われた(模擬)裁判で裁判官を務めた話(ストーリア法律事務所 柿沼太一 19/11/1)
:争われた裁判の内容を見ると、原告も被告もかなりまっとうな主張内容で、世にあるソフトウェア開発における発注者とベンダーさんとの間の訴訟もこのぐらいきちんとした紛争になるといいのにとため息が出てしまうような記述ではありますが、学習用プログラム及びハイパーパラメータ、あるいは学習済みデータの引き渡し請求はどこまで通るものなのか、一定の道筋が出たように思います。
裁判長役には知財の世界では知らない者のいない超ビッグネーム三村量一先生を迎え、テーマは、「AI開発契約であるにもかかわらず、従前のシステム開発の契約書を利用して契約を締結した場合、どのようなことがリスク事項になり得るのか、また、訴訟において、どのような点に注意をする必要があるのか」というものでして、まさに今後頻発しそうな紛争類型です。
本件模擬裁判では、「生データをどの程度加工したかという程度問題」というグレーなところに落ち着いてはいますが、モデルのソースコードは開示されるんじゃないかという妥当な結論になっています。いまリアルで発生している人工知能関連の紛争でも、学習用プログラムやパラメータは納品物にも改変物にも含まれないという一定の見解が出そうだという話もあるので、非常にこの模擬裁判は実際に近い判断をしているのではないかと思います。
この問題にあたっては、社会での人工知能の利活用という観点から、すでに広範な議論が行われていて、例えば医療データに関しては日本医師会が学術推進会議で「人工知能と医療」のお題で報告書を18年に公開しています。
人工知能(AI)と医療(日本医師会学術推進会議)
この中で、次世代医療基盤法について言及があったうえで、人工知能による診断支援やデータ志向の研究開発の促進を見込む、それなりに踏み込んだ議論となっているのは確かです。
一方で、日本だけでなく世界の人工知能やデータの取り扱いに関する法律的な議論というのは、柿沼太一さんの報告にもある通り医療情報を利用した人工知能開発の開発契約に明示されない限り「学習済みモデルのソースコードは、程度問題で場合によっては開示されない」ことになりそうですので、例えば特殊な疾患で症例を集めた多施設共同研究などではモデル開発を委託されたベンダーや人工知能ベンチャーが知見を医療機関や医師にフィードバックしないままモデルデータを他の研究に利活用することも容易に想定されてしまいます。もちろん、これは性悪説に立った最悪のケースの話ですが、この医療機関向けの学習済みモデルが独り歩きして、中国系医療ベンチャー(WeDoctorなど)に連結してしまうと、日本人の健康情報は日本人の患者にさしたる受益のないうちに、より先進的で多くのデータを持つ諸外国に情報流出してしまう怖れがあるうえ、それに対する歯止めをかける手段が実に乏しい(法的手段によってなお解決されない)問題をいずれたくさん引き起こすことになります。
このwiredの記事は現状を面白おかしく引き出している分かりやすいネタですが、ここにある「農村部の人々の医療データ」を「与太な開発契約を結ばされた医療機関から漏れて出た日本人の医療データ」と置き換えて読んでいただければ問題の深刻さもご理解いただけやすいのではないか、と思います。
中国では農村部の人々の医療データまで、AIの学習に使われている(@wired_jp
19/10/3)
また、いま萩生田光一文部科学大臣の「身の丈」発言で騒動が起きている文部科学省においても、今後初等中等教育でも進めていくであろう小学生中学生にPC一人一台配布で進めていく日本の子どもたちの学習ログの委託・分析に関する問題や、昨今大学入試に向けての学力引き上げであたまプラス社などが学習塾の受験生学習ログを使って人工知能分析を行って共同開発する人工知能のモデルのソースコードについても「本来、その学習ログは誰のものか」という問題を引き起こします。
いまは、人工知能界隈が伸びているのでみんな受益できて何も問題ないのですが、もう少し時代が過ぎ、いろんな学習モデルが乱立し、わずかな頭の出方で比較されるようになると、そのソースコードで解析された結果を使って作ったサービスの権利帰属を巡って大きな論争が各分野で発生することになります。いま人工知能関連の開発ベンダーやベンチャー企業が飛ぶ鳥を落とす勢いであるのは、ソーシャルゲームや出会い系サイトがそうであったように「まだ革新的な分野に見えるから」に過ぎず、そこで利用している人たちや、利用者データを取りまとめている医療機関や学習塾、各自治体などがそのサービスの正体に気づいたときに大問題が続発してしまうのではないか、と強く危惧するところがあります。
柿沼さんがまとめで書いておられる内容については、特に「人工知能を使って何を目標とし、どのような権利開発をすることを念頭に置いているのか」が情報法上も個人情報保護法上も重要であることは言うまでもありません。
・開発契約締結交渉の際にユーザ・ベンダ双方ともにAIを利用してどのようなビジネスをするのかのゴールを明確にすること、及びそのゴール達成のために契約条項をどのように設計するかをよく検討し、双方よくコミュニケーションをとること。情報を扱う人工知能は社会をより良くするために使われるべきだったのに、起きていることはデータ資本主義の名のもとに現場での個人個人の動きや成果をデータとして吸い上げ、それを利活用するという名目で資金を集めて権利を独占すること、というのはよく考えるべきなのかなあと思います。
→これを言ったら身もふたもないのですが、ハードに契約締結交渉をした場合、後々契約の効力や解釈が問題になることは少ないんですよね。交渉過程で論点がほぼ出尽くし、双方が徹底的に検討したうえで契約が締結されているので。むしろ、双方何もコミュニケーションをせず、単に金額と納期だけ合意し、あとはシステム開発契約だからいつものひな形使っておけば大丈夫だよね、という姿勢(まさに、今回の模擬裁判の事案がそうだったのでしょう)が一番危ないと思います。
史上初めてAI開発契約の効力が争われた(模擬)裁判で裁判官を務めた話
蛇足ながら、医療技術で読影の人工知能が素晴らしい精度になっている、という話を思い返していただきたいのですが、これによって恩恵を蒙るのは「いままで人間の医師の目ではがんと判別つかなかった初期のがん患者も、極めて早期にがんを発見することができ、手術を行うことができれば生存率を飛躍的に高めることができる」という点です。一方で、読影する技術は人類が長年にわたる医療の発展と共に築き上げてきた資産であり、臓器を撮影しがんかどうかを見極める知見は多くの医師など医療関係者の弛みない努力で培われてきたものです。
しかしながら、がん読影の技術は人工知能の優劣で救われる命が出たり出なかったりする一方、その学術的功績や経済的利益は大量のデータを扱っている医療機関が享受するものなのか、それを大量に集めて人工知能により解析した企業によるものなのか、あるいはそのような政策を可能にし他国よりも緩い人権規定で事実上の人体実験を非倫理的にやり技術を先行させ特許を出させることにより得られた国家や地域が享受するべきものなのか、よく考える必要があるのではないかと感じます。