前半の記事はこちら

 

規制はどのように機能するのだろうか?

規制について考えるとき、そこに強制力があるものなのか、その影響を受けるプレイヤー達が実際にどういう動きを取るのかについての考察は重要だ。数学の一種であるゲーム理論は協力と反発関係下にある時の意思決定について考えるものであり、囚人のジレンマで有名だ。

囚人のジレンマとは次のようなものだ。二人のギャング、AとBが逮捕され別々に収監されている。どちらもが相手のことを裏切れば2人とも2年の懲役を食らう。もしAがBを裏切りBはAのことを裏切らなかった場合、Aは自由になれるがBは3年の懲役を食らう。どちらも裏切らなかった場合は両者とも1年の懲役を食らう。両者とも裏切らず刑期を平等かつ最小に抑えることがまともな選択のように思えるが、どちらとも相手がこの選択を取るとは信じていない。というのも相手のことを裏切れば自分だけは自由になれるチャンスがあるからだ。A、B両者とも、相手はきっと自身にとっての最善の選択として裏切ることを選ぶだろうと考えざるを得ない。もしそうなれば裏切られた側は3年間の懲役という最大のダメージを負うことになる。そこでどちらもが相手を裏切るというのが選ばれるであろう結論となる。

このアイデアをAI批判に当てはめてみよう。AIは医学、製造業、エネルギー問題に国防、政治など、明らかにあらゆる分野の試みに変革を起こすものだ。もしAIの軍事利用が規制されたとすると、国家間で囚人のジレンマのような状態が起こりうる。もし一方が規制に正直に対応し、もう一方が隠れて軍事用AIの開発を進めたとしたら、一方の利益は最大化され、規制に応じた側のダメージはとてつもなく大きなものとなる。

もしすべての国が 規制に正直に対応した場合、筋書きとしては最高だ。しかしこれが選択される保証はない。囚人たち同様、国家も相手がどう出るか分からないまま決断を下すからだ。そして最後に国家すべてが規制を守らない場合、少なくとも何処かの国がAI兵器を使うとなると周りが圧力をかけるという状況が生まれる。抑止力が生まれるのだ。

AIがいいものとして使われることを期待し、そのために努力すべきだろうか?もちろんだ。しかし規制するだけで問題は解決するという思い込みは避けられなければならない。AIはすでに存在し普及しているものだ。そしてよりスマートに賢いものになっていく。知識は発見されることを望んでおり、出てくるべき時が来たイノベーションを妨げられる規制など存在しない。無理やり規制する道を選ぶよりも、Explainable AI(説明可能なAI)や倫理システム、AIの安全などの分野の進歩を急速に促すべく投資を増やすことが必要だ。これらは本物の技術となるものであり、そのアルゴリズムや機能は事故の対処を安全に行い、その悪用を阻止することを可能とするだろう。私がSparkCognition社で取り組んでいることはAIが何の理由付けもなく意思決定行うのではなく、証拠や理由に基づいて行い、それを説明できるようにすることだ。

我々のラボ以外でもAustinにあるTexas大学など多くの取り組みが幅広くで行われている。そういったコミュニティにはAIシステムの安全性をさまざまな角度から検証している。規制推進の考え方を止め、我々の偉大な発明であるAIをポジティブに活用できる枠組みづくりに懸命に取り掛かろうではないか。そしてこども達に想像も付かないような恩恵を残そう。

著者はTexas州Austinを拠点にさまざまな企業を設立している。機械学習やコグニティブアナリシスで賞を獲ったSparkCognitionの創立者兼CEOであり、IBM Watsonの顧問団員、Forbesテクノロジー評議会員、Texas大学コンピュータサイエンス課の顧問団員を勤めている。

Pocket