あれこれ備忘録@はてなブログ

勉強したことやニュースや出来事を備忘録として書いていきます

人工知能(AI)は運転手に。事故の責任は?そもそも・・・

アメリカでAIが「運転手」として認められる

http://www3.nhk.or.jp/news/html/20160210/k10010404571000.htmlwww3.nhk.or.jp

グーグルの自動運転車、AIが法律上「運転手」に 当局が見解 | ロイター

このニュースの背景にはここに書かれているような条約の規定があります。

「自動運転を巡る国際的動向」

https://www.kantei.go.jp/jp/singi/it2/senmon_bunka/douro/dai9/siryou3.pdf

1. 道路交通条約(1949年ジュネーブ条約)では、①車両には運転者がいなければならない、②運転者は適切かつ慎重な方法で運転しなければならない、と規定されている。 2. 米国のグーグルカーについては、特別な訓練を受けた運転者が運転席にいることを条件に、いくつかの州で試験走行が認められているものであり、無人運転は認められていない。

この規定があるために、条約に批准(Wikipediaによると拘束されることに同意する方法はこれだけではないようなので批准が本当に正しいのかわかりませんが)している多くの先進国では実験はできても実用化までの道のりは遠いのでは?と言われていたようです。

中国はこの条約に批准していないらしいので自由に実用的な実験ができて有利という指摘も報道などでありました。

今回、AIを「運転手」として認めることで無人走行が可能になるということになりますね。

責任の所在を考える前にまずAIが起こす事故とは?

多くの人が思うのは、もしものときに誰が責任を取るのか?ということですよね。

しかし、そもそもAIが起こす事故というのはどんなものを言うのか、まだ誰も知りません。

どの段階でAIが起こしたと言えるのでしょう?

ある状況でどのように判断するかをある程度、コンピュータが判断するというプログラムは既にありますし、それが搭載されている機械、ロボットも存在します。

そのようなロボットが事故を起こした場合、AIが起こしたと言えるでしょうか?

既に起こっている可能性もありますが、問題になっていないところを見ると、起こっていたとしても素直に機械やロボットを作っているメーカーが責任を負っているのでしょうし、そのような認識で皆が納得しているのでしょう。

だとすると、現在の多くの「AI」の搭載された機械・ロボットやサービスによって事故や不利益を生じた場合というのは、今回、考えているような「AIが起こした事故」とは言えないということになります。

AIがルールを自ら作れるようになると責任の所在の判断が難しくなるのでは?

状況判断のルールをメーカー、プログラマつまり人間が作っていて、「AI」プログラムはそれに従ってそれが搭載された機械・ロボットの周囲の状況を判断しているという場合には、それは「AI」を作った人間の責任と言えると、皆が納得できるのでしょう。

となると、AIが状況判断のルール自体も書き換えるようになった場合に、初めてAIが事故を起こした場合の責任の所在が問題になる可能性があるということになるのでしょうか?

出荷した後にルールが変更される可能性がある場合

つまり、AI自身が状況判断のルールを変更するとなると、出荷した後、メーカーがそのAIの判断基準に責任が持てない、という状況ができることが前提になるのかも知れません。

作った人間があずかり知らぬところでAIが独自の判断(判断をするルールを自ら作って)をして事故を起こしたら、作成者側は責任が持てないのではないか?ということになるのではないかと思います。

法律の世界では予見可能性が云々という話になるのでしょうが、そこまでは私にはわかりません。


追記

改めて考えてみると、商品が完全にユーザーとその周辺以外から切り離されており、自ら学んでいる場合、上のようなことは言えるかも知れないとは思います。

つまり、偏ったり誤った判断をするような学習をさせる消費者にも責任があるんじゃないの?と言える可能性はあるかなと。

しかし、現在は多くの場合、人工知能の本体はネットを通じた先にあり、商品はユーザーの手に渡ったあともメーカーやメーカーと提携した人工知能ソフトを運用している企業とつながりつづけていますよね?

となると、やっぱり何かがあった場合にはメーカーに責任があると言えるような気もします。

もしかすると、人工知能ソフトやそれが動くハードウェアの性能が上がった後には、こうした責任を回避する目的で、メーカーから隔離された完全に独自に学習して判断する商品を売るようになるかも知れませんね。

追記終わり


出荷前にルールが固定される場合では?

では、メーカーが状況判断のルールを出荷前に固定した場合には、これまでと同様、事故を起こした場合には人間が責任を負うということで納得できるでしょうか?

AIの機械学習や今後、考案される新しい技法によって出来上がった状況判断のルールを人間が理解できない、しかし、メーカーのテストではうまく動いていると言う場合には、やっぱり、「AI事故」と同じ問題を抱えているのではないでしょうか?

http://www3.nhk.or.jp/news/web_tokushu/2016_0210.htmlwww3.nhk.or.jp

ディープラーニングでは、あらかじめ「問題」と「正しい答え」をコンピューターに入力して学習を行います。しかし、その問題の「解き方」については入力しません。その部分はコンピューター自身に考えさせるのです。そうすることでコンピューターの内部にあるネットワークは、正しい答えにたどり着く経路が強化され、逆に間違った経路は弱まっていくことが分かったのです。

とすると、どうしてこの盤面でこの手が正しいと評価したのかを人間が理解しづらいということは実際にありそうですね。

終わりに

専門家の間ではどのように考えられているのか知りたいところです。

そもそもそのような想定や定義はしなければならないでしょうし、そろそろ一般に広く知らしめられて問題共有される必要があるような気がしますね。

今後、遠くない未来に「初めてAIが事故を起こした」というニュースを見ることになるのでしょう。

案外そのときに、「初めてというけれどもこのAIと同じタイプの学習方法をしているものは以前からあったし、それが起こした事故もあった。なのに何故、今回問題になったのか?」というような話になりそうな気もします。

追記

wired.jp

しばらく前から、自動走行車と、いわゆる「トロッコ問題」(日本語版記事)に関して多くの議論が交わされている。乗客を載せた自律走行車が衝突を避けられないとき、幼児の群れに突っ込んで乗客の命を救うべきか、木に突っ込んで幼児たちの命を救う代わりに乗客を殺すべきかという状況で、「倫理的判断」が難しい。これは一種の「コバヤシマル・シナリオ」だ(コバヤシマルは、『スタートレック』シリーズに登場する架空の宇宙艦)。

機械は予測不可能であり、完全に制御することはできず、責任を負わせることは(不可能ではないとしても)難しい。機械の自律化は、操作する人間(個人または企業)が行為について責任と説明義務を負うという基本的な倫理原則を揺るがすことにつながる。

記事中で言及されている「トロッコ問題」と「倫理トラップ」も興味深いですね。

トロッコ問題は以前にマイケル・サンデル教授の正義の話で紹介されていたような記憶があります。

「コバヤシマル・シナリオ」は初めて知りました。

スタートレックに船の名前として日本式の名前の宇宙船が登場するという話は聞いたことがあったような気がします。

トロッコ問題には難しさがあるにしろ、どちらか一方を選ぶ時、選ぶ人間はその責任を負うのでしょう。

しかし、その判断、決定をするのがロボットであった場合、だれが責任を取るのでしょうか?

本当に興味深い話です。

さらに追記

Googleの自動走行車、AIが運転中に接触事故を起こす | TechCrunch Japan

人間の代わりに運転するようになって人間と同じ事故を起こす、と思ったら判断したのは同乗していた人間。バスが速度を落とすとか接近してきているとAIは判断できなかったらしい

2016/03/01 12:18

とうとう人工知能で自動運転する自動車が事故を起こしたそうです。

この時点ではまだ、事前に運転を中止して同情する人間のドライバーが手動運転に切り替えるかどうかを判断するようで、今回はその判断を誤ったのが直接の原因というふうになっているようです。

さらに追記

トロッコ問題に対してAIがどのような行動を取るかわかる動画があるそうです。

gigazine.net

これが合理的だとされているとして、AI搭載自動車がこのような事故を起こしたら責任は最小限のものになるのでしょうかね?

広告を非表示にする