書評『人工知能の「最適解」と人間の選択』 NHKスペシャル取材班 著

テクノロジー, 書評, 社会人工知能

<引用>

二〇一六年五月、アメリカの調査報道NPO「ProPublica(プロパブリカ)」が人工知能の再犯予測システムについてのショッキングな事実を伝えた。

全米で使われている、ノースポイント社(二〇一一年、コンステレーション社に売却)の再犯予測システム「COMPAS(Correctional Offender Management Profiling for Alternative Sanctions/コンパス)」が出した過去のデータを追跡したところ、容疑者が白人か黒人かによって予測が異なることがわかったという。

エラーを詳しく調べてみると、黒人は白人に比べて常習的な犯罪を起こす「ハイリスク」に分類されていたものの、実際には犯罪を繰り返さなかった容疑者がコンパスの予測より二倍近く多かった。その一方、容疑者が白人の場合、「ローリスク」というカテゴリーに分類されたにもかかわらず、再び罪を犯すケースが黒人より二倍程度多かったと判明した(ブロワード郡における調査)。

もし実際に人工知能の再犯予測が黒人に不利な結果をもたらすのだとしたら、なぜそのようなことになるのか。

一つには、人工知能が判断の基にする教師データに人種差別的な偏向が紛れ込んでいた可能性が考えられる。

「過去の法廷データはそもそも偏見があるものが多く、それを教師データとすること自体が問題なのです」

そう語るのは、人工知能の偏向問題について研究している、ニュージャージー州にあるプリンストン大学のアイリン・カリスカン研究員だ。さらに、次のように指摘する。

「人工知能に依存するのは危険です。なぜなら、人間には『偏見はいけない』という意識がありますが、人工知能は統計データを正確に解析するだけで、そういう意識はありませんから」

問題は、人工知能が過去のデータから学べば学ぶほど、偏見が固定されてしまうことである。

「アフリカ系アメリカ人の名前をネットで検索してみると、高い確率で身辺調査の広告や重罪の犯罪歴の有無、逮捕歴などの結果が表示されます。これは過去の偏ったデータに基づいています。過去のデータから学習する人工知能は、日々、検索を行う何十億人もの人々の偏見を反映し続けるでしょう。人工知能は人間から学びます。人間が人工知能を教育するのです。そして、私たちがいくら最善を尽くしても、人工知能は私たちが自覚していない、隠れた偏見を受け継ぐ可能性があります」

「私たちが日々使っている言葉や文化には元々、偏見やステレオタイプなイメージが備わっているのです」とカリスカン研究員は言う。

考えてみれば、人工知能を活用できる立場にあるのは、国家や会社の経営管理側といった、いわば社会・組織における「強者」だ。人工知能の答えは、確かに「最適解」かもしれない。しかし、それは誰にとって「最適」なのか。

「人工知能が学んでいるのは、その人についての情報ではなく、単なるデータの相関関係です。相関関係は因果関係とは違いますし、人々が犯罪を繰り返す原因にはなりません。再犯には他にも多くの要因があり、それは過去の犯罪履歴だけで判断されるべきものではないはずです」

「人工知能は中立でも客観的でもありません。『時間の節約になって便利だ』などと考えて依存してはならないのです。なぜなら、将来的に大きな問題をもたらし、その解決に苦労する可能性が非常に高いからです」

1.この本はどんな本か?

以前、TVで放送された、NHKスペシャル 「人工知能 天使か悪魔か 2017」という番組で行われた取材内容をまとめたものです。研究段階を終えて、社会に導入され始めたAIの動向を追っています。

紹介されている事例は、将棋の名人とAIの戦いである「電王戦」のレポートから、エリアごと、時間ごとの客数を予測して最適な配車を行うAIタクシー、株価を予測するAIトレーダー、犯罪者の再犯罪の未来予測を行うAI、面談の記録から退職の可能性が高い社員を予測するAI、数千万人の世論調査を一瞬にして行い、最適な形で予算を配分し、効果的な政策を実現するというAI政治家の構想など実にさまざまです。

それらの性能に驚くとともに、AIの下した決断に対する疑問点も同時に沸き上がってきます。その理由は、AIの下した決断の過程、「なぜAIがその選択肢を選んだのか?」はブラックボックスになっており、分からないことが多いためです。

また本書では、AIの意思決定を信じること、AIに意思決定を任せることを良しとする立場の人たちと、反対にAIに意思決定を任せることに懸念を表明する立場の人たちが登場します。

それぞれの主張にはそれぞれ一理あるように思われるところがあります。従って、両者の意見に耳を傾けることで、私たち自身が今後AIに向き合っていく時にどうするのが望ましいのかについて、考えを深めることができるでしょう。ただ一つだけ言えるのは、AIの導入は白黒はっきりつけられる問題ではない、ということです。

AIに限らずとも新しいテクノロジーの導入時期には必ず、法律や倫理の問題など現在の枠組みに当てはまらない部分が出てきますから、「灰色の落としどころ」を探るために、社会全体で議論を進めていく必要があるでしょう。

今回は第3章の再犯リスクを予測するAIについて書かれた部分から引用しました。

2.無意識の顕在化

引用した部分にある通り、私たちが「意識しないうちに」抱いているイメージ、当たり前だと思っている言葉や文化の中にすでに「偏見」が含まれている、という指摘には、はっとさせられる部分がありました。

本書では、一例として「職業」をイメージする言葉を紹介しています。看護師や歯科衛生士、図書館の司書などの職業を聞くと、多くの場合、女性がイメージされ、守衛やプログラマー、電気技師などは逆に男性がイメージされるといいます。これは確かにそんな気がしました。

そのような気が付かないうちに意識の中に根付いてしまっている「印象」を人工知能は単なるデータとして「素直に」拾い出します。

「人工知能は人間から学ぶ」と引用部分のインタビューにもあります。人工知能は人間が作ったものですから人間の子供と呼んでもよいものです。

そして「子は親の鏡」という言葉がある通り、子どもの素行を観察すれば、その子の親はどういった考えを持つ人間か、というある程度の推測ができます。

この言葉がAIと人間の場合にも当てはまってしまう、ということですね。「AIは人間の鏡」ということができるのだと思います。

人間は親ですから、子どもであるAIには素直に、良い子に、賢く育って欲しいと望みます。

子どもであるAIは親である人間の期待を受けてたくさんのデータから学習してどんどん賢くなっていきます。

そして同時に、親の考え方について深く学べば学ぶほど、子は親に「良くも悪くも考え方が似てくる」ということにもなります。

「似なくても良いところが似てしまった」という話を時折耳にしますが、それが人間とAIの場合にも受け継がれてしまうようです。

かといって、人間は文化レベルにまで刻み込まれた「偏見」を、そう簡単に断ち切ることはできません。

道徳的・倫理的なことを新たにAIに教え込むためには、元となるデータが必要ですが、それは難しそうな印象があります。建前、表向きの意見としては存在しても、学習するための実例データとしては数量が少ないかもしれません。

「AIは人間の鏡」という言い方をしましたが、正に私たちはAIを通して、鏡を見るように客観的に自分自身の姿を見つめ直すことができる機会を持てたと言えるでしょう。

無意識に抱いていた偏見、あまり直視したくない部分や目を背けたい部分にAIというレンズを通して光をあてることができたのです。

従って、私たちはAIを通して気づいた自分の姿を見て「襟を正す」ことが、自身のさらなる成長に繋がっていくのではないでしょうか。

本書では、将棋の名人がAIとの戦いを終えた後に、「将棋の新たな地平が開けた」という言葉を残しています。

将棋のAIが見せてくれた圧倒的な強さと無限の可能性は、私たち人間にも無限の伸びしろがあることを示してくれているのです。

AIはそのように私たちが自分の在り方を振り返り、成長していくために活用していくことが望ましいのではないかと思いました。

3.意思決定を委ねることのメリットとデメリット

私たちは日々、多くの「意思決定」に忙殺されています。今日出かける時に着ていく服選びから、通勤電車のどの車両に乗るか、抱えている仕事はどの順番で進めるのが良いか、お昼ご飯に何を食べるか、などなど。

そのような無数の意思決定の中には、自分にとって重要なものとさほど重要ではないものがあります。ただ、その重要度に関わらず、意思決定をする度に認知能力を少しずつ消費して疲労していきます。

ですから、自分にとって些末な問題は「意思決定をしないで済む」ようにしたい。もしくは「誰かに丸投げして代わりに意思決定してもらいたい」と思うわけです。

服選びで自分の認知能力が奪われるのを避けるため、Appleのスティーブ・ジョブズが、いつも黒いタートルネックのセーターを着て、ジーンズを履いていたことは有名な話です。

私たちが本当に重要なことの意思決定に集中するために、それ以外の意思決定の回数を減らす、というのはとても大切なことだと思います。

そして、その点において、AIを利用してAIに判断してもらう、というのは効率的で理にかなっていると思います。生産性も、日々の充足感も高まりそうです。

特に事務処理的、単純作業的なタスクに対する意思決定であれば、どんどん活用していくべきでしょう。

その一方で、自分にとってはそれほど重要でなくても、「その決断が他者に対して与える影響が大きい場合」もあります。

このような場合、機械的、盲目的にAIの決断に従ってしまっても良いのでしょうか。

引用部分で紹介したAIによる再犯リスクの予測システムなどは、この場合に当てはまります。

AIが「その犯罪者は再犯リスクが高い」と判断したから、なかなか仮釈放されない、家族の待つ家に帰ることが許されない、となると、仮にその犯罪者が心から悔い改めていたとしても、その後の人生は大きく狂わされるでしょう。

AIによる再犯予測システムを用いる司法に携わる側の人の言い分は、「AIは人間のような恣意的な判断が入らないから、きちんとした答えが出せる」というものです。

なるほど、そのような気もします。

でも、そのAIの判断の根拠が「偏見や誤りを多く含むこれまでの人間の考え」に基づいたものだとしたら。

AIは「思いっきり人間の恣意を踏襲している」ことになるのではないでしょうか。

だからこそ、あくまでAIの意見は参考意見として、最終的な決断は人間が下す。そこの手綱は手放してはいけないのだと思います。

ただし気を付けておかないといけないのは、AIの意見と人間の意見が異なっていた場合、だんだんAIの意見の方に引きずられてしまう可能性があるということです。

AIの意見を参考にしつつも自分の決断を信じる。このバランスを意識することはとても大切なことだと思います。どちらかに偏らずに天秤のつり合いを保つのです。

私たちはラクな方に流される、というのは意思決定においても同じです。意思決定の回数が減る方がラクですし、AIに意思決定を任せられるなら、任せてしまった方がラクなのです。

そしてAIに判断を任せてしまい、目の前の「ラクをするチケット」を手に入れることは、それと引き換えに「考える能力」を手放すことに繋がるのではないかと思います。個人的にAIの導入で一番危惧しているのはその部分です。

AIの決断が本当に「最適」なものなのか?それは「誰にとって」最適なものなのか?また、その決断によって自分だけでなく、他者に、社会にどのような影響があるのか?

そういったところまでよくよく考えてみなければ、簡単にAIに「決断を譲り渡す」ことはできないのではないかと思います。

4.まとめ

・ 人工知能は私たちが自覚していない、隠れた偏見を受け継ぐ可能性がある

・ 人工知能は私たちが自分の在り方を振り返り、成長していくために活用していくことが望ましい

・ 人工知能の意見を参考にしつつも自分の決断を信じる。このバランスを意識することが大切

<今日の読書を行動に変えるための
個人的チャレンジシート>

1.この本を読んだ目的、ねらい

・ 人工知能の社会への実装の状況について学ぶ

2. 読んでよかったこと、感じたこと

・人工知能との関わり方について考えを深めることができた

3. この本を読んで、自分は今から何をするか

・人工知能に決断を委ねず、成長のための自己観照の鏡として徹底的に活用する

4. 3か月後には何をするか、どうなっていたいか

・思考能力が高まっている

・人工知能との「最適な」共存関係に対する考えが深まっている

メルマガでも配信中です。

Posted by akaneko