提供:日本IBM

シンクタンク・ソフィアバンク 藤沢久美 代表 × 日本IBM 森本典繁 執行役員 研究開発担当

AIが下した判断に企業は説明責任を持てるのか? / AIのビジネス活用に求められる「公平性」と「透明性」

 2018年12月、内閣府は「人間中心のAI社会原則」の草案を公表した(※)。そこでは、AI(人工知能)を適正に利用するための社会的枠組みに関する原則(AI社会原則)を提言。原則として「人間中心の原則」「教育・リテラシーの原則」「プライバシー確保の原則」「セキュリティー確保の原則」「公正競争確保の原則」「公平性、説明責任及び透明性の原則」「イノベーションの原則」の7つを挙げている。なかでも公平性、説明責任及び透明性の原則については、「AIの利用によって人々が不当な差別・扱いを受けることのないように、公平性・透明性のある意思決定と結果に対する説明責任が確保される必要がある」とされている。
 つまり、「なぜ、そういう答えを出したのか?」という根拠を示すことがAIの活用に求められるようになったのだ。その背景や必要性について、シンクタンク・ソフィアバンク代表の藤沢久美氏が、日本IBMの森本典繁 執行役員 研究開発担当に話を聞いた。

※:人間中心のAI社会原則検討会議(内閣府) https://www8.cao.go.jp/cstp/tyousakai/humanai/index.html

AIに説明責任を求めるのは当然のこと

写真:藤沢久美氏

藤沢 久美

シンクタンク・ソフィアバンク
代表

国内外の投資運用会社勤務を経て、1996年に日本初の投資信託評価会社を起業。その後、シンクタンク・ソフィアバンクの設立に参画し、現在は代表。政府各省の審議委員などの公職、上場企業の社外取締役なども兼務する。NHK教育テレビ「21世紀ビジネス塾」のキャスターを務めるなど、テレビ出演、執筆、講演活動を通してリーダーのあり方や社会の課題を考えるヒントを発信している。

藤沢 私は世界経済フォーラムのダボス会議などに毎年参加していますが、ここではだいぶ前からAIについて議論されています。その中でよく話題になるのが公平性・透明性の部分です。AIが過去のデータを学習して結果を出すときに、データの中に含まれる人間のバイアスも取り込んで答えるという話を聞いて驚いたことがあります。AIの回答は何でも正しいと受け取ってしまいがちですが、実は人間が持つ偏見が含まれるというわけです。実際、米国で犯罪予測にAIを活用したところ、特定人種のリスクが高いと判断したという話を聞いたことがあります。

 AIをビジネスに活用するにあたっては、そうしたバイアスをどうやって担保していくのでしょうか。またAIが出した答えの根拠がわからなければ、それをビジネスに活用することは難しいのではないでしょうか。

森本 いま藤沢さんが指摘された課題は、AIをビジネスで活用するにあたって非常に重要です。ただし、あまり難しく考えず、基本に立ち返ってみるとわかりやすいと思います。

 AIを囲碁・将棋に使うときは、なぜそういう手を打ったのかという説明は重要ではなく、単純に勝てばよいわけです。一方、AIをミッションクリティカルなビジネス領域で活用しようとすると、アカウンタビリティー(説明責任)が求められ、公平性・透明性が問題になります。ビジネスの観点からすればこれらは当然のことで、AIに限ったことではありません。内閣府の「人間中心のAI社会原則」の草案から「AI」の文字を消してみると、ごく常識的なことが書かれていることに気づかれるでしょう。

“技術プラス人間の判断”で公平性や精度を確保

写真:森本典繁氏

森本 典繁

日本IBM
執行役員 研究開発担当

1987年、日本IBM入社。大和研究所でCRT・液晶ディスプレイの開発を担当。米国マサチューセッツ工科大学への留学を経てIBM東京基礎研究所に転入し、音声・画像・映像処理や著作権保護技術などの開発に従事する。2006年に米国IBMワトソン研究所への赴任を経て、2009年にIBM東京基礎研究所所長。2015年にIBM Asia PacificのCTOに就任。2017年から日本IBM 執行役員 研究開発担当(現職)。

藤沢 AIをビジネス活用するのに、公平性・透明性は当たり前のことだということですね。ただ、学習データにバイアスが含まれているケースもあるような気がします。

森本 バイアスの問題を考えるとき、バイアスがかかっていないデータを学習させることが常によいかというとそうでもありません。1つは「パフォーマンス(精度)」、もう1つは「公平性」の面からです。

 例えばAIに皮膚がんを診断させるために学習させるとき、がんの画像しか見せなければ、皮膚に異常がある画像をすべてがんと診断してしまいます。皮膚がんの画像と正常な画像をどのくらいの割合で学習させるかによって診断の精度は異なってきます。どんな割合で学習させれば精度が高くなるかは検証でき、技術的に解決することが可能です。

 公平性の場合も、客観的な真実に基づくデータをサンプルとして学習させても、必ずしも公平にならない場合があります。藤沢さんが挙げられた犯罪予測の例では、過去の統計データだけの学習では特定人種に偏りが出る可能性があります。そこに地域ごとの人種別人口比率など別の視点のデータを加えるべきかどうかは、ルールやポリシーに基づいて人間が判断することになります。バイアスは当然コントロールしなければなりませんが、ビジネス視点での判断が必要になる部分もあるのです。

藤沢 そうなると、AIをミッションクリティカルなビジネス領域で活用するには、経営者の意思決定も必要になるということですね。

森本 そうです。すべてがAIに代替できるというわけではないのです。とりわけビジネス領域における経営者の意思決定の重要性は言うまでもなく、今後も変わることはないでしょう。

積み重ねてきた経験をAIに生かすIBM

写真:藤沢久美氏

“AIをミッションクリティカルな
ビジネス領域で活用するには、
経営者の意思決定が必要”

藤沢 AIの公平性・透明性について、IBMではどのような取り組みをしているのですか。

森本 「IBM Watson」が2011年に米国の人気クイズ番組「Jeopardy!(ジョパディ!)」で人間のクイズ王に勝利したあと、IBMはAIのビジネス活用へと舵(かじ)を切りました。2012年からは医療分野に応用しており、当時から発症リスクの確率を示す際に理由をきちんと説明し、必要があれば関連する文献を提示するといったエビデンス(証拠・根拠)を示すようにしています。つまり、IBMの商用AIの中には、最初から公平性・透明性を明らかにする仕組みが組み込まれているということです。

 IBMは長年、企業のミッションクリティカルなビジネス領域向けに事業を展開してきました。そこではお客様に対する説明責任が常に求められます。AIに関しても、私たちからすれば提供するものがAIに変わっただけであり、説明責任を果たすことは当然のことだと考えています。

藤沢 ダボス会議で、IBMには倫理の研究チームがあるという話を聞きました。AIの公平性・透明性についても、倫理面からの課題解決に取り組み、さまざまな提言をしていますね。

森本 IBMはドキュメントを発表しているだけでなく、AIに入力するデータの公平性・透明性を担保するためのソフトウエアやテクノロジーも提供しています。例えば、オープンソースとして公開している「AI Fairness 360」というツールキットは、複数のアルゴリズム、コード、チュートリアルからなるライブラリーで、入力データに含まれるバイアスのバランスをチェックすることが可能です。またパフォーマンスに影響するバイアス、倫理に関するバイアスなどを目的に応じて組み合わせて検証できるように、データを分析して特徴量を抽出するツールなども用意しています。

AIの公平性・透明性を担保する「Watson OpenScale」

写真:森本典繁氏

“提供するものが
AIに変わっただけであり、
説明責任を果たすことは当然”

藤沢 AIに入力するときのデータだけでなく、AIを実際に運用しはじめてからも公平性・透明性、説明責任は当然重要になりますよね。活用するAI全体を一元的に管理する仕組みはあるのでしょうか。

森本 それを実現するのが、「Watson OpenScale」(以下、OpenScale)です。OpenScaleは1つのテクノロジーを指しているわけではなく、AIが扱うデータの公平性、システムとしての透明性と公平性を担保するための仕組み全体のことを指します。学習させるデータの検証・確認、回答の精度やパフォーマンスのモニタリング、回答のバイアス有無を判断するなど、さまざまな機能が統合されています。AIは一度作ったらそれで終わりではなく、実運用でのパフォーマンスに応じて再度学習をさせたり、市場やお客様の変化に合わせて新しいデータを学習させ続けなければなりません。AIのライフサイクル全体にわたって、公平性・透明性を一元的に管理するための仕組みがOpenScaleなのです。

藤沢 企業によって導入している製品・サービスは異なると思いますが、IBMのAIでないとOpenScaleは利用できないのでしょうか。

森本 決してそんなことはありません。企業がさまざまな業務や用途に利用するAIを統合的に管理、監視をすることが目的です。そのためIBM Watsonに限らず、さまざまなタイプのAIに対応しています。

AIが経営者の意思決定を支援する

藤沢 今日のお話をうかがって、AIの公平性・透明性についての取り組みは経営者が考えなくてはならない問題であり、社内のさまざまな意思決定プロセスの検証やAIの学習データに関するバイアスや合理性についても見直す必要があるなど、AIを導入するには経営者の覚悟が必要だと感じました。今後、経営者はAIをどうビジネスに活用していけばよいのでしょうか。

森本 私たちはAIを段階的に捉えています。これまでのAIは、例えば1つの画像を見て何かを判断したり、1つの質問に対してその回答を提示したりするシングルタスクの「ナローAI」でした。今後は、人間が普段やっているようにマルチの視点から総合的に学習して判断する「ブロードAI」の時代になっていきます。このブロードAIを活用することで、経営者は経営判断・意思決定をする際にアドバイスを受けたり、思考の一部を支援してもらったりすることができるようになるでしょう。

藤沢 経営者の頭の中には、経験を通じて知らないうちにデータや情報が蓄積されています。それが意思決定の場面で直感として表れてくるのでしょうが、言語化するのは簡単ではありません。AIがそうした直感のエビデンスをデータから引き出してくれたり、迷いの解決や非常に速いビジネススピードへ対応してくれたりするようになれば、経営者の意思決定を支援する役割を担うものとして期待できそうですね。

●   ●   ●

OpenScaleのような公平性・透明性を担保する仕組みの登場は、AIがいよいよミッションクリティカルなビジネス領域に受け入れられようとしていることを示している。「AIが意思決定をして人間が実務を執行する時代が来る」と語られることがあるが、藤沢氏も森本氏も「それは逆だ」と声をそろえる。すなわちAIの回答を参考にしながら意思決定するのが人間であり、その決定をサポートするのがAIであるという考え方だ。公平性・透明性を担保しながら説明責任を果たせるAIにより、このような時代がようやく訪れたといえるだろう。

写真:藤沢久美氏 x 森本典繁氏

ページTOPへ