世界経済評論IMPACT(世界経済評論インパクト)

No.916

AIと説明責任

安室憲一

(大阪商業大学 名誉教授)

2017.09.25

 AI(人口知能)の普及によって,高度な専門職,たとえば医師,弁護士,公認会計士・税理士,大学教員のような職業がAIに代替されると言われている。2045年(2030年代という説もある)までに,人類のすべての知識を上回る知能を持つコンピュータがパソコン程度の値段で買える「シンギュラリティ―」が到来し,AIは世界に大量失業をもたらし,人間は機械に支配されるという「デストピア」が語られる。本当にこれが人類の未来なのか? 本稿では,そのような事態が起こりえない3つの理由を述べたい。

 第1の理由は,高度の専門職は例外なく「国家資格」が必要な点である。なぜ「国家資格」が必要なのか。それは専門職業人が社会から「職業倫理」と「説明責任」を期待されるからである。「国家資格」の授与は,専門職業に必要な知識や技能が十分にあるというだけではなく,「職業倫理」と「説明責任」を果たす意思と能力があるという証明書(または誓約)である。医師にとって「ヒポクラテスの誓い」はギリシャ時代から今日に至るまで不滅の誓約である(ハワード・ガートナー,ミハイ・チクセントミハイ,ウィリアム・デイモン著,大森弘監訳・安室憲一ほか訳『グッドワークとフロー体験』世界思想社,2016年)。この「説明責任」こそが,AIが人間を超えることのできない「壁」である。

 AIの特徴,とくに今日の注目の的である「ディープラーニング」は,パターン認識というコンピュータの弱点を克服した点で画期的な技術である。たとえば,数万枚のCT画像(ビックデータ)を与えて学習させた後,一枚の写真からそれが癌の初期段階に該当するか否かを判別させる。AIは経験豊かな医師と同様の高い確率で癌かそうでないかを見極めるだろう。しかしAIは,患者がなぜ癌になったのか「因果関係」を説明できない。ディープラーニングは,現象の経時的な進捗や因果律の分析には適していない。したがって「なぜ」に応えられない。医師は患者の「なぜ」に応える「説明責任」がある。データ的な確証がなくても,過去の経験から推論を交えて説明しなければならない。

 この患者の「なぜ」には2つの意味がある。第1は病気の「因果関係」。つまり「なぜ病気になったか」の説明。第2は病気の「意味」である。病気の意味とは,患者がどのように病気を受け止め,その経験をどのように自分の人生に活かすかについての「自己認識」の形成である。人間は「意味」を求める存在である。自分に起きたことには「意味」があり,それを知ることによって未来をよりよく生きることができると考える。人生の「意味」を突き詰めれば「宗教」に至るだろう。少なくとも,名医はこの2つの事項に対して,何らかの「説明責任」を果たそうとする。つまりAIは,医師が果たす「説明責任」を担当できない。それは「人格」を持つ人間だけができることである。AIができるのは,医師の補佐である。同様に,「国家資格」を必要とする他の専門職業もAIが代替することはできない。「人格」のない機械やソフトウエアに「国家資格」は与えられない。

 第2の理由は,ビックデータの持つ潜在的な欠点である。ビックデータはフェイクニュースや偽データに騙され易い。たとえば,チョコレート会社連盟という団体があったとする。その団体が新しくチョコレートを買う習慣を植え付けたいと考え,団体の構成員に月曜日の午前中に近くのコンビニでチョコレート(銘柄は何でもよい)を買うように内密に指示したとする。コンビニのチョコレートの売り上げは,なぜか月曜日の午前中だけ急増する。AIはチョコレートの販売実績から,「月曜日の午前中はチョコレートが売れる日」と結論し,新たな都市伝説を生み出すだろう。「なぜ月曜日の午前中に?」と問えば,そのカラクリに気が付くはずである。人間なら「常識」や「直観」でフェイクを見破るだろう(見破れないフェイクも少なくないが)。AIは,本物の情報の中に意図的に混入されたフェイク情報や偽データの識別が難しい。人命や社会的責任を負う専門職業人は,経験と勘でフェイク情報や偽データを排除するだろう。

 第3の理由は,AIの能力を最大に引き出すためには,AIを我々の社会に適応させるのではなく,我々の社会をAIに適合するように変革しなければならないことである。これは一般に「エンベロープ化」と呼ばれている(英エコノミスト編著,土方奈美訳『2050年の技術』文芸春秋,2017年,p.290)。自動運転車を普及させようと思ったら,自転車専用レーンのように現在の交通システムとは別に専用のレーンを設けたらよい。こうすればバスやダンプトラックとの接触事故が防げる。しかし,自動運転専用レーンの新設は別の社会問題を提起する。同様に,シェアエコノミーの花形であるウーバーを普及させたくても都市部ではタクシー会社の既得権益と衝突する。その結果,日本ではタクシー会社のない過疎地で交通弱者のための福祉目的で利用される。このようにAIの有効利用には,社会の「エンベロープ化」を受け入れる「我々の側」の変革が要求される。既得権益がしっかりと根を張った法治国家では,「エンベロープ化」は容易でない。AIに求められるのは,摩擦なく社会に適応することであろう。AIは専門職業人を排除するのではなく,寄り添い,サポートする役割が期待される。AIとの共存は制度設計上の大きな課題となるだろう。

関連記事

安室憲一

科学技術

最新のコラム