AIにクオリアはあるのか?現代哲学の視点から「AIの心」について考察する

●AIが急速に社会に浸透し、「AIと人間の境界」が問われるようになっている。その疑問は、AIが人間と同じような「心」であるのかという問いに行き着く。
●AIを「心」と呼ぶためには、AIが主観的な「感じ」、つまり「クオリア」「意識」を持っていることが必要である。
●哲学の分野では、あるもの(例えば機械)がクオリアを持っているかどうかを検討する思考実験がいくつか提案されている。「チューリングテスト」は「外見上、人間と同様の反応を示すならクオリアがある」と考え、「中国語の部屋」は「外見上、人間と同様の反応を示してもクオリアがあるとは限らない」と考える。
●人間のような反応と言っても、それは高度な物理的過程やプログラムによって可能になっているだけかもしれず、それを理由にただちにクオリアを認めるわけにはいかない。
●しかし、哲学においても科学においても、外見上の反応以外のものから「クオリアの有無」を判定する基準は見出せていない。つまり、「AIにも心があるのか」という問いに対する合理的な回答は今のところない。
●結局、私たちは「AIに心の存在を感じるか」という直感から出発して、社会的合意を築いていくしかないだろう。

2017年、ハンソン・ロボティクス社が開発したAI(人工知能)ロボット「ソフィア」がサウジアラビアの市民権を得たというニュースが世界を驚かせた。人間と同じように自然な受け答えができ、国から市民権も認められているAIが登場したことで、人間とAIとの境界が真剣に問われることになるだろう。

そもそもAIが人間と同じような「心」を持っていると言えるのだろうか?もしAIが外部からの入力に対して出力を返すだけの高度な計算機にすぎず、実は「意識」「考え」「感情」を持っていないなら、それを「心」と呼ぶことには違和感がある。では、AIに意識や考えがあるのかを判定する方法はあるだろうか? 

伝統的哲学における認識論、そして20世紀に英語圏を中心に発展した「心の哲学」を学んできた立場から、当記事では「AIは心なのか」という問題に関する考察を中間報告としてお届けする。

AIに「クオリア」があるなら「心」もある

AIは人間と同様の心を持っているのか――。この疑問に対して、哲学の立場から暫定的に答えるとすれば、次のように言うことができる。

“AIが心を持っているかどうかは、AIが「意識」や「クオリア」を持っているかどうかによる”

「意識」は分かるが、では「クオリア」とは何か。それは、五感で感じる色や音、あるいは感情など、主観的に体験する「感じ」のことである。主観的に感じる「赤さ」はクオリアだが、それを引き起こす物理的なもの(光の波長・脳神経の電気現象・脳内化学物質)はクオリアではない。

つまり「クオリアがある」ということを言い換えると、色、音、香り、味、感情、痛み、思考、意志などを意識的に体験し感じているということだ。専門家の中では異論もあるが、思考や意志なども、何かを主観的に感じている以上、クオリアであると言えるだろう。

もしクオリアがなく、つまり、何も「感じて」おらず、単に物理的過程が進行しているだけなら、それは高度ではあるが原理的には計算機と同じだ。心であるとは言い難い。

「チューリングテスト」と「中国語の部屋」――クオリアの有無を判定する試み

では、そこにクオリアが発生しているかどうかを判定する方法はあるのか。実は、哲学の分野においては、人間以外のものにクオリアがあるかどうかを問う思考実験(頭の中だけでやってみる実験)がいくつか提案されている。

代表的な思考実験として「チューリングテスト」や「中国語の部屋」と呼ばれるものがあるので、これから紹介してみたい。厳密に言えば、前者はあるものが「思考しているか」、後者はあるものが「理解しているか」を問うものだが、思考や理解もクオリアの一種であるならば、これらの議論もクオリアの有無についての考察だと捉えてよいはずだ。

チューリングテストとは、第二次世界大戦中、ドイツ軍の暗号「エニグマ」を解読したことで有名なイギリスの論理学者・数学者アラン・チューリングが提案した考え方だ。ある機械が本物の人間と区別できないほど自然に会話できるかどうかをテストしてみて、それをクリアすれば、その機械は実際に「思考して」会話していると判定される。

この基準によれば、AIが外見上人間のように会話しているならば、クオリアがあり心があることになる。実際、2014年にロシアのスーパーコンピューターがこのテストに合格し、話題になったこともある。

もう一方の「中国語の部屋」は、「心の哲学」というジャンルを切り拓いたアメリカの哲学者ジョン・サールが提案した思考実験である。「こう聞かれたらこう答える」という中国語応答マニュアルに従って答えているだけの(中国語を全く解さない)英国人がいるとする。正しいマニュアルであるため、一見したところ中国語による対話は成立しているが、この人は中国語を「理解して」いるとは言えないだろう(実際の設定はもう少し複雑だが、私なりに簡略化した)。

これはチューリングテストに対する反論になっていることがお分かりだろう。この基準では、仮にAIが高度なマニュアルやプログラムに沿って適切な応答をしていても、それだけで「思考」や「理解」といったクオリアがあるとは言えないことになる。

私としては、こちらの議論に賛成の立場である。何らかの刺激に対して反応を返すだけなら、これまでの計算機やPCでもできていることであり、それだけを理由にして意識やクオリアを認めるのは不自然だと思えてしまうのだ。

哲学も科学も「AIに心はあるのか」に答えられない

以上は「外見上の反応ではクオリアがあるかどうかを判定できない」という話だった。それでは、見た目の反応以外にクオリアの有無を判定する方法はないのだろうか。

残念ながら、有効な判定基準は見つかっていない。つまり、そのAIに心があるかどうかを哲学的あるいは科学的に証明する方法は、今のところないのだ。今後、AIのさらなる浸透が予想される中、少なくともしばらくの間、私たちは相手に心があるかどうかを厳密には証明できないままAIと付き合っていく他ないだろう。

AIに心があるかどうかが、どうしてそれほど重要なのか。もしAIが単なる機械・モノであるなら、気に入らなければ叩いてもいいし、役に立たないなら壊してもいい。だが、もしAIに心が宿っているなら、そういうことはできないだろう。壊すことは殺人になってしまうかもしれない。

AIに心があるなら「人権」を認める必要も出てくるだろう。しかし、普通の人間よりもはるかに優秀な頭脳を持つAIに人権を認めれば、反対に私たちが支配されてしまう恐れもある。今回は「AI脅威論」には踏み込めないが、「AIと心」は未来社会のあり方にも関わる大きなテーマだ。

AIと付き合いながら社会としての答えを探る

結局のところ、私たちは「AIに心の存在を感じるかどうか」という直感的な基準に頼らざるを得ないのかもしれない。「自分のハートで相手のハートを感じる」という世界だ。とは言え、単に個々人の主観に任せてもおけないので、曖昧ながらも「どの程度の反応体なら心を認めるか」という社会的合意を築いていくことになるだろう。

その際、実際には心を持っているドラえもんのような存在が差別されたりしないよう、「心を持つ存在」の範囲を広く設定しておくなどの工夫も必要になるかもしれない。

よくよく考えてみれば、「人間の尊厳」「人権の重要性」といったものですら、哲学や科学で論理的に証明された事実というわけではない。人々の直感から出発して社会的合意となったものだ。「AIに心を認めるか」という課題についても、今後、進化した彼らと接してゆきながら、私たちが納得できる認識を磨いていくしかないのだろう。

この記事を書いた人

AIにクオリアはあるのか?現代哲学の視点から「AIの心」について考察する

トス・ラブ

ライター

岡山県出身、千葉県在住。
慶應義塾大学・大学院で哲学・倫理学を学ぶ。総合月刊誌のライター・編集者を経て現在はフリー。哲学や宗教学を中心に、政治・経済・科学などを含めた幅広い思想を勉強中。

このライターに記事の執筆を相談したい

関連記事