オピニオン
【ヘルスケア】
高齢者の意思決定支援におけるAIの活用を考える
2021年05月11日 沢村香苗
Connected Seniors コンソーシアム2019・2020で実現を目指してきたサービスは、subMEという「サイバー空間のもう1人の自分」が、ユーザーである高齢者本人と対話して自身の行動を活性化したり、その結果を蓄積して将来的な意思決定支援に役立てることが特色だ。subMEの発想は、核家族化や独り暮らしが増えるなど、高齢者を取り巻く周囲の人の数が減少していることや、通信手段が家族共有の電話から個人用の携帯電話になるなどの変化によって、個人の行動に関する情報が共有されにくくなっており、高齢期の意思決定支援に困難が生じつつあるという課題から誕生した。最初はシンプルに個人の価値観の情報を保有するデータベースを他者が閲覧することをイメージしていたのだが、それがデジタルツインの考え方と出会うことで、より高度な情報活用、つまりAI活用に対する期待が込められるようになった。デジタルツインという文脈でプロジェクトに多くの関心が寄せられることをありがたく感じつつ、正直、筆者自身はAI活用についての態度を決めかねてきた。コンソーシアムでの実証活動を通じて、高齢者が楽しんでデータを蓄積していけることを確認できた今、いよいよこの問題と向きあわざるを得なくなった。
これまでであれば、ある人の意思を他人が推し量ることができるようになるためには、日ごろからその人の言動・行動を観察できる物理的な近さが必要だった。しかし、情報機器の発達によって、物理的な関係性に依らずに、誰もがその人のことをある程度知ることが可能になった。しかも、誰もが関われるという新たな前提に立つと、(1)意思決定支援や代理的な判断を特定の人がずっと行う、(2)場面ごとに適切な人が担うといった選択肢が生まれ、そこに、(3)AIが関与するという選択肢も加わることになる。
AIが、本人の過去の意思決定の履歴や、同じような特性を持つ人たちのデータを大量に学習したうえで、「この人ならこのような意思決定をするはずだ」という“答え”を提示してくれるとしたら、私たちはそれをどう活用すべきなのだろうか。
先日、「倫理的なAIデザインと持続可能性-これからのデジタルサービスとの向き合い方」(注1)というウェビナーに参加する機会があった。専門家によると、AIを用いたサービスが増える中、人とAIの協業のバランスやその根拠を探らなければならない状況は、すでに自動運転や採用試験といった場面で顕在化しているという。AIに意思決定の責任を負わせることはできるのか?AIと人間は同じか?などの観点から、倫理を巡る議論がなされているそうだ。
現時点では、意思決定支援においてAIが「正しい」答えを出してくれるはず、というのは過剰な期待に過ぎない。計算結果が設計や学習データに依存する等の技術的な制約はさておき、AIは「確率的にその人がしそうな選択」は提示できるかもしれないが、それがその人にとって、その時点で最良の選択かどうかを判断できるわけではないからだ。選択の意味や結果を想像し、他者のための意思決定をするのは、同じく「可傷性」(注2)のある身体を持ちながら、日々自分という存在を創り続けている人間であるべきだ、という論に私は今のところ賛同している。
それは、「悩む」部分を人間が担い続けるべきだということに等しい。情報技術の活用で負荷を軽減するのが目的だといいながら、最終的には人間が悩んで結論を出すことに価値があると主張するのは矛盾しているような気もする。ただ、軽減したい「負荷」は何なのかを明確にし、私たちがどの負荷を背負っていくべきなのかを改めて示さなければならないと感じた。
倫理というのは倫(仲間)と理(筋道)を組み合わせた言葉だそうだ。誰かがどこかで決めてくれるものではなく、私たちが共に見出すべきものということだ。目の前の現実が変わるとき、それが便利であるほど、私たちはその新しい現実を当然のものとして受け入れていくだろう。一方で、その過程で大切なものが損なわれそうなら、それをきちんと感じ取り、声をあげることが、私たちが保持しておくべき最後の能力なのかもしれない。
(注1) https://loftwork.com/jp/event/20210421_smbc-loftwork-aidesign
(注2)傷つけられる可能性が常にあること
この連載のバックナンバーはこちらよりご覧いただけます。
※記事は執筆者の個人的見解であり、日本総研の公式見解を示すものではありません。