ニュース&イベント NEWS & EVENTS

2023.07.10 Mon UP

看護に求められる倫理概念をロボットやAIに実装できるのか?
~現状分析から実装の可能性を考察、看護におけるAI活用の倫理的課題を整理~

研究の要旨とポイント

  • 看護実践を行う上で重要視されている倫理的な概念をロボットや人工知能(AI)に実装できるかどうかについて、倫理学の観点から分析を行った。
  • 将来的には看護実践に求められる倫理概念をロボットやAIに実装することは不可能とは言い切れないものの、これらの概念には論争中の部分も多くあり、さらなる検討が必要である。
  • 今後も応用倫理学、看護学、ロボット工学の分野が共同して、看護実践におけるロボットやAI活用の倫理的側面についてのさらに踏み込んだ研究が求められると同時に、医療関係者だけでなく、一般の人々も巻き込んだ議論を喚起する必要がある。

東京理科大学教養教育研究院野田キャンパス教養学部の伊吹友秀准教授、共立女子大学看護学部の伊吹愛専任講師、東京大学大学院医学系研究科の中澤栄輔講師の研究グループは、看護実践を行う上で重要視されている倫理的な概念をロボットや人工知能(AI)に実装できるかどうかについて、倫理学の観点から分析を行いました。その結果、将来的には看護実践に求められる倫理概念をロボットやAIに実装することは不可能とは言い切れないものの、これらの概念には論争中の部分も多くあり、逆にこれらの実装についての研究を進めることによって倫理学的にも多くの発見がある可能性が指摘されました。

近年、ロボットやAIの研究開発が急速に進んでおり、今後、看護の分野でも活躍が期待されています。しかし、看護は極めて人間的な営みなので、ロボットやAIによって代替されるべきでない領域も存在します。看護実践をロボットやAIに代替させることができるか、あるいは、代替させるべきかについては、十分な議論が必要です。

そこで本研究では、看護実践において重要と考えられる4つの倫理概念に焦点を当て、これらの倫理概念をロボットやAIに実装することが可能かどうかを、それぞれの概念とロボット・AI技術の現状を分析することによって考察しました。その結果、それぞれの概念についてロボットやAIに実装可能と考えられる領域は存在するものの、実装が困難、あるいはさらなる検討が必要な領域も多いことが示唆されました。また、仮に将来これらの概念を実現できたとしても、それを実際に看護の現場で用いるべきかどうかについては、医療関係者だけでなく、一般の人々も巻き込んだ幅広い議論が必要です。

本研究は、生命倫理学・看護学・医療倫理学の研究者が分野の垣根を越えてコラボレーションしておこなったものです。今後も応用倫理学、看護学、そしてロボット工学の分野が共同して、看護実践におけるロボットやAI活用の倫理的側面についてのさらに踏み込んだ研究が求められます。

本研究成果は、2023年6月12日に国際学術誌「Nursing Ethics」にオンライン掲載されました。

研究の背景

ロボットやAIにどのような看護実践であれば任せられるかは、時代や社会情勢に応じて変化してきました。そのため、将来的には、看護実践の中でロボットやAIが占める割合がこれまで以上に大きくなる可能性があります。

SF作家アイザック‧アシモフの短編を原作とする映画『アンドリュー NDR114(原題Bicentennial Man)』は、人間に匹敵する能力を持つロボットをどのように扱うべきかという問題を提起する示唆に富んだ作品です。この映画のラストシーンでは、人型ロボットである看護師が主人公のパートナーである女性患者の依頼に応じて、⽣命維持装置のスイッチを切ります。これは、アシモフ自身が提唱したロボット三原則(*1)の「ロボットは⼈間に危害を与えてはいけない」に抵触していることをどう解釈するかという問題を提起します。この問題に対する解釈の一つは、延命治療の中止は終末期の患者にとって決して有害ではないというものです。もう一つは人間と同等の能力を有したロボットは人間として扱われるべき存在であるため、ロボット三原則に縛られることなく、ロボット自身の倫理的判断で、人間の看護師と同じように看護を実践したという解釈です。今回の研究に関連するのは、後者の解釈です。どのような倫理観を実装したロボットであれば、看護実践を行うことが許容されるのでしょうか?

本研究を主導した伊吹友秀准教授はこの映画から着想を得て、ロボットやAIでは実現できない、あるいは実現すべきでない看護実践の要素を明らかにするために、看護実践で重視されている倫理的概念のうち、ロボットやAIには実装できないものが存在するのかについて検討をおこないました。

研究結果の詳細

本研究では、看護における代表的な倫理概念(アドボカシー、アカウンタビリティー、コーポレーション、ケアリング)をロボットやAIが実現できるかどうかについて、現在のロボット技術やAI技術の進展とあわせて分析を行いました。

アドボカシーとは、看護師は患者やその家族に寄り添い、擁護者となることを指す概念です。アドボカシーの概念を分析した先行研究によると、アドボカシーには(1)医療ミスや医療従事者の能力不足や不正行為などから患者を守る「患者保護(safeguarding)」、(2)診断・治療・予後に関する情報を患者に提供する「告知(apprising)」、(3)患者自身の価値観に寄り添う「価値観の尊重(valuing)」、(4) 患者・家族・医療従事者間のインターフェイスとなる「仲介(mediate)」、(5) 医療における不公正の問題を制度に問う「医療提供における社会正義の擁護(championing social justice in the provision of healthcare)」の5つの要素があります。このうち、「患者保護」、「告知」、「医療提供における社会正義の擁護」は、適切な学習などの課題はあるものの、ロボットやAIに比較的容易に実装が可能な一方、「価値観の尊重」や「仲介」は、患者との感情的なコミュニケーションを必要とするため、実装が困難であると考えられます。

アカウンタビリティーは、自分自身の行動に対して合理的な説明をする能力のことです。ロボットやAIの行動はアルゴリズムに基づいているため、説明可能なアルゴリズムを搭載したロボット・AIであれば、行動の理由(原因)を説明すること自体は可能なので、その点では実装可能と言えます。しかし、その説明の責任が誰に帰属するのかなど、説明の概念そのものの議論がまだ十分に深まっていないという問題があります。一般的に、アカウンタビリティーとは、単に命令に従ったり先輩看護師の真似をしたりするだけではなく、自分の行動の理由を説明する能力を必要とします。この点で、ロボットは今後、指示や命令の模倣を越えて、自らの行動を選択できるかが問われることになると予想されます。

コーポレーションとは、他者と適切に協働し、医療や看護の目標を達成するための看護に従事する能力のことです。看護業務の部分的な機械化はすでに行われていることから、将来的には人間とロボットの協働も十分に可能であると考えられます。ただし、単なる連携を越え、協力しあう関係を築き上げるためには、ロボット看護師がコミュニティの一員として認識される必要があります。

ケアリングは、看護において特に重要な倫理概念として認識されています。幅広い要素を含む概念ですが、「思いやること」、「ケアすること」「介護」、「ケアを受けること」に焦点を絞って分析し、特に、「ケアする」・「ケアを受ける」という要素を中心に論じました。「ケアする」に関しては、ロボットが人間と同じように人の感情を理解できるかという哲学的な問題はありますが、少なくとも外見的には、ロボットがそうした感情を理解し、適切に対応できるようになる可能性はあると言えます。「ケアする」を実装する上での課題ももちろんたくさんありますが、「ケアを受ける」側には、それ以上に難しい問題があります。それは、患者がロボットやAIをケア提供者として受け入れられるかどうかという問題です。

このように、アドボカシー、アカウンタビリティー、コーポレーション、ケアリングは、それぞれ困難が予想されるものの、ロボットやAIに実装することは不可能とは言い切れないということが、現状分析から示唆されました。しかし、仮に将来これらの機能を実現できたとしても、それを看護実践に用いるべきかについては、さらなる検討が必要です。この研究は、ロボット工学やAI研究者に対して、⾃分たちの研究が広く社会の中で実装されていく時に留意すべき倫理学上の論点を示すものとなります。また、一般の人々にとっては、看護という⼈間的営みにおいてどの程度ロボットやAIによる代替を許すべきか、あるいは、どのようなロボットやAIであればそれらを許すのかという問題について考えるための気づきを与えます。

研究を行った伊吹友秀准教授は、「本研究は、看護分野におけるロボットやAIの活用を見据えた、倫理的な観点からの分析の第一歩です。この研究を端緒として、今後、さまざまなステークホルダーによる一層の活発な議論が進んで欲しいと思っています」と述べ、今後の展開に期待を寄せています。

用語

*1 ロボット三原則
アイザック・アシモフが自身の著作においてロボットが従うべき原則として示したもの。各原則は次のとおり。
第一条 ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。
第二条 ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。
第三条 ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。

論文情報

雑誌名

Nursing Ethics

論文タイトル

Possibilities and ethical issues of entrusting nursing tasks to robots and artificial intelligence

著者

Tomohide Ibuki, Ai Ibuki, Eisuke Nakazawa

DOI

10.1177/09697330221149094

東京理科大学について

東京理科大学
詳しくはこちら

当サイトでは、利用者動向の調査及び運用改善に役立てるためにCookieを使用しています。当ウェブサイト利用者は、Cookieの使用に許可を与えたものとみなします。詳細は、「プライバシーポリシー」をご確認ください。