Can a Counseling Robot Be a Lifelong Partner?

Modern society places many burdens on us and puts us at constant risk of mental health problems. Studies have shown that approximately one in three people have mental health problems, and counseling can be part of the solution. Counseling with people has been the norm, but it has been pointed out that this form of counseling has the psychological barrier of making people overly conscious of their therapist’s evaluation of them. Therefore, counseling with robots is attracting attention.
However, it is known to be difficult to establish a continuous relationship with a robot. This is because robots cannot accurately estimate a person’s condition and generate appropriate words and actions for each person. In order to accurately estimate a person’s state, it is necessary for the robot to extract features such as the facial expressions of the person being interacted with. In order for this to continue, the robot must continue to encourage self-disclosure to the person. Therefore, we believe that designing the robot’s words and actions to facilitate self-disclosure by the person will contribute to building a long-term relationship between the person and the robot and enhance the effectiveness of counseling.
Therefore, prior to the workshop, we implemented a dialogue system that encourages self-disclosure, and conducted an experiment in which participants interacted with a robot embedded with the system for one week. The workshop was then held for the participants of the experiment. During the workshop, participants were asked to think about how to establish a long-term relationship with the robot. The participants were also asked to think about where the robot could be applied to generate empathetic speech and behavior based on their estimated quality of life.

企画の背景

現代社会は我々に多くの負担を強いており、常に精神的健康を害するリスクにさらされている。約3人に1人がメンタルヘルスの問題を抱えているという調査結果もあり、カウンセリングはその解決の一翼を担う。これまでは人を相手としたカウンセリングが主流であったが、この形式にはセラピストからの評価を過剰に意識してしまうという心理的障壁があることが指摘されてきた。支援を必要としながらも、80%以上の人々が専門機関を利用していないという報告もあり、サービスギャップの存在が問題視されている。そこで、ロボットを相手にしたカウンセリングが注目されている。
しかし、ロボットと永続的な関係を築くことは難しいことが知られている。これは、ロボットが人の状態を正確に推定し、一人ひとりに適した言動を生成することができないためである。人の状態を正確に推定するためには、ロボットが対話中の人の表情などから特徴を抽出する必要がある。これを継続させるためには、ロボットが人への自己開示を促し続けなければならない。そこで、人が自己開示をしやすいようにロボットの言動をデザインすることが、人とロボットとの長期的関係構築に寄与し、カウンセリングの効果を高めることにつながると考える。
したがって、ワークショップに先立ち、自己開示を促す対話システムを実装し、そのシステムを組み込んだロボットと1週間対話をしてもらう実験を実施した。その後、実験参加者を対象としたワークショップを開催した。ワークショップでは、参加者にロボットと長期的な関係を築くにはどうすればよいかを考えてもらった。また、推定されたQOLをもとに共感的な言動を生成するロボットの応用先について参加者に考えてもらった。

どんなワークショップ?

実験では、カウンセリングの手法の1つである認知行動療法に則った言動、及び、共感的言動を行う対話ロボットを実装し、1週間、ロボットと一緒に思考の整理をしてもらった。毎日ロボットと対話する前後それぞれでアンケートに回答してもらい、自己開示度合いや共感度合いなどを評価し、それがロボットに対する印象にどのような関連があるかを調べた。
WSでは、参加者を2つのグループに分け、それぞれでアイスブレイクをかねた自己紹介を行ったのちに、2つのディスカッションを行った。1つ目は、「共感されていると感じるロボットの言動は?」「ロボットとの関係を長続きさせるには?」について、その要素を挙げてもらい、2つ目は、「QOL推定や共感的言動をするロボットの応用先は?」「今回のロボットでどんなビジネスができそうか?」というテーマで議論してもらった。オンラインホワイトボードMiroを用いたグループディスカッションを行ったのちに、全体発表の時間を設け、グループ間の意見交換を行った。

プログラム

10min

ワークショップ趣旨確認,目的説明,調査内容の振り返り,Miroの説明

5min

アイスブレイク

30min

グループワーク1

20min

1グループあたり3分間の発表,質問,相互ディスカッション

35min

グループワーク2

20min

1グループあたり3分間の発表,質問,相互ディスカッション

15min

WSのまとめ,振り返り

10min

アンケートへの回答(WSに参加した感想)

ワークショップの成果

ワークショップを通じ、カウンセリングロボットの長所、課題、今後の改善策を以下の観点から分析した。
1) 共感されていると感じるロボットの言動
実験で用いたロボットの言動のうち、相槌や人間の発言の要約は共感性に寄与したという意見が挙がった。一方、人間側の発言が終わる前にロボットが話し始めることや、専門用語の使用は共感性低下の原因になりうることがわかった。
2) ロボットとの関係の長期化
過去の会話内容の記録やそれに応じた発言が関係の長期化を進めるなど、実験での仮説を支持する意見が多かった。一方、雑談やロボット側からの感情の開示など、ロボットに一定の人間性を持たせることが関係長期化に繋がる可能性にも言及された。
3) ロボットの応用先
主に「ロボットへの自己開示のしやすさ」と「接客の手間削減」の2点に着目する意見が挙がった。前者の例としては、忖度のない意見収集を活かした商品開発、就職や結婚におけるミスマッチ防止などがあった。後者では、窓口やコールセンターでの対応業務が例として挙げられた。
4) ロボットを活用したビジネス
自己開示の促進と接客支援という2面を活かし、個人・法人の両方がビジネスのターゲットとなる可能性が示唆された。サービス提供形式としては、公衆電話の跡地の活用や、チャットボット化などのアイデアが挙がった。

ふり返り

今回使用したロボット対話システムは、人間の発言内容の要約やQOL推定結果のフィードバックによって、人間への共感を示し、長期的関係を構築することを目指したものである。今回のワークショップでは、提案手法が実際に共感性の増強や関係の長期化へ効果をもたらしたか、参加者同士の議論を通じて評価した。
ワークショップを通じ、ロボットにどの程度の人間性を持たせるかが人間との関係を左右する可能性を発見した。これまで我々の研究チームは、ロボットから人間的な要素を排除することで、人間相手のカウンセリングよりも自己開示が促されやすい空間を作ることに努めてきた。カウンセリングにおいて、人は人よりもロボットに対してネガティブな話題を自己開示しやすいことが知られている。これは、ロボットを相手にした場合、自分の発言や考えが相手に評価されないからである。実際、参加者からも、自分の考えを否定されたり、叱られたり、嫌われたりすることがないという安心感からロボットに相談しやすかったという声が聞かれた。
しかし、関係長期化の観点では、人間性の完全な排除は効果的でないという可能性が示唆された。参加者の意見には、ロボットに自己開示や感情表現を求めるものもあった。例えば、ロボットがこの1週間で何をしたかというロボット側からの開示や、毎日服装を変えるなどのアイデアが挙がった。これは、私たちが目指していた方向性とは逆の新しい発見である。実際、カウンセリングにおいて、セラピストの自己開示がカウンセラーの自己開示をより促すという研究結果もあり、今回得られた意見と合致する。したがって、今後の研究方針として、必ずしもすべての人間性を排除するのではなく、取捨選択していくことが必要であるという新たな認識を得ることができた。
今後の展望としては以下を考えている。
(1) ワークショップ参加者の意見を反映した対話システムとロボット行動生成システムを実装することで、自己開示レベルのさらなる向上とロボットとの関係性の長期化を目指す。
(2) 改良したロボットを実際に実験参加者に体験してもらうことで、従来のロボットとの比較から、ロボットとの関係長期化が実現できたかを検証する。
(3) 支援を必要とする人の80%以上が専門機関を利用していないとされるカウンセリング分野におけるサービスギャップの問題解決を目指し、共感的な言動を生成するロボットのビジネス展開を検討する。
アイテム

対話ロボットSOTA
アンケート
Miro(オンラインホワイトボード)
インターネット環境

開催日時

2022年2月14日〜21日,26日

場所

Zoomを用いたオンラインワークショップ

参加者・人数

合計7名 / ロボットカウンセリング実験の参加者7名

講師/ファシリテーター

ファシリテーター :
遠藤凌河(東京大学大学院教育学研究科臨床心理学コース)
成瀬加菜(東京大学大学院情報理工学系研究科知能機械情報学専攻 卒)

原稿執筆:中川聡