D3B728A5-4047-4573-AC6F-C8A8E5CE6251

AIカウンセラーが公認心理師、臨床心理士を超える時

以前「AIカウンセラーは公認心理師の夢を見るか?」という記事を書いたのですが、思いのほか反響があったのでまたAIカウンセラーの持つ課題について考えてみます。

まず、心理カウンセラーが通常のカウンセリングの中で行っていてその中で収集しているデータは実に膨大な量になります。

週1回50分のカウンセリングを1日5人行っていて、それが10年ということになると相当な量の情報が集積されます。

人間がカウンセリングカルテや電子カルテに記載するならかいつまんで情報を取捨選択することができますがAIにはそれはできません。

以前メラビアンの法則では対人関係コミュニケーションでは言語によるコミュニケーション要素は7パーセントしかないと指摘してエビデンス・ベイスド・メソッドの方法論に(もっと言うなら研究仮説)にも疑義を持ったという記事を書きました。

AIカウンセラーは人間の表情を読み取って、どんな感情を抱いているか、それに対してどう受け答えすればいいかも可能とするでしょう。

語調、服装などノンバーバルなコミュニケーション概念をAIカウンセラーは理解できるようになると思います。

そうだとすればそれは1人50分でも膨大なデータとなるはずです。

それではこのビッグデータをどうやって保管するか、現状で患者カルテを暗号化してクラウド上に保管されるというシステムはもう出来上がっています。

さて、そのためにはAIカウンセラーがクライエントさんにインフォームドコンセントを取らなければならないわけですが、人間でないAIと人間との契約は果たして有効なのかという問題が生じます。

カウンセリングは医行為でなくとも精神療法、心理療法と言われる行為です。

AIカウンセラーがクライエントさんの状態を分析してこういった言葉をかけるのがいい、こういう決断を勧めたい、技法でこういったものが有効と思えるなど、かなり細かなところまでインフォームドコンセントを取らないと倫理的にまずい場面が多々出てくると思います。

人間のカウンセラーはかなり注意深くクライエントさんに接する話し方を自然に、そして教育を受けながら覚えていきます。

「その時にあなたが行った行為について、私はあなたが自分のことを傷つけようとした、というようにも読み取れますが、もし私にそう言われたらどう感じますか?」と迂遠なように思えてこういった問いかけの仕方はHYPER SENSITIVEな人には必須な場合があります。

手術同意書のように、このAIカウンセラーにカウンセリングを受けたことによるいかなる損害についても責任は取らない、という契約書について人はサインするでしょうか?

法的に有効性が認められにくいこういった契約書があったとしてもクライエントさんが自死した場合、遺族は納得するでしょうか?

法的な側面としてはAIプログラムエンジニアが自傷他害のおそれがあり守秘義務を取り払わなくてはならない場面と守秘義務が守られるべき場面を想定してプログラムを作るだろうけれども、エンジニアたちは公認心理師ではなく医療者でもありません。

AIには倫理的義務はないですし、何か問題が発生した際にはプログラムを書き換えればいいわけです。

カウンセリングを1時間真剣に行うというのは心理職にとってはとても厳しい行為です。

「今日は先生をこのナイフで殺そうと思って来ました」

「私の命をを助けてくれるのは夫ではなくて先生です」

という人間対人間だからこそ起こりうる、そして極限的場面への介入はそもそもAIカウンセラーと人間の間では起こりえないですし、的確な回答もAIカウンセラーにはできないのではないかと思います。

チャートにしたがってAIカウンセラーが行うカウンセリングはクライエントさんにとって納得がいくものなのでしょうか。

AI「今日はお疲れのように見えます。どうですか?」

クライエントcl「ええ、会社で嫌なことがありましてね」

AI(ここで「はい」と言ってオープンクエスチョンにして相手の自由に任せるのか、「どんなことがあったんですか?」と聞くべきなのかのかを決めなければなりません」

パターンα「はい」

「カウンセラーさんに話したいのですけれども、課長にはいつも無理やりに仕事を押し付けられて、納期も短く切られて・・・」

AI「大変ですね。」

「そうなんですよ、それでですね」

とここまで書いていて僕自身なんだか虚しくなりました。

人の心を心底から理解してくれたり、理解できなくてもそのように努力してくれていたり、未熟でも未熟なりに必死になってくれているカウンセラーに人は話をしたいと思うのではないでしょうか。

30年後には滅びると言われている営業マンの大部分ですが、営業マンに支払う人件費よりも、コストカットをしてお客さんにより安い見積書を出せる、車の性能について正確に答えられるAIの方があてになると考える人は多くなるでしょう。

パターンβとして「どんなことがあったんですか?」

と聞いて「実はですね」と話し始めなければならないクライエントさんは壁打ちだけをしている気持ちになるのではないでしょうか。

AIが医療に進出した方がいい場面は多々あるだろうと知人の内科医の先生と先日話していたのですが、徴候を記入して何科にかかるべきか振り分ける、患者さん到着前に病院にデータが届いていれば最大限70パーセントの手間のカットになるのでは、ないかとのことでした。

手術も「神の手」よりも素早く正確な手技はAIが優れているようになるかもしれません。

僕が受けた教育で精神科医師が話していた例がありました。

時間がない中ドリフターズ診察で「食べてる?眠れてる?気持ちは大丈夫?また来週!」との結果自死してしまった患者さんがいました。

待合室を通りすがった時に独特の異様で暗い雰囲気があったけれどもなんとも言えない、感じ取ったとしか言えない、だからまたそういう患者さんが来たらしつこく診察して「実は・・・」と言う患者さんの命を助けている、こういった「勘」はAIには無理です。

診察やカウンセリングの補助としてAIカウンセラーがクライエントさんの表情や様子、仕草を分析して初期段階で治療者に情報提供する診療補助はできるかもしれません。

カウンセラー「(PCの画面を見ながら)◯◯さん、かなり疲れていてストレスがあるとAIのデータから読み取れますね」

クライエント「先生、そのとおりですけど、僕の顔や様子を見たらそう思うでしょ?」となるだけのような気がします。

これが他科なら血液検査結果数値や画像診断結果という客観的データを示せるのですが、ことメンタル面については見て聞いてみないとわかりません。

性懲りもなくカウンセリングアプリをダウンロードしてみたのですが、細かいニュアンスは全く伝わらないので諦めて消してしまいました。

AIカウンセリングの可能性について最近よくネットで見かけます。

僕のブログはなんとなくきれいごとを言って「AIがこれから科学技術の進歩によって発展して、人間のカウンセリングと相互補完していいところをクライエントさんが取れるようになれる時代が来るのを待ち望んでいます。」

というような「優等生的なことを言って締めくくりやがって」と知人から言われることもあります。

ただしカウンセリングについてははっきり違うと言えます。

AIは人ではないのでカウンセリングはできません。

以上

※ 当サイトは公序良俗に反するサイトを除きリンクフリーです。また、当サイトからのリンク先情報についての真偽は保証しかねますのでご了承ください。

にほんブログ村 メンタルヘルスブログ 心理カウンセラーへ にほんブログ村 哲学・思想ブログ 心理学へ
(スポンサードリンク)