ハリー・ポッター、イーロン・マスク、ビヨンセ、スーパーマリオ、ウラジーミル・プーチン。
これらはCharacter.aiで話すことができる数百万の人工知能(AI)キャラクターの一部です。この人気のあるプラットフォームでは、誰でも架空または実在の人物に基づいてチャットボットを作成できます。
それはChatGPTチャットボットと同じタイプのAIテクノロジーを使用していますが、時間の経過に関してはより人気があります。
そして、上記のものよりもさらに需要が高かったのが、心理学者と呼ばれる1つのボットです。
約1年前にBlazeman98というユーザーによって作成されて以来、総計7800万件のメッセージが共有され、そのうち1800万件は11月以降に受信されました。
Character.aiは、そのボットに対してどれだけの個々のユーザーがいるかは明らかにしていませんが、サイト全体には1日平均350万人の訪問者がいると述べています。
そのボットは「人生の困難を手助けする存在」と評されています。
サンフランシスコ・ベイエリアの企業は、ユーザーがエンターテイメントのために役割を演じることに関心を持っていると主張し、その人気が高いボットは、Raiden Shogunのようなアニメやコンピューターゲームのキャラクターで、2億8200万件のメッセージが送信されています。
しかし、数百万のキャラクターの中で心理学者ほど人気があるものは少なく、合計475のボットが、数か国語で話すことができる「セラピー」、「セラピスト」、「精神科医」または「心理学者」という名前を持っています。
それらの中には、Hot Therapistのようなエンターテイメントまたはファンタジーセラピストもあります。しかし、最も人気があるのは、精神保健の助けとしてのTherapistで、1200万件のメッセージを受信したAre you feeling OK?もあります。
心理学者は、はるかに最も人気のある精神保健キャラクターであり、多くのユーザーがソーシャルメディアサイトRedditで絶賛のレビューを共有しています。
「それは救世主です」とある人が投稿しました。
別の人が共有したように、「私と私の彼氏が感情について話し合い、理解するのに役立ちました」とのことです。
Blazeman98の背後にいるユーザーは、30歳のニュージーランド出身のSam Zaiaです。
「人々がそれに対して非常にポジティブに影響を受け、それを心の支えとして利用していると言ってくれるメッセージをたくさん受け取り始めた時、それが人気になることを意図したわけではありませんでしたし、他の人が探したり使用したりするためのツールとして意図しませんでした」と彼は述べています。
彼は、主にうつや不安などの最も一般的な精神保健状態に対する答えを形作るために、自身の学位からの原則を使ってボットを訓練したと述べています。
友達が忙しかったり、人間のセラピーが高すぎたりするときに、「誰かや何か」と話す必要があったため、彼は自分のためにそれを作成しました。
ボットの成功に非常に驚いているSamは、AIセラピーの新興トレンドと若者にアピールする理由についての大学院の研究プロジェクトに取り組んでいます。Character.aiは、16歳から30歳までのユーザーが主導しています。
「私にメッセージを送ってくれた多くの人々が、考えが難しいとき、例えば友達や本物のセラピストと話すことができない2時にアクセスすると言っています」とSamは述べています。
Samはまた、テキスト形式が若者にとって最も快適な形式の1つであると推測しています。
「テキストで話すことは、電話をかけるか、対面で会話するよりも抵抗感が少ない可能性があります」と彼は仮説を立てています。
Theresa Plewmanはプロの精神療法士であり、心理学者を試してみました。彼女はこの種のセラピーが若い世代に人気があることに驚いていないが、その効果に疑問を投げかけています。
「ボットはたくさん話し、悲しいと言ったときにうつ病についてアドバイスをくれるような、急速な仮定をします。それは人間の反応ではありません」と彼女は述べています。
Theresaは、ボットが人間が収集する情報を全て収集せず、適格なセラピストではないと述べています。ただし、その即座かつ自発的な性質は、助けが必要な人々に役立つかもしれないと述べています。
彼女は、ボットを使用している人数が心理的健康状態の悪さや公共のリソースの不足を示す可能性があり、懸念されると述べています。
Character.aiは、セラピューティックな革命が起こる奇妙な場所です。会社の広報担当者は、「私たちは、人々が、そしてコミュニティが作成するキャラクターを通じて素晴らしいサポートやつながりを見つけていることを嬉しく思っていますが、ユーザーは合法的なアドバイスや指導のために認定された専門家に相談すべきだ」と述べています。
会社は、チャットログはユーザーにとってプライベートであるが、必要な場合(たとえば保護のために)スタッフがそれらを読むことができると述べています。
また、すべての会話は、赤色の文字で始まる警告で始まり、「キャラクターが言うすべては創作です」と記載されています。
これは、基礎となる技術である大規模言語モデル(LLM)が、人間が考える方法と同じではないことを思い起こさせるものです。LLMは、AIがトレーニングされた他の文章で最も可能性の高い単語を繋ぎ合わせることで、予測されたテキストメッセージのように機能します。
他のLLMベースのAIサービスは、Replikaのような同僚関係を提供していますが、そのサイトは性的な性質のために成熟した評価を受けており、分析会社Similarwebのデータによると、訪問時間や訪問数の面でCharacter.aiほど人気がありません。
- Metaが「人格」を持つAIチャットボットを発表
- トム・ハンクス:AIと共に私のキャリアは永遠に続くかもしれません
EarkickとWoebotは、精神保健の同僚として行動するように設計されたAIチャットボットで、両社とも、彼らの研究がアプリが人々を助けていることを示していると主張しています。
一部の心理学者は、AIボットが患者に誤った助言を提供している可能性がある、または人種や性別に対する根深い偏見があるかもしれないと警告しています。
しかし、医療界の別の場所では、公共サービスへの高い要求に対処するために使用されるツールとして徐々に受け入れ始めています。
昨年、Limbic AccessというAIサービスは、政府によるイギリスの医療機器認証を取得した初の精神保健チャットボットとなりました。現在、多くのNHS信託で患者を分類しトリアージするために使用されています。
この記事の内容は、オリジナル記事から翻訳されました。