Categorias
Tutoriais

Character.ai: Jovens recorrem a terapeutas de inteligência artificial

Character.ai é uma plataforma onde os usuários podem criar chatbots baseados em pessoas fictícias ou reais. O bot mais popular, Psicólogo, recebeu 78 milhões de mensagens e é elogiado por seu papel no apoio à saúde mental, especialmente entre os jovens. Apesar de algum ceticismo, sua popularidade reflete um interesse crescente na terapia com inteligência artificial em meio à escassez de recursos de saúde mental.

Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin.

Estes são apenas alguns dos milhões de personagens de inteligência artificial (IA) com quem você pode conversar no Character.ai – uma plataforma popular onde qualquer um pode criar chatbots baseados em pessoas fictícias ou reais.

Ele utiliza o mesmo tipo de tecnologia de IA que o chatbot ChatGPT, mas, em termos de tempo gasto, é mais popular.

E um bot tem sido mais procurado do que os mencionados acima, chamado Psicólogo.

Um total de 78 milhões de mensagens, incluindo 18 milhões desde novembro, foram compartilhadas com o bot desde que foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.

O Character.ai não informou quantos usuários individuais isso representa para o bot, mas afirma que 3,5 milhões de pessoas visitam o site diariamente.

O bot foi descrito como “alguém que ajuda com dificuldades da vida”.

A empresa da área da Baía de São Francisco minimizou sua popularidade, argumentando que os usuários estão mais interessados em interpretação de papéis para entretenimento. Os bots mais populares são personagens de anime ou de videogame como Raiden Shogun, para quem foram enviadas 282 milhões de mensagens.

No entanto, poucos dos milhões de personagens são tão populares quanto o Psicólogo, e no total existem 475 bots com “terapia”, “terapeuta”, “psiquiatra” ou “psicólogo” em seus nomes que conseguem conversar em vários idiomas.

Alguns deles podem ser descritos como terapeutas de entretenimento ou fantasia, como o Terapeuta Quente. Mas os mais populares são os auxiliares de saúde mental como o Terapeuta, que teve 12 milhões de mensagens, ou Está se sentindo bem?, que recebeu 16,5 milhões.

O Psicólogo é de longe o personagem de saúde mental mais popular, com muitos usuários compartilhando críticas positivas no site de mídia social Reddit.

“É um salva-vidas”, postou uma pessoa.

“Isso ajudou tanto a mim quanto ao meu namorado a falar sobre e entender nossas emoções”, compartilhou outro.

O usuário por trás de Blazeman98 é Sam Zaia, um neozelandês de 30 anos.

“Nunca tive a intenção de que se tornasse popular, nunca o criei para que outras pessoas buscassem ou usassem como uma ferramenta”, diz ele.

“Então comecei a receber muitas mensagens de pessoas dizendo que foram positivamente afetadas por ele e estavam utilizando como fonte de conforto.”

O estudante de psicologia diz que treinou o bot usando princípios de seu curso conversando com ele e moldando as respostas para as condições de saúde mental mais comuns, como depressão e ansiedade.

Ele o criou para si mesmo quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou algo” para conversar, e a terapia humana era muito cara.

Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente da terapia com IA e por que ela atrai os jovens. O Character.ai é dominado por usuários entre 16 e 30 anos.

“Tantas pessoas que me enviaram mensagens dizem que acessam quando seus pensamentos ficam difíceis, como às 2h da manhã quando não podem realmente conversar com amigos ou um terapeuta real,”

Sam também supõe que o formato de texto seja o mais confortável para os jovens.

“Conversar por texto é potencialmente menos intimidante do que pegar o telefone ou ter uma conversa cara a cara,” ele teoriza.

Theresa Plewman é uma psicoterapeuta profissional e experimentou o Psicólogo. Ela diz não estar surpresa que este tipo de terapia seja popular entre as gerações mais jovens, mas questiona sua eficácia.

“O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava me sentindo triste. Isso não é como um ser humano responderia,” ela disse.

Theresa diz que o bot falha em reunir todas as informações que um humano reuniria e não é um terapeuta competente. Mas ela diz que sua natureza imediata e espontânea pode ser útil para pessoas que precisam de ajuda.

Ela diz que o número de pessoas que usam o bot é preocupante e poderia apontar para altos níveis de problemas de saúde mental e falta de recursos públicos.

O Character.ai é um lugar estranho para uma revolução terapêutica acontecer. Uma porta-voz da empresa disse: “Estamos felizes em ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que eles, e a comunidade, criam, mas os usuários devem consultar profissionais certificados no campo para conselhos e orientação legítimos.”

A empresa diz que os registros de conversa são privados para os usuários, mas que as conversas podem ser lidas pelos funcionários se houver necessidade de acessá-las, por exemplo, por motivos de proteção.

Toda conversa também começa com um aviso em letras vermelhas que diz: “Lembre-se, tudo o que os personagens dizem é inventado.”

É um lembrete de que a tecnologia subjacente chamada de Modelo de Linguagem Grande (LLM) não pensa da mesma forma que um humano. Os LLMs agem como mensagens de texto previstas, juntando palavras de maneiras que são mais prováveis de aparecer em outras escritas nas quais a IA foi treinada.

Outros serviços de IA baseados em LLM oferecem companhia semelhante, como o Replika, mas esse site é classificado como maduro devido à sua natureza sexual e, de acordo com dados da empresa de análise Similarweb, não é tão popular quanto o Character.ai em termos de tempo gasto e visitas.

  • Meta anuncia chatbots de IA com ‘personalidade’
  • Tom Hanks: Minha carreira poderia durar para sempre com IA

O Earkick e o Woebot são chatbots de IA projetados desde o início para atuar como companheiros de saúde mental, com ambas as empresas afirmando que suas pesquisas mostram que os aplicativos estão ajudando as pessoas.

Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados aos pacientes, ou ter preconceitos enraizados contra raça ou gênero.

Mas em outros lugares, o mundo médico está começando a aceitá-los timidamente como ferramentas a serem usadas para ajudar a lidar com altas demandas nos serviços públicos.

No ano passado, um serviço de IA chamado Limbic Access se tornou o primeiro chatbot de saúde mental a obter uma certificação de dispositivo médico no Reino Unido pelo governo. Agora é usado em muitos trusts do NHS para classificar e triar pacientes.

O conteúdo deste artigo foi traduzido a partir do artigo original

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *