Inteligência artificial é usada como terapia – 18/01/2025 – Equilíbrio


Três anos após a chegada do ChatGPT ao país, os brasileiros recorrem a soluções de inteligência artificial (IA) para diversos fins, seja na escola, na universidade, no trabalho ou na vida pessoal, inclusive para lidar com questões muito humanas, como o sofrimento psíquico.

A OMS (Organização Mundial da Saúde) estima que cerca de 300 milhões de pessoas no mundo sofram com depressão. Somado a isso há o uso excessivo de mídias digitais, fenômeno que reflete a sociedade em que vivemos. “Estamos fragmentados, isolados, não encontramos nas pessoas relações que nos satisfazem. A nossa sociedade não dá conforto para ninguém e vivemos em tensão permanente”, avalia Glauco Arbix, sociólogo e professor titular do Departamento de Sociologia da USP.

É nesse cenário que os brasileiros estão recorrendo à tecnologia, mais precisamente à IA, para suprir suas necessidades psicológicas.

Além do ChatGPT, usado por muita gente que deseja desabafar, ferramentas específicas já foram criadas para dar suporte emocional. Em agosto de 2024, a empresa de telemedicina Vibe Saúde lançou a Vivi, “assistente de IA em saúde mental” que hoje conta com 16 mil usuários.

A IA avalia as mensagens enviadas pelo usuário e sugere um ciclo de cuidado de seis semanas que segue as técnicas da terapia cognitivo-comportamental. De acordo com Felipe Cunha, presidente e cofundador da empresa, os protocolos foram criados por profissionais de saúde, e há ainda uma plataforma de segurança clínica que funciona como uma auditora em tempo real e “pode bloquear uma mensagem que tenha uma conduta clínica não aceitável por parte da inteligência artificial”.

Após oferecer o ciclo terapêutico de seis semanas, a Vivi indica possíveis soluções para as questões levantadas e diz que o contato pode ser retomado a qualquer momento. Se o usuário não precisar da assistência ao longo dos dias, na semana seguinte a própria IA envia uma mensagem no dia e horário previamente combinados. A partir de fevereiro o serviço será cobrado —R$ 2,50 por um pacote de 30 mensagens enviadas pelo usuário, em texto ou áudio.

“Ela [Vivi] não é uma profissional, não substitui o psicólogo e não passa nenhum tipo de diagnóstico ou medicamentos. É uma assistente de suporte emocional para suplementar o trabalho dos profissionais de saúde”, ressalta Cunha.

Alicie Camargo, publicitária de 27 anos, conta que usa o ChatGPT em momentos de ansiedade. Ela avalia que a interação é em geral positiva —por exemplo quando a ferramenta a ajuda a acertar o tom de uma mensagem que deseja enviar a alguém e não sabe como, quando indica exercícios de respiração em momentos de crise e quando aponta algo que ela não enxergaria sozinha em uma situação.

“Mas eu entendo as limitações”, diz ela, citando sugestões oferecidas pela IA que não condizem com a sua personalidade. “Se o problema for cobrar alguém, óbvio que ele [ChatGPT] vai dar a solução de cobrar a atitude, mas emocionalmente eu não estaria pronta para isso. Então o conselho não me serviu de nada.”

A publicitária sabe que a tecnologia não substitui o trabalho de um profissional da psicologia. “Inclusive estou procurando um.”

Um ambiente digital disponível 24 horas por dia pode oferecer alívio em momentos de solidão, mas pesquisadores alertam para o fato de que essas tecnologias são novas e seus efeitos ainda não são conhecidos.

“Se as pessoas podem acessar algo que as fará se sentir menos solitárias porque escutam o que elas têm a dizer, é algo positivo. Mas, a longo prazo, não sabemos ainda se é algo realmente bom”, afirma Christopher Wagstaff, professor sênior na Universidade de Birmingham e autor do artigo “Inteligência Artificial e as relações terapêuticas na saúde mental”.

“Eu gostaria de acreditar que isso nunca irá substituir a interação humana”, acresenta Wagstaff, citando “programas que têm rostos que fingem ouvir, se importar e fazer contato visual de forma empática”.

L., jornalista e redatora publicitária de 21 anos que não quis se identificar, conta que conseguiu contornar o problema das respostas genéricas da tecnologia de forma prática. Acostumada a usar tanto o ChatGPT quanto o Google AI Studio na faculdade e no trabalho, ela diz que desenvolveu técnicas para aprimorar os comandos e, consequentemente, as respostas do robô.

A jovem começou a usar o chatbot para suporte emocional durante um período de luto, após a psicóloga com quem se consultava havia cinco anos morrer. Ela diz ser consciente dos riscos que a IA pode trazer, mas conta que na época foi o único recurso que se via capaz de utilizar, já que não conseguia procurar outro terapeuta. Depois de quatro meses usando a ferramenta, L. diz que se sentiu bem o suficiente para procurar tratamento psicológico e psiquiátrico, retomado há três meses.

Presidente do Conselho Federal de Psicologia, Pedro Paulo Bicalho afirma que a inteligência artificial é bem-vinda como complemento, mas jamais irá substituir um psicólogo no exercício das suas funções clínicas. “É uma ferramenta que tem o limite da palavra manifesta. E nem tudo o ser humano manifesta por palavras, porque nem tudo o que o ser humano sofre é traduzível em palavras”, diz.

A psicóloga Vera Melo conta que usa uma ferramenta de IA como complemento à anamnese, para ajudá-la a enxergar algo que não tenha percebido. Mas também mostra preocupação com a substituição de um profissional qualificado por uma tecnologia. “É uma relação ilusória. Porque a máquina está falando aquilo que você quer ouvir.” Para ela, a presença de uma pessoa de verdade do outro lado e do vínculo que essa interação cria é fundamental para o desenvolvimento da identidade de um sujeito.

Para o sociólogo Glauco Arbix, o uso desenfreado dessas ferramentas pode ter impacto duradouro. “A gente perde pedaços, dimensões, aspectos da nossa humanidade quando a gente se dobra a esse tipo de relacionamento [artificial]. A gente perde a multiplicidade, as contradições, as tensões de quem ama.”

Três anos após a chegada do ChatGPT ao país, os brasileiros recorrem a soluções de inteligência artificial (IA) para diversos fins, seja na escola, na universidade, no trabalho ou na vida pessoal, inclusive para lidar com questões muito humanas, como o sofrimento psíquico.

A OMS (Organização Mundial da Saúde) estima que cerca de 300 milhões de pessoas no mundo sofram com depressão. Somado a isso há o uso excessivo de mídias digitais, fenômeno que reflete a sociedade em que vivemos. “Estamos fragmentados, isolados, não encontramos nas pessoas relações que nos satisfazem. A nossa sociedade não dá conforto para ninguém e vivemos em tensão permanente”, avalia Glauco Arbix, sociólogo e professor titular do Departamento de Sociologia da USP.

É nesse cenário que os brasileiros estão recorrendo à tecnologia, mais precisamente à IA, para suprir suas necessidades psicológicas.

Além do ChatGPT, usado por muita gente que deseja desabafar, ferramentas específicas já foram criadas para dar suporte emocional. Em agosto de 2024, a empresa de telemedicina Vibe Saúde lançou a Vivi, “assistente de IA em saúde mental” que hoje conta com 16 mil usuários.

A IA avalia as mensagens enviadas pelo usuário e sugere um ciclo de cuidado de seis semanas que segue as técnicas da terapia cognitivo-comportamental. De acordo com Felipe Cunha, presidente e cofundador da empresa, os protocolos foram criados por profissionais de saúde, e há ainda uma plataforma de segurança clínica que funciona como uma auditora em tempo real e “pode bloquear uma mensagem que tenha uma conduta clínica não aceitável por parte da inteligência artificial”.

Após oferecer o ciclo terapêutico de seis semanas, a Vivi indica possíveis soluções para as questões levantadas e diz que o contato pode ser retomado a qualquer momento. Se o usuário não precisar da assistência ao longo dos dias, na semana seguinte a própria IA envia uma mensagem no dia e horário previamente combinados. A partir de fevereiro o serviço será cobrado —R$ 2,50 por um pacote de 30 mensagens enviadas pelo usuário, em texto ou áudio.

“Ela [Vivi] não é uma profissional, não substitui o psicólogo e não passa nenhum tipo de diagnóstico ou medicamentos. É uma assistente de suporte emocional para suplementar o trabalho dos profissionais de saúde”, ressalta Cunha.

Alicie Camargo, publicitária de 27 anos, conta que usa o ChatGPT em momentos de ansiedade. Ela avalia que a interação é em geral positiva —por exemplo quando a ferramenta a ajuda a acertar o tom de uma mensagem que deseja enviar a alguém e não sabe como, quando indica exercícios de respiração em momentos de crise e quando aponta algo que ela não enxergaria sozinha em uma situação.

“Mas eu entendo as limitações”, diz ela, citando sugestões oferecidas pela IA que não condizem com a sua personalidade. “Se o problema for cobrar alguém, óbvio que ele [ChatGPT] vai dar a solução de cobrar a atitude, mas emocionalmente eu não estaria pronta para isso. Então o conselho não me serviu de nada.”

A publicitária sabe que a tecnologia não substitui o trabalho de um profissional da psicologia. “Inclusive estou procurando um.”

Um ambiente digital disponível 24 horas por dia pode oferecer alívio em momentos de solidão, mas pesquisadores alertam para o fato de que essas tecnologias são novas e seus efeitos ainda não são conhecidos.

“Se as pessoas podem acessar algo que as fará se sentir menos solitárias porque escutam o que elas têm a dizer, é algo positivo. Mas, a longo prazo, não sabemos ainda se é algo realmente bom”, afirma Christopher Wagstaff, professor sênior na Universidade de Birmingham e autor do artigo “Inteligência Artificial e as relações terapêuticas na saúde mental”.

“Eu gostaria de acreditar que isso nunca irá substituir a interação humana”, acresenta Wagstaff, citando “programas que têm rostos que fingem ouvir, se importar e fazer contato visual de forma empática”.

L., jornalista e redatora publicitária de 21 anos que não quis se identificar, conta que conseguiu contornar o problema das respostas genéricas da tecnologia de forma prática. Acostumada a usar tanto o ChatGPT quanto o Google AI Studio na faculdade e no trabalho, ela diz que desenvolveu técnicas para aprimorar os comandos e, consequentemente, as respostas do robô.

A jovem começou a usar o chatbot para suporte emocional durante um período de luto, após a psicóloga com quem se consultava havia cinco anos morrer. Ela diz ser consciente dos riscos que a IA pode trazer, mas conta que na época foi o único recurso que se via capaz de utilizar, já que não conseguia procurar outro terapeuta. Depois de quatro meses usando a ferramenta, L. diz que se sentiu bem o suficiente para procurar tratamento psicológico e psiquiátrico, retomado há três meses.

Presidente do Conselho Federal de Psicologia, Pedro Paulo Bicalho afirma que a inteligência artificial é bem-vinda como complemento, mas jamais irá substituir um psicólogo no exercício das suas funções clínicas. “É uma ferramenta que tem o limite da palavra manifesta. E nem tudo o ser humano manifesta por palavras, porque nem tudo o que o ser humano sofre é traduzível em palavras”, diz.

A psicóloga Vera Melo conta que usa uma ferramenta de IA como complemento à anamnese, para ajudá-la a enxergar algo que não tenha percebido. Mas também mostra preocupação com a substituição de um profissional qualificado por uma tecnologia. “É uma relação ilusória. Porque a máquina está falando aquilo que você quer ouvir.” Para ela, a presença de uma pessoa de verdade do outro lado e do vínculo que essa interação cria é fundamental para o desenvolvimento da identidade de um sujeito.

Para o sociólogo Glauco Arbix, o uso desenfreado dessas ferramentas pode ter impacto duradouro. “A gente perde pedaços, dimensões, aspectos da nossa humanidade quando a gente se dobra a esse tipo de relacionamento [artificial]. A gente perde a multiplicidade, as contradições, as tensões de quem ama.”



Post Comment

You May Have Missed