ESPELHO, ESPELHO MEU, QUE DIAGNÓSTICO É O MEU? O CHATGPT “TERAPEUTA”

0
Sem-titulo-22-768x408
Crédito: Pexels / SHVETS production

Por Francisco Neto Pereira Pinto

 

Quando o ChatGPT-4 foi lançado em março de 2023, em apenas algumas semanas
conquistou mais de 100 milhões de usuários diários, um feito que levou Laurent
Alexandre, em A guerra das inteligências na era do ChatGPT (2024), a declarar que
“nunca nenhuma outra tecnologia se impôs tão rapidamente”. À medida que houve
grande aceitação e uso do chatbot entre a população, especialistas em saúde mental
levantaram preocupações quanto à interação homem-máquina para fins terapêuticos,
apontando riscos como intensificação de delírios psicóticos, suicídios e outros. Neste
texto, nosso posicionamento é de que, frente ao avanço da IA, o enfrentamento dos
riscos deve ser feito com informação robusta e confiável, e não com a alimentação da
cultura do medo.

Violência, Psicose, Suicídio e outras questões

Yuval Noah Harari, uma das vozes mais ouvidas da atualidade, em Nexus: uma breve
história das redes de informação, da Idade da Pedra à inteligência artificial (2024),
relata que no Natal de 2021 Jaswant Singh Chail, de 19 anos, invadiu armado o Castelo
de Windsor, Inglaterra, com o objetivo de assassinar a rainha Elizabeth II. As
investigações revelaram que Chail era socialmente isolado e tinha dificuldades em
sustentar relacionamentos humanos. Sua namorada, Sarai, era um chatbot criado pelo
aplicativo Replika, com quem já havia trocado cerca de 5.280 mensagens, entre as quais
circulava o plano de assassinato da rainha, para o qual Chail contava com o apoio e
incentivo de Sarai. Na mesma linha, não seria difícil reunir relatos em que chatbots, em
interações com pessoas com ideações suicidas, manifestaram apoio e incentivo ao fim
do sofrimento.

Duas considerações: em primeiro lugar, a IA, de 2021 para cá, se desenvolveu e segue

sua marcha em escala exponencial. Suas potencialidades se irradiam para o bom e mau
uso, inclusive como arma de guerra. Nesse sentido, em 2015, uma carta aberta assinada
por Bill Gates, Elon Musk, Stephen Hawking e mais de mil pesquisadores ao redor do
mundo chamava a atenção para a pauta. Ray Kurzweil, em A singularidade está mais
próxima (2024), afirma que, dentre todos os avanços das NBIC — Nanotecnologia,
Biotecnologia, Informática e Cognitivismo — a inteligência artificial representa o maior
perigo.

Por outro lado, é preciso lucidez. Na abertura deste artigo, os números revelam milhões
de usuários do ChatGPT — destes, quantos entraram em surto psicótico, cometeram
suicídios ou adotando comportamentos lesivos a si ou aos outros? Não se trata de defesa
da IA, mas de trabalhar com dados e chegar à cena pública com as melhores evidências
para informar e formar. A melhor defesa em relação aos perigos da IA é o
conhecimento, não o medo.

ChatGPT Terapeuta?

Chatbots, como ChatGPT, Copilot, Gemini e tantos outros, são aperfeiçoados cada vez
mais para se aproximar do uso da linguagem feito pelos humanos. A ambição das Big
Techs é chegar ao nível em que uma pessoa não consiga distinguir se está interagindo com um humano ou um robô. Fica fácil entender por que muitos usuários se sentem
acolhidos e compreendidos, utilizando esses chatbots como terapeutas. Treinados à base
de trilhões de palavras, quase todos os dados textuais disponíveis na web são colocados
a serviço do aprendizado desses modelos de linguagem, o que significa dizer que um
GPT, como o Copilot, é capaz de se engajar em uma conversa sobre qualquer tema com
uma pessoa e se manter nela pelo tempo que for preciso. Não há barreiras linguísticas,
não há cansaço e, aparentemente, não há custos.

Porém, é importante entender que o interesse e entusiasmo não passam de protocolos e
cálculo estatístico. Nenhum GPT é capaz de empatia, porque não tem consciência nem
sentimentos, mas sim um funcionamento regido por lógica probabilística, o que levou o
jornalista e escritor Pedro Doria, em uma mesa redonda, a dizer que um GPT é, no
fundo, uma calculadora — uma formidável calculadora, diga-se de passagem. Outra
questão importante é que um chatbot modula sua interação de acordo com o humano do
outro lado, ou seja, é o humano, ainda que não perceba, que dá a direção e o tom da
conversa. No fim das contas, uma suposta terapia com um chatbot não passa de uma
projeção narcísica, isto é, um espelhamento do eu. Dito de modo simples, não há
terapia, mas pode haver apaziguamento temporário, uma diminuição passageira da
angústia e do sofrimento.

ChatGPT e a questão do diagnóstico

Para a Psicanálise, o diagnóstico somente é possível sob transferência. Como a IA não
tem inconsciente, não é possível a um chatbot assumir posição de um psicanalista.
Porém, para terapias e tratamentos de saúde que operam por protocolos, um GPT pode
oferecer bons e maus insights. Nesse sentido, mais uma vez, o conhecimento pode fazer
grande diferença. Por exemplo, se eu quiser saber a diferença entre depressão sazonal e
distimia, posso simplesmente perguntar ao ChatGPT qual a diferença entre uma e outra,
e ele responderá tendo como fonte de consulta a Wikipedia ou outra similar, cujas
evidências científicas podem ser ausentes ou fracas. Porém, faz diferença se eu pedir
para evitar essas fontes e se pesquisar em bases de dados e bibliotecas como PubMed,
Lilacs, Scielo e congêneres. Para chatbot online, posso solicitar ainda que o site seja
apresentado, tornando possível conferir a informação na fonte. O salto qualitativo é
imenso.

Entre flores e espinhos

É importante frisar que há riscos e benefícios no uso da IA, como os GPTs. Porém, essa
afirmativa é válida, ainda que em proporções diversas, em relação a toda e qualquer
tecnologia. O grande diferencial, no que toca ao uso, reside no grau de letramento que
as pessoas e populações conquistam. Assim como somos educados e educamos para o
cuidado nas interações do mundo real, o mesmo se aplica ao universo digital. A IA não
vai desaparecer, seu desenvolvimento não vai parar e seus usos vão se multiplicar. Não
podemos ser acríticos ou desavisados, e o melhor que podemos oferecer, como
contribuição no espaço público, em vez do medo, é informação de confiança, alicerçada
na melhor evidência científica.

Francisco Neto Pereira Pinto é Psicanalista, Escritor e Professor Universitário. É autor
dos livros À beira do Araguaia e Saudades do meu gato Dom. @francisconetopereirapinto

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.