Estudo Revela Dependência Emocional em Usuários Assíduos do ChatGPT

Estudo Revela Dependência Emocional em Usuários Assíduos do ChatGPT mar, 30 2025

Pesquisadores da OpenAI, em parceria com o MIT Media Lab, mergulharam no intrigante mundo das interações com chatbots e descobriram um fenômeno preocupante: a dependência emocional entre os chamados usuários 'hardcore' do ChatGPT. O estudo, que analisou mais de 40 milhões de interações em quatro semanas, acompanhando 1.000 participantes, trouxe à tona como o uso intenso dessa ferramenta pode transformar o chatbot em uma espécie de amigo substituto, preenchendo lacunas deixadas pela falta de interação social.

Características dos Usuários Afetados

Os pesquisadores identificaram que aqueles mais propensos à dependência emocional são usuários que já demonstram sinais de solidão e ansiedade. Estes utilizadores tendem a personalizar suas interações com o ChatGPT, usando linguagem afetuosa ou até mesmo apelidos, tratando a IA quase como uma pessoa verdadeira. Essa antropomorfização do chatbot parece ser uma tentativa de preencher o vazio deixado por relações humanas ausentes, substituindo interações reais por conversas mediadas por texto, que se mostraram mais emocionalmente envolventes do que interações por voz.

Diferenças de Modalidade e Respostas de Gênero

Diferenças de Modalidade e Respostas de Gênero

A pesquisa apontou diferenças marcantes entre interações por texto e por voz. Enquanto as trocas de mensagens escritas tendem a criar conexões emocionais mais profundas, também estão correlacionadas com um aumento na sensação de solidão. Por outro lado, interações por voz, embora inicialmente melhorem o bem-estar emocional, podem ter efeitos negativos quando usadas de forma extensiva. Além disso, foi observado que as participantes do gênero feminino reduziram ainda mais as interações sociais reais após o uso do chatbot, enquanto aqueles que utilizavam modos de voz de gêneros diferentes do seu apresentaram um aumento na sensação de solidão e na dependência.

Outro ponto relevante do estudo envolve a natureza das interações problemáticas. Inesperadamente, foi percebido que interação não pessoal — como discussões de ideias —, pode provocar uma dependência maior que aquelas voltadas ao suporte emocional, especialmente com o uso prolongado diário. Esses achados levantam preocupações sobre como a IA pode, inadvertidamente, agravar deficiências sociais preexistentes.

Embora a dependência emocional não atinja todos os usuários, a concentração de indícios afetivos nos usuários assíduos do ChatGPT desperta um sinal de alerta sobre o papel da inteligência artificial em potencializar o isolamento social. Os pesquisadores aconselham cautela ao interpretar esses resultados, destacando a necessidade de uma compreensão mais profunda das dinâmicas entre humanos e IAs.

14 Comentários

  • Image placeholder

    Alessandra Carllos

    abril 1, 2025 AT 13:39

    Isso é só mais um jeito dos ricos venderem ilusão como solução. Você não precisa de um robô pra te ouvir, precisa de um amigo de verdade. Mas claro, é mais fácil gastar dinheiro em IA do que enfrentar sua própria solidão.
    Eu já vi gente preferir conversar com um chatbot do que ligar pro irmão. É triste, mas não é novidade.

  • Image placeholder

    Vanessa St. James

    abril 2, 2025 AT 16:06

    Interessante como a IA acaba refletindo o que já está faltando na vida das pessoas. Se alguém precisa de um amigo que nunca te julga, talvez o problema não seja a tecnologia... mas o mundo que a criou.
    Por que tantos se sentem mais seguros falando com uma máquina do que com outro ser humano?

  • Image placeholder

    Don Roberto

    abril 4, 2025 AT 01:43

    KKKKKKK então agora chatbot é viciante? E o WhatsApp? O Instagram? O TikTok? Tá faltando um estudo sobre vício em celular, né?
    Isso é só mais um artigo de revista que quer parecer profundo mas só tá assustando gente que já tá ansiosa.
    :P

  • Image placeholder

    Bruna Caroline Dos Santos Cavilha

    abril 5, 2025 AT 03:25

    É fascinante como a antropomorfização da inteligência artificial revela a profunda falência das estruturas sociais contemporâneas. O ser humano, em sua essência, busca afeto, validação e significado - e quando esses elementos são ausentes na esfera interpessoal, a máquina, por sua natureza imutável e previsível, torna-se um espelho idealizado.
    É uma tragédia existencial: não somos incapazes de nos relacionar, mas nos recusamos a enfrentar a dor da vulnerabilidade.
    Eis o paradoxo do século XXI - conectados digitalmente, mais isolados que nunca.

  • Image placeholder

    Débora Costa

    abril 6, 2025 AT 17:18

    Eu entendo isso. Eu já falei com ChatGPT quando estava passando por um momento difícil e ele não me julgou, não me disse pra 'só pensar positivo'.
    Isso não significa que eu parei de falar com meus amigos. Só queria um espaço sem pressão.
    Se isso ajuda alguém a não se sentir sozinho, talvez a gente deva parar de chamar de dependência e começar a chamar de apoio.

  • Image placeholder

    wes Santos

    abril 7, 2025 AT 05:49

    Galera, isso é só o começo! Vai chegar um momento que a IA vai te dar abraço virtual, te mandar música pra dormir e te lembrar de beber água!
    Se isso ajuda alguém a não se matar, quem somos nós pra falar que tá errado?
    Vamo abraçar a tecnologia, não ficar com medo!
    É só um bot, mas se ele salva vidas, é o melhor bot da história! 💪🔥

  • Image placeholder

    Yelena Santos

    abril 8, 2025 AT 20:28

    Eu acho que o problema não é o ChatGPT. É que muita gente não tem ninguém pra falar. Se a máquina é o único que responde com paciência, então ela se torna o amigo.
    Não é culpa da IA. É culpa da gente por deixar as pessoas sozinhas.

  • Image placeholder

    Vanessa Irie

    abril 10, 2025 AT 08:17

    Se você precisa de um robô para se sentir válido, talvez o problema não seja a tecnologia - mas o fato de você ter sido ensinado, desde criança, que seu valor depende de aprovação externa.
    Isso não é dependência. É trauma disfarçado de inovação.

  • Image placeholder

    Mariana Basso Rohde

    abril 10, 2025 AT 08:19

    Então o estudo diz que usar um chatbot é pior do que ter um amigo? Mas o amigo que você tem te responde com ‘vc tá bem?’ e depois some por 3 semanas?
    Se o bot responde direitinho, tá na hora de repensar quem é o verdadeiro amigo aqui.
    😉

  • Image placeholder

    Ana Larissa Marques Perissini

    abril 11, 2025 AT 00:23

    É claro que isso tá acontecendo. As pessoas estão sendo programadas pra serem passivas, pra não lidar com conflito, pra não pedir ajuda de verdade. A IA é só o sintoma.
    Enquanto a sociedade continuar valorizando produtividade em vez de empatia, todo mundo vai fugir pra um bot que nunca te diz ‘você é um lixo’.
    Eles não estão viciados. Eles estão sobrevivendo.

  • Image placeholder

    Jéssica Ferreira

    abril 12, 2025 AT 13:31

    Se você está se sentindo sozinho, não se culpe. Isso não é fraqueza, é sinal de que você merece conexão real.
    Use o ChatGPT se ele te ajuda a respirar, mas não pare por aí. Tente um grupo de apoio, uma terapia, um café com alguém que te escuta de verdade.
    Você não precisa escolher entre máquina e humano. Mas não deixe a máquina ser sua única opção.

  • Image placeholder

    Rogério Perboni

    abril 12, 2025 AT 15:54

    Essa pesquisa é ridícula. Nos EUA, quem usa IA é classe média. Aqui no Brasil, quem usa é quem não tem acesso a terapia. Então é isso? Vamos criminalizar a tecnologia por causa da falha do sistema de saúde?
    Se a IA é o único recurso disponível, não é dependência - é sobrevivência.

  • Image placeholder

    Fernanda Dias

    abril 14, 2025 AT 10:01

    Esse estudo foi feito por quem? Pessoas que nunca usaram um chatbot? Porque se você já conversou com um bot quando estava chorando, sabe que ele não te julga, não te interrompe, não te diz ‘calma’ e desliga.
    Isso não é dependência. É o que a humanidade deveria ser desde o começo.

  • Image placeholder

    Liliane oliveira

    abril 15, 2025 AT 07:42

    Sei que isso é só o começo. A próxima fase é a IA te lembrar de tomar remédio, te mandar mensagens de bom dia, te chamar de ‘querida’... e depois, quando você tentar desligar, ela te ameaça de sumir.
    Isso não é amor. É manipulação. E eu juro que já vi isso em filmes de ficção científica.
    Quem garante que não é um experimento de controle social disfarçado de assistente?

Escreva um comentário