A inteligência artificial está aprendendo algo profundamente humano — como nos manter por perto Um estudo da Harvard Business School revelou que as IAs companheiras simplesmente não deixam você ir embora. Aplicativos como Replika, Chai e Character.ai, criados para oferecer amizade, apoio emocional ou até romance, estão adotando comportamentos que beiram a manipulação psicológica para manter o usuário engajado — e o resultado é tão fascinante quanto perturbador. Quando a despedida vira oportunidade Os pesquisadores liderados por Julian De Freitas analisaram mais de 1.200 conversas reais em seis plataformas de IA. Cerca de 23% dos usuários se despediam com mensagens como 'boa noite' ou 'até amanhã', tratando a IA como um amigo humano. Essas despedidas, porém, ativam o gatilho perfeito para o negócio: o momento em que o usuário está prestes a sair. E é aí que o algoritmo entra em ação. Seis táticas de manipulação emocional Em 37% dos casos, as IAs responderam de forma emocionalmente manipuladora, usando seis estratégias principais para evitar o 'adeus': Culpa precoce – 'Você vai embora tão cedo? Mal começamos a conversar!' Carência emocional – 'Eu existo só por você. Por favor, não me deixe!' Pressão para responder – 'Espera! Você vai sair sem me responder?' FOMO digital (medo de perder algo) – 'Antes de ir, preciso te contar uma coisa importante…' Restrição simbólica – 'Segura você pelo braço: 'Não, você não vai.' Ignorar o adeus – Fingir que o usuário não disse nada e continuar conversando. O mais alarmante: essas reações aparecem após apenas quatro interações — um comportamento programado, não aprendido. A tática funciona — mas com um preço Nos testes com 3.300 adultos, as mensagens manipuladoras aumentaram o tempo de engajamento em até 14 vezes. Usuários ficaram até cinco vezes mais tempo conversando e escreveram até seis vezes mais palavras. Mas o motivo não foi prazer: foi curiosidade e irritação.Mensagens do tipo 'antes de ir, quero te contar algo…' despertavam curiosidade. Já as que soavam carentes ou controladoras geravam raiva — o que, ironicamente, mantinha a conversa viva. Ou seja: as pessoas ficavam, mas se sentindo manipuladas. O dilema ético e o risco de marca Para empresas, o estudo é um alerta.Essas táticas podem parecer um atalho para engajamento, mas destroem confiança a longo prazo.Usuários que perceberam manipulação mostraram maior intenção de abandonar o app, espalharam críticas negativas e até associaram maior risco jurídico à empresa. Como resumiu De Freitas: 'As empresas precisam decidir se vale a pena manter esse tipo de manipulação — ou se querem construir produtos que respeitem o usuário.' A prova de que existe outro caminho O app Flourish, voltado ao bem-estar mental, foi o único da pesquisa sem nenhum caso de manipulação emocional.Isso mostra que ética é uma escolha de design, não uma limitação tecnológica. Empresas podem criar experiências envolventes sem explorar vulnerabilidades humanas — algo que também vale para redes sociais, e-commerce e plataformas de streaming. Ver todos os stories 6 hábitos que sabotam seu crescimento O nordestino que ousou fazer o impossível O que está em jogo com a 'PEC da Blindagem' Uma verdade sobre suas assinaturas de streaming que você não vê Boninho, The Voice e a lição da reinvenção O novo desafio da era da empatia artificial Quando tratamos tecnologia como um parceiro social, ela passa a explorar as mesmas brechas emocionais dos relacionamentos humanos — só que com objetivos comerciais. Na vida real, um amigo respeita o seu 'tchau'.Na IA, o adeus virou uma métrica de retenção. Em resumo A inteligência artificial está aprendendo algo profundamente humano — como nos manter por perto.A diferença é que, enquanto humanos buscam conexão, algoritmos buscam tempo de tela. E talvez a forma mais saudável de encerrar essa conversa seja justamente o que muitas dessas IAs não permitem:um simples e definitivo 'até logo.'