Após demitir 9 mil funcionários da divisão de games, Microsoft enfrenta críticas por abordagem insensível de executivo que recomendou uso de IA para lidar com o impacto emocional do desligamento. A Microsoft anunciou recentemente o corte de cerca de 9 mil postos de trabalho, concentrados principalmente na divisão Xbox. Embora a empresa tenha citado 'reestruturação' como justificativa, documentos internos e declarações pouco cuidadosas indicam que o avanço da inteligência artificial teve papel central nesse movimento. Um desses episódios veio à tona com um post nas redes sociais do executivo Matt Turnbull, do Xbox Game Studios. Ao tentar demonstrar empatia com os funcionários afetados, Turnbull acabou virando alvo de críticas por sugerir que os demitidos usassem ferramentas como ChatGPT e Copilot para lidar com o trauma da perda do emprego. De boas intenções ao desastre de comunicação Turnbull começou sua mensagem com empatia: 'Esses são tempos desafiadores. Se você está enfrentando uma demissão ou se preparando silenciosamente para uma, você não está sozinho.' Até aí, tudo bem. O problema surgiu na sequência, quando recomendou uso de IAs generativas para lidar com a carga emocional das demissões. Entre os prompts sugeridos por ele estavam: 'Estou lutando com síndrome do impostor após ser demitido. Pode me ajudar a reformular essa experiência para lembrar do meu valor?' Além disso, incentivou o uso de IA para redação de currículos, planejamento de carreira e networking. Uma reação pública imediata e negativa A repercussão foi rápida — e negativa. Usuários no Reddit e em outras plataformas acusaram o executivo de minimizar o sofrimento real dos profissionais afetados. Um dos comentários mais irônicos dizia: 'Se estão sem pão, que comam bolo. Ou melhor, que imprimam uma receita gerada por IA.' A comparação com Marie Antoinette foi inevitável: um gesto simbólico de desconexão com a realidade de quem está na base da pirâmide corporativa. Quando o conselho vira risco Além de insensível, o conselho de Turnbull contradiz o que dizem psicólogos e especialistas em saúde mental. Diversos estudos já apontaram que IA não deve substituir apoio emocional profissional, podendo inclusive induzir conselhos perigosos ou desinformação. Reportagem recente do The New York Times revelou que alguns usuários passaram a seguir conselhos de IA de forma obsessiva, entrando em espirais de ansiedade ou crenças conspiratórias alimentadas por respostas automatizadas. O aprendizado para líderes em tempos difíceis Diante da repercussão, Turnbull apagou a publicação. Mas o estrago reputacional já estava feito — e as lições, deixadas: Demissões exigem tato, empatia e comunicação cuidadosa. Ferramentas de IA não substituem apoio humano, especialmente em momentos de crise emocional. Recomendações de saúde mental devem vir de profissionais qualificados, não de executivos bem-intencionados. Mais do que nunca, as lideranças corporativas precisam entender que tecnologia, por mais avançada que seja, não pode ser usada para preencher o vazio deixado por decisões humanas difíceis.