Em tempos em que a pressa por eficiência pode levar a descuidos fatais, a mensagem para líderes é clara: não basta adotar IA, é preciso governança O uso de chatbots de inteligência artificial no dia a dia já virou hábito para muitos profissionais. O problema é que, em busca de respostas rápidas, uma parcela preocupante dos trabalhadores está digitando informações altamente sensíveis nessas ferramentas — de senhas a dados financeiros internos. O resultado: um risco crescente de falhas de segurança, violações legais e dores de cabeça para líderes e equipes de TI. Uma pesquisa realizada pela empresa suíça SmallPDF com mil funcionários nos Estados Unidos expõe a dimensão do problema. Quase um em cada cinco entrevistados admitiu já ter inserido credenciais de login em sistemas de IA. Pior: 43% desses incluíram senhas de acesso ao e-mail corporativo, abrindo caminho para potenciais ataques de phishing, invasões e vazamentos de dados. O que os funcionários estão entregando às IAs O levantamento mostra um cenário alarmante. Além de senhas, 28% dos trabalhadores compartilharam informações financeiras internas de suas empresas, e 18% chegaram a digitar credenciais bancárias em chatbots. Outros 38% confessaram inserir detalhes de produtos ainda não lançados, enquanto o mesmo percentual revelou ter colocado dados pessoais de colegas de trabalho em sistemas de IA. Em situações práticas, isso significa que um estagiário de marketing pode expor informações de um lançamento estratégico ao pedir ideias para campanhas, ou que um gestor de RH pode inserir nomes e históricos de colaboradores em busca de conselhos sobre conflitos internos. Ver todos os stories 6 hábitos que sabotam seu crescimento O nordestino que ousou fazer o impossível O que está em jogo com a 'PEC da Blindagem' Uma verdade sobre suas assinaturas de streaming que você não vê Boninho, The Voice e a lição da reinvenção As consequências legais e éticas Esse tipo de comportamento é especialmente arriscado porque muitas empresas de IA utilizam as entradas de usuários como dados de treinamento, o que aumenta a chance de informações sensíveis reaparecerem em respostas a outros usuários. Além disso, confiar dados corporativos a terceiros sempre abre margem para falhas de proteção ou usos éticos questionáveis. Casos de 'vazamentos' já ocorreram, inclusive envolvendo sistemas de grandes players como a Microsoft. Não à toa, especialistas como MJ Jiang, da Credibly, alertam que muitas empresas ignoram custos e implicações éticas do uso de IA, sem responder a uma pergunta simples: quem é responsabilizado quando uma falha acontece? A adoção silenciosa e fora do radar O risco cresce ainda mais quando se considera que muitos profissionais usam ferramentas de IA não aprovadas pela empresa. Segundo pesquisa da BBC, metade dos trabalhadores do conhecimento já recorreu a soluções próprias, mesmo em empresas que proibiam ou restringiam o uso de IA. Nesses casos, além da exposição dos dados, há outro problema: a falta de rastreabilidade. Se informações sigilosas forem inseridas em uma IA não homologada, pode não haver registro ou trilha de auditoria para investigar eventuais incidentes. Como as empresas podem se proteger O caminho para reduzir esses riscos passa por treinamento contínuo. A pesquisa da SmallPDF revelou que 70% dos profissionais nunca receberam orientação de seus empregadores sobre como usar IA com segurança. Empresas que desejam proteger seus dados precisam investir em capacitação, reforçar a conscientização sobre riscos e atualizar treinamentos regularmente, já que a tecnologia avança rapidamente. Além disso, é fundamental estabelecer políticas claras de uso, determinando quais ferramentas são permitidas, quais informações não devem ser digitadas em sistemas de IA e como monitorar o cumprimento dessas regras. Em tempos em que a pressa por eficiência pode levar a descuidos fatais, a mensagem para líderes é clara: não basta adotar IA, é preciso governança.