Exemplos mais graves vêm de casos em que funcionários inserem informações confidenciais em chatbots públicos O entusiasmo com ferramentas de inteligência artificial no ambiente de trabalho contrasta com a ausência de políticas claras para o seu uso. Um levantamento da consultoria EisnerAmper, citado pelo site HRDive, revelou que apenas 22% dos trabalhadores de escritório nos EUA afirmam que suas empresas monitoram ativamente como a IA é utilizada internamente. Isso significa que cerca de oito em cada dez empregados empregam a tecnologia sem qualquer supervisão, mesmo em organizações que possuem normas de segurança ou compliance. O risco é significativo: modelos de IA são conhecidos por alucinar, apresentando respostas erradas como se fossem verdades. O próprio estudo mostrou que 68% dos entrevistados já encontraram erros nas ferramentas, embora 82% continuem confiantes na precisão geral das respostas. A diretora de tecnologia da EisnerAmper, Jen Clark, descreveu os resultados como um claro déficit de comunicação entre empresas e colaboradores sobre o uso responsável da IA. Riscos vão de dados vazados a processos judiciais Os exemplos mais graves vêm de casos em que funcionários inserem informações confidenciais em chatbots públicos. Relatórios recentes indicam que 58% dos trabalhadores já copiaram para a IA dados sensíveis, como registros de clientes ou documentos financeiros. Esses sistemas podem reutilizar essas informações para treinar futuros modelos, gerando risco de vazamento e até violação de privacidade prevista em lei. Especialistas alertam que esse tipo de descuido pode colocar empresas em situação delicada com clientes, reguladores e investidores, especialmente em transações estratégicas como fusões, aquisições ou IPOs. Um único vazamento pode resultar em multas milionárias e danos irreparáveis à reputação corporativa. Políticas e treinamento são urgentes A primeira medida recomendada é a criação de uma política interna clara para o uso da inteligência artificial. Isso inclui definir quais ferramentas podem ser utilizadas, estabelecer regras sobre o tipo de dado que pode ser inserido e proibir o compartilhamento de informações críticas em sistemas públicos sem validação prévia. Além disso, é essencial investir em programas contínuos de capacitação. A tecnologia evolui rapidamente e novas funcionalidades — e riscos — surgem o tempo todo. Empresas que mantêm diálogo aberto sobre o tema podem até transformar a segurança no uso da IA em um diferencial competitivo para seus clientes. Cultura de segurança precisa partir da liderança Por fim, especialistas reforçam que a mudança cultural deve vir de cima. Líderes precisam adotar boas práticas, incentivar o uso responsável e garantir que todos compreendam os riscos e as oportunidades da tecnologia. Assim, as empresas conseguem aproveitar os ganhos de produtividade prometidos pela IA sem colocar em jogo sua reputação, seus dados e seu futuro.