A ansiedade provocada pela inteligência artificial generativa no ambiente corporativo não é irracional. Pelo contrário, trata-se de uma resposta profundamente lógica do nosso sistema nervoso diante de mudanças abruptas e ameaças percebidas.
Essa constatação vem de um artigo publicado pela Harvard Business Review, assinado pela especialista em saúde mental no trabalho Morra Aarons-Mele, que investiga por que a IA desperta sentimentos tão intensos em profissionais de todos os níveis.
window._taboola = window._taboola || [];
_taboola.push({
mode: ‘organic-thumbs-feed-01-stream’,
container: ‘taboola-mid-article-saiba-mais’,
placement: ‘Mid Article Saiba Mais’,
target_type: ‘mix’
});
A velocidade com que a tecnologia está sendo implementada nas organizações cria um cenário em que muitos líderes se veem diante de um paradoxo: reconhecem o potencial da IA para liberar tempo das tarefas rotineiras e permitir maior foco em estratégia e criatividade, mas simultaneamente sentem que suas carreiras e as de seus times estão ameaçadas de maneiras inéditas. “Nunca mais preciso encarar uma página em branco”, celebrou um diretor de estratégia ao descrever sua relação com a ferramenta, segundo relato citado no artigo.
Três gatilhos principais da ansiedade
Segundo a autora, existem três razões centrais que explicam por que a IA provoca reações emocionais tão fortes no ambiente de trabalho. A primeira delas é a falta de controle sobre a velocidade das mudanças. O ritmo de desenvolvimento da tecnologia por empresas como Anthropic, OpenAI, Microsoft e Meta acontece em escala muito maior do que a capacidade de regulação e adaptação dos profissionais. Enquanto a IA parece ficar mais inteligente a cada dia, os trabalhadores sentem que não conseguem acompanhar essa evolução.
Essa sensação de descontrole ativa respostas biológicas de ameaça, liberando hormônios como adrenalina e cortisol. No ambiente corporativo, isso pode se manifestar como excesso de trabalho, microgerenciamento, mau-humor ou até mesmo a evitação de reuniões e situações desconfortáveis.
Um exemplo ilustrativo citado pela publicação vem do jornalista Brian Merchant: uma executiva referiu-se casualmente a um modelo de ChatGPT como “nosso diretor de marketing” na frente do atual CMO da empresa, alegando que a ferramenta tinha desempenho superior. “Não tinha — produzia lixo. Mas o verdadeiro dano foi ver alguém que dedicou décadas à sua área ser humilhado, não por uma máquina, mas por uma colega usando-a como arma”, relatou uma fonte ao jornalista.
O segundo gatilho identificado é a perda de significado no trabalho. A IA pode minar valores fundamentais que os profissionais associam às suas atividades, como autonomia, criatividade e senso de propósito. Dr. Ziyaad Bhorat, que estuda a história da ansiedade humana diante da automação, explica que ver ferramentas capazes de realizar tarefas com cada vez menos participação humana é “simultaneamente empolgante e perturbador, porque indica um certo nível de domínio e um correspondente nível de dependência” dessas tecnologias.
O terceiro fator envolve emoções desconfortáveis que muitos preferem evitar. A lista de sentimentos provocados pela implementação de IA inclui: medo de perder relevância profissional, preocupação com a segurança financeira, raiva de demandas confusas relacionadas à implementação da tecnologia, frustração quando a IA não corresponde às expectativas criadas, solidão por ver máquinas substituindo interações humanas e desconfiança da liderança organizacional sobre os planos reais para a tecnologia.
Transformando ansiedade em clareza estratégica
A boa notícia é que compreender a própria ansiedade pode se tornar uma vantagem competitiva para líderes. O processo começa com a autoavaliação honesta: como você se sente em relação à IA? O que o empolgam e o que o preocupa? Você confia que sua empresa tomará boas decisões na implementação da tecnologia? Como sua equipe está reagindo?
Essas perguntas ajudam a identificar não apenas as emoções, mas também os valores que estão sendo ameaçados. Se você sente raiva quando o conselho de administração exige adoção rápida de IA a qualquer custo, pergunte-se qual valor está sendo desafiado. Justiça? Confiança? Autonomia? Identificar esses valores permite criar respostas estratégicas, em vez de reações impulsivas. Você pode, por exemplo, propor uma implementação gradual ou uma análise mais profunda, em vez de simplesmente resistir ou ignorar a preocupação.
A flexibilidade emocional (capacidade de tolerar a ansiedade enquanto age de acordo com seus valores) torna-se essencial nesse cenário. Nem toda emoção exige ação imediata, mas todas merecem ser reconhecidas. Ignorar ou suprimir sentimentos simplesmente não funciona: eles acabam se manifestando de outras formas, seja através de sintomas físicos, comportamentos prejudiciais, esgotamento ou tomadas de decisão equivocadas.
Ação como antídoto
Quando chega o momento de agir, as possibilidades são variadas. Um plano de ação pode envolver desde usar sua influência para mudar políticas de implementação de IA na organização até investir em capacitação pessoal para entender melhor a tecnologia. Pode incluir estabelecer conversas francas com colegas e equipes, ou priorizar atividades que enfatizem conexão humana.
O ponto central, segundo o artigo da HBR, é que tomar ações comprometidas representa a forma mais poderosa de transformar ansiedade em ferramenta de liderança. Como afirmou a autora Brené Brown em citação recente: “Se você não está se sentindo perturbado, provavelmente não está prestando atenção.”
A única maneira de conduzir a revolução da IA favorecendo a humanidade é honrando nosso traço mais humano: as emoções, por mais desconfortáveis que sejam. A inovação traz progresso e também sentimentos intensos.
–borderColorFollowMe: #4a4a4a;
–textColorFollowMe: #005880;
}






