Pular para o conteúdo principal
são e salvo
Normas Regulamentadoras

NR-1 2025: como a IA ajuda na gestão de riscos psicossociais

A NR-1 agora exige gestão de riscos psicossociais no PGR. Entenda o que a norma realmente pede, o que a IA consegue ajudar e o que ela não resolve.

10 min de leitura30 de janeiro de 2026São e Salvo
Inteligência Artificial
NR-1
Futuro do Trabalho
NR-1 2025: como a IA ajuda na gestão de riscos psicossociais

Vou ser direto: a maioria das empresas brasileiras não faz ideia de como começar a gerenciar riscos psicossociais. E eu não culpo ninguém. Até pouco tempo, a gente tratava segurança do trabalho como algo quase exclusivamente físico: queda, choque elétrico, esmagamento, exposição a produtos químicos. Saúde mental ficava no máximo num cartaz de setembro amarelo colado no refeitório.

Agora a NR-1 mudou. E a mudança é séria.

O que a NR-1 realmente exige

Vamos ao texto. A NR-1 passou a incluir fatores psicossociais no escopo do Programa de Gerenciamento de Riscos (PGR). Isso significa que a empresa precisa, de fato:

  • Identificar os fatores psicossociais presentes no ambiente de trabalho (sobrecarga, assédio, falta de autonomia, conflitos, insegurança sobre o emprego)
  • Avaliar a magnitude desses riscos
  • Definir medidas de prevenção e controle
  • Documentar tudo isso no PGR, do mesmo jeito que a gente já faz com risco químico ou ergonômico

Repare que não é opcional e não é "programa de bem-estar". É gestão de risco, com a mesma lógica de hierarquia de controle que a gente aplica pra qualquer outro perigo. Primeiro elimina a fonte, depois controla, depois protege o trabalhador.

Na prática, o desafio é gigante. Risco físico a gente mede com instrumento: decibelímetro, dosímetro, termômetro de globo. Risco psicossocial não tem aparelho. É subjetivo, depende de contexto, muda de pessoa pra pessoa. Como é que você faz inventário de risco de algo assim?

Os métodos tradicionais e seus limites

O caminho clássico é aplicar questionários validados. O COPSOQ (Copenhagen Psychosocial Questionnaire) é provavelmente o mais usado no mundo pra isso. No Brasil, temos versões adaptadas e também o HSE Management Standards, que algumas consultorias usam.

Funciona? Até certo ponto. Você aplica o questionário, tabula os resultados, identifica que o setor de logística tá com pontuação alta em "demanda emocional" e o administrativo tá mal em "autonomia". Beleza, já é alguma coisa.

Mas tem problemas reais com essa abordagem:

  • As pessoas mentem. Ou pelo menos omitem. Quem vai escrever num formulário da empresa que o chefe é assediador?
  • É uma fotografia, não um filme. Você aplica uma vez por ano e torce pra que nada mude no intervalo.
  • A análise é genérica. Saber que "o setor X está estressado" não te diz muito sobre o que está causando o estresse.
  • Demanda tempo e gente qualificada pra interpretar. Muitas empresas aplicam o questionário e nunca fazem nada com os dados.

É aqui que a inteligência artificial começa a fazer sentido. Não como solução mágica, mas como ferramenta pra lidar com volume, frequência e complexidade que o ser humano sozinho não dá conta.

O que a IA consegue fazer de verdade

Quando falo de IA nesse contexto, estou falando de coisas concretas, não de robô terapeuta. Vou separar o que já existe e funciona razoavelmente bem do que ainda é mais promessa que realidade.

Análise de sentimento em pesquisas e canais internos

Ferramentas como o Workday Peakon e o Culture Amp usam processamento de linguagem natural pra analisar respostas abertas de pesquisas de clima. Em vez de alguém ler 500 respostas discursivas e tentar categorizar manualmente, o sistema identifica temas recorrentes, tom emocional e mudanças ao longo do tempo.

Isso é útil porque as respostas abertas costumam ser mais honestas que as de múltipla escolha. A pessoa marca "satisfeito" na escala, mas no campo aberto escreve "o ambiente tá insuportável desde que trocaram a gerência". A IA pega essas contradições.

Pesquisas de pulso adaptativas

Em vez de um questionário enorme uma vez por ano, dá pra fazer pesquisas curtas (3-5 perguntas) toda semana ou quinzena. A IA adapta as perguntas com base nas respostas anteriores. Se alguém indica cansaço, as próximas perguntas investigam melhor: é carga de trabalho? É problema com a liderança? É falta de reconhecimento?

O ganho aqui é frequência. Você passa a ter uma leitura contínua do clima, não uma foto anual. Dá pra identificar deterioração rápido e agir antes que vire afastamento.

Detecção de padrões em dados de RH

A empresa já tem um monte de dados que ninguém cruza: absenteísmo, rotatividade, horas extras, pedidos de transferência, reclamações no canal de ética. Isolados, cada dado não diz muito. Mas um algoritmo que cruza tudo pode identificar padrões. Tipo: o setor que teve três saídas voluntárias no trimestre, aumento de 40% em atestados e queda nas avaliações de desempenho provavelmente tem um problema psicossocial sério.

Não precisa nem de ferramenta sofisticada. Uma análise bem feita em planilha já ajuda. Mas quando a empresa é grande, com dezenas de unidades, a IA automatiza isso e sinaliza pra onde olhar primeiro.

O que a IA não faz (e nem deveria)

Preciso ser honesto aqui porque tem muito fornecedor vendendo milagre.

IA não substitui psicólogo organizacional. Não substitui escuta ativa. Não resolve assédio moral. Não conserta liderança tóxica. Ela pode te mostrar onde o problema está, mas quem resolve é gente. Gente qualificada, com tempo e autonomia pra agir.

Tem empresa que acha que comprar uma plataforma de "bem-estar digital" resolve. Coloca lá um app de meditação, um chatbot que pergunta "como você está se sentindo hoje?" e considera o risco gerenciado. Não é assim que funciona. Se o problema é que o supervisor humilha as pessoas na frente da equipe, nenhum app de mindfulness vai resolver.

Outra coisa: cuidado com monitoramento invasivo. Existem ferramentas que analisam e-mails, mensagens, tempo de tela, movimentação. Isso beira a vigilância e pode ter efeito contrário, aumentando o estresse. Qualquer solução de IA precisa ser transparente sobre o que coleta e garantir anonimato. A LGPD não é opcional.

Como integrar ao PGR na prática

Vamos ao que interessa. Você precisa incluir riscos psicossociais no PGR. Aqui vai uma abordagem que funciona:

Primeiro, faça um levantamento preliminar. Pode ser com o COPSOQ adaptado ou outro instrumento validado. Se a empresa tiver orçamento, contrate uma consultoria de psicologia organizacional pra conduzir. Esse levantamento é seu inventário de riscos psicossociais.

Segundo, categorize os fatores identificados. A norma ISO 45003 (que é o guia internacional pra gestão de riscos psicossociais) organiza em três grupos: organização do trabalho (carga, horário, ritmo), fatores sociais (relacionamento, liderança, assédio) e ambiente de trabalho (condições físicas que afetam o psicológico, como ruído excessivo ou isolamento).

Terceiro, defina medidas de controle. Aqui é que a IA pode ajudar no monitoramento contínuo: pesquisas de pulso, análise de indicadores de RH, acompanhamento de eficácia das ações. Mas as medidas em si são organizacionais: redesenhar processos, treinar liderança, criar canais de denúncia efetivos, ajustar carga de trabalho.

Quarto, monitore. É aqui que o ciclo se fecha. A IA te dá a capacidade de acompanhar se as medidas estão funcionando sem precisar esperar a próxima pesquisa anual.

Privacidade não é detalhe

Qualquer ferramenta que trate dados de saúde mental precisa seguir a LGPD de forma rigorosa. Dados de saúde são dados sensíveis, com proteção reforçada. Na prática:

  • Resultados devem ser sempre agregados. Nenhum gestor pode ver respostas individuais.
  • Grupos menores que 5 pessoas não devem gerar relatório separado (risco de identificação).
  • O trabalhador precisa saber o que está sendo coletado e consentir.
  • Os dados devem ser usados exclusivamente para melhorar condições de trabalho, nunca para avaliação de desempenho ou decisão disciplinar.

Se o trabalhador não confiar que os dados estão protegidos, ele não vai responder com sinceridade. E aí a ferramenta mais sofisticada do mundo vira inútil.

Por onde começar

Se a sua empresa nunca fez nada em gestão de riscos psicossociais, não precisa começar comprando plataforma de IA. Começa pelo básico:

Aplica um questionário validado. Analisa os resultados. Identifica os dois ou três problemas mais críticos. Implementa ações concretas. Mede se funcionou.

Quando esse ciclo estiver rodando e a empresa tiver maturidade pra coletar dados de forma contínua, aí sim a IA agrega valor de verdade: automatizando a análise, aumentando a frequência de leitura e ajudando a priorizar onde investir energia.

O importante é não confundir ferramenta com solução. IA ajuda a enxergar o problema. Resolver depende de decisão da liderança, de recursos, de mudança de cultura. E isso, por enquanto, nenhum algoritmo faz sozinho.

Compartilhar este artigo:

Gostou do conteúdo?

Acesse a plataforma São e Salvo e tenha acesso a treinamentos completos em SST.