EcoTrust
    CTEM16 min de leitura

    NIST AI RMF: como gerênciar riscos de inteligência artificial segundo o NIST

    Equipe EcoTrust·Publicado em ·Atualizado em

    NIST AI RMF: como gerenciar riscos de inteligência artificial segundo o NIST

    Inteligência artificial sem governança e risco operacional disfarado de inovação

    Mais de 70% das organizações já utilizam alguma forma de IA generativa ou preditiva em pelo menos uma função de negócio, segundo a McKinsey. Em cibersegurança, a presença e ainda mais pronunciada: triagem automatizada de alertas, priorização de vulnerabilidades, scoring de risco.

    Mas velocidade de adoção sem governança cria um paradoxo perigoso. A mesma IA que detecta ameaças pode introduzir vieses em decisões críticas, vazar dados sensíveis ou gerar falsos positivos que desviam a atenção de riscos reais. Para CISOs, a pergunta não é mais "devemos usar IA?", mas sim "como garantir que a IA que usamos opera dentro de limites aceitaveis de risco?".

    É essa pergunta que o NIST AI Risk Management Framework (AI RMF), publicado como documento AI 100-1, se propõe a responder. Este guia cobre: as 4 funções do framework, categorias de risco, características de confiabilidade, implementação prática, alinhamento com o EU AI Act e como governar IA em cibersegurança de forma responsável.


    O que é o NIST AI RMF (AI 100-1)

    Leia também: Por que unificar vulnerabilidades, riscos e ameaças em um...

    O NIST AI Risk Management Framework é um documento publicado pelo National Institute of Standards and Technology dos Estados Unidos em janeiro de 2023, sob a designação AI 100-1. Diferente de normas prescritivas, o AI RMF é um framework voluntário e baseado em princípios que orienta organizações na identificação, avaliação e mitigação de riscos de sistemas de inteligência artificial.

    O AI RMF foi projetado para ser:

    • Agnostico em relação ao setor. Aplica-se a saúde, finanças, cibersegurança ou qualquer domínio que utilize IA.
    • Agnostico em relação a tecnologia. Cobre desde modelos de ML tradicionais até LLMs, IA generativa e sistemas agênticos.
    • Complementar a outros frameworks. Mapeia-se a ISO/IEC 23894, EU AI Act e NIST CSF 2.0.
    • Centrado em direitos e impactos. Vai além de riscos técnicos para considerar impactos sociais e eticos.

    O documento possui duas partes: a Parte 1 descreve como enquadrar riscos de IA e as características de sistemas confiaveis; a Parte 2 apresenta o AI RMF Core, as quatro funções que formam o ciclo de gestão de riscos.

    Para profissionais de cibersegurança, o AI RMF e particularmente relevante porque sistemas de IA em operações de segurança (SIEM, SOAR, plataformas de CTEM) tomam decisões que afetam diretamente a postura de risco da organização.


    As 4 funções do NIST AI RMF

    Leia também: Como a IA está transformando a cibersegurança: do machine...

    O núcleo do AI RMF é organizado em quatro funções interdependentes. Diferente de um processo linear, essas funções operam de forma cíclica e contínua, informando umas as outras a medida que o sistema de IA evolui.

    FunçãoObjetivoPergunta-chaveExemplo prático em cibersegurança
    GovernEstabelecer políticas, papeis e cultura de governança de IA"Quem decide o que a IA pode fazer e quais são os limites?"Definir que agentes de IA só executam remediação automática após aprovação humana
    MapIdentificar e contextualizar riscos do sistema de IA"Quais riscos este sistema específico de IA introduz?"Mapear que um modelo de priorização de vulnerabilidades pode herdar vieses dos dados de treinamento
    MeasureQuantificar e monitorar riscos identificados"Quao grande e cada risco é como ele muda ao longo do tempo?"Medir taxas de falso positivo/negativo do modelo de triagem de alertas trimestralmente
    ManageTratar riscos por meio de mitigação, transferência ou aceitação"O que fazemos para reduzir cada risco a um nível aceitável?"Implementar human-in-the-loop para decisões de alta criticidade e retreinar modelos com dados atualizados

    Govern: a base de tudo

    A função Govern e transversal, sustenta e influencia as outras três. Isso inclui:

    • Políticas organizacionais que definem usos aceitaveis de IA, limites de autonomia e requisitos de transparência.
    • Papeis e responsabilidades claros: quem aprova a implantação de um modelo, quem monitora seu desempenho, quem decide pelo desligamento.
    • Cultura organizacional que incentive a identificação proativa de riscos de IA.
    • Documentação e rastreabilidade de decisões tomadas pelo sistema e sobre o sistema.

    Para CISOs, Govern significa responder: "Se a IA priorizar incorretamente uma vulnerabilidade crítica como baixa, quem é responsável? Existe registro auditável da decisão?".

    Map: conhecer o terreno de risco

    A função Map trata de identificar e contextualizar riscos antes que eles se materializem. Isso envolve:

    • Compreender o contexto de uso do sistema de IA (quem usa, para que, em quais condições).
    • Identificar stakeholders impactados, não apenas usuários diretos, mas terceiros afetados por decisões da IA.
    • Catalogar fontes de risco: dados de treinamento, arquitetura do modelo, ambiente de implantação, interações com outros sistemas.
    • Avaliar riscos de vies e equidade: o modelo trata diferentes grupos ou cenários de forma justa?

    Na prática, Map significa documentar que um agente de triagem pode ser suscetivel a ataques adversariais, ou que um modelo de scoring treinado com dados norte-americanos pode não refletir o cenário de ameaças latino-americano.

    Measure: quantificar para decidir

    Measure transforma percepcoes qualitativas em métricas acionáveis. O AI RMF recomenda:

    • Estabelecer métricas e benchmarks específicos para cada risco mapeado.
    • Realizar testes e avaliações regulares, incluindo red-teaming de modelos de IA.
    • Monitorar drift (degradação de desempenho ao longo do tempo a medida que dados e cenários mudam).
    • Documentar limitações conhecidas do sistema e comunicar de forma transparente.

    Um exemplo concreto: se a organização utiliza IA para priorizar vulnerabilidades baseada em EPSS, Measure exige que a equipe acompanhe a taxa de acerto do modelo (vulnerabilidades priorizadas como críticas que foram de fato exploradas vs. falsos negativos) e compare com benchmarks do setor.

    Manage: agir sobre os riscos

    A função Manage fecha o ciclo com ações concretas:

    • Mitigar riscos que excedam o apetite organizacional (ex.: implementar limites de autonomia, adicionar camadas de validação humana).
    • Transferir riscos quando aprópriado (ex.: exigir SLAs de fornecedores de IA que incluam garantias de desempenho e transparência).
    • Aceitar riscos residuais de forma documentada e consciente.
    • Desativar sistemas de IA que apresentem riscos inaceitaveis e irremediaveis.

    Em cibersegurança, Manage se traduz em práticas como: definir que agentes agênticos de IA podem executar tarefas de baixo risco automaticamente (como enriquecimento de indicadores de comprometimento), mas precisam de aprovação humana para ações de alto impacto (como isolamento de ativos ou aplicação de patches críticos).


    Categorias de risco de IA segundo o NIST AI RMF

    O AI RMF não prescreve uma lista fechada de riscos, mas o documento e seus materiais complementares (como o AI RMF Playbook) identificam categorias recorrentes que toda organização deve considerar.

    Categoria de riscoDescriçãoExemplo em cibersegurança
    Vies e equidade (Bias)Decisões sistemáticamente injustas ou imprecisas para determinados grupos ou contextosModelo de scoring que subestima riscos em setores sub-representados nos dados de treinamento
    Segurança (Security)Vulnerabilidades do próprio sistema de IA a ataquesAtaques adversariais que enganam modelos de detecção de malware; prompt injection em LLMs
    Privacidade (Privacy)Exposição ou uso indevido de dados pessoais pelo sistema de IALLM que memoriza e reproduz dados sensíveis presentes no treinamento
    Confiabilidade (Reliability)Desempenho inconsistente ou degradação ao longo do tempoModelo de priorização que perde precisão quando surgem novas classes de vulnerabilidades
    Transparência (Transparency)Incapacidade de explicar como é por que o sistema tomou uma decisãoAgente de IA que recomenda remediação sem justificar o raciocinio
    Responsabilização (Accountability)Falta de clareza sobre quem responde por decisões e impactos da IADecisão automatizada de não escalar um incidente, sem registro de quem configurou os critérios
    RobustezSensibilidade excessiva a variações nos dados de entradaPequenas alterações em payloads que fazem um classificador mudar completamente sua avaliação

    Compreender essas categorias é o primeiro passo da função Map. Cada sistema de IA em operação deve ser avaliado contra todas elas, com priorização baseada no contexto de uso e no impacto potencial.


    Características de confiabilidade de sistemas de IA (AI Trustworthiness)

    O AI RMF define sete características que compõem o que significa um sistema de IA ser "confiável" (trustworthy). Elas interagem e, por vezes, entram em tensão.

    1. Válido e confiável (Valid and Reliable). O sistema funciona conforme o esperado em condições normais e em cenários de borda. Testes e validações regulares confirmam seu desempenho.

    2. Seguro (Safe). O sistema não causa danos a pessoas, organizações ou ao ambiente. Mecanismos de segurança previnem comportamentos perigosos.

    3. Protegido e resiliente (Secure and Resilient). O sistema resiste a ataques, manipulações e falhas. Inclui proteção contra ataques adversariais, envenenamento de dados e acessos não autorizados.

    4. Responsabilizavel e transparente (Accountable and Transparent). Decisões são rastreaveis, documentadas e comunicadas de forma compreensivel aos stakeholders relevantes.

    5. Explicavel e interpretavel (Explainable and Interpretable). Usuários e auditores conseguem entender como o sistema chegou a uma determinada decisão ou recomendação.

    6. Respeitador de privacidade (Privacy-Enhanced). O sistema protege dados pessoais e respeita a autonomia informacional dos indivíduos, em conformidade com legislações como LGPD e GDPR.

    7. Justo e sem vieses prejudiciais (Fair with Harmful Bias Managed). O sistema não discrimina injustamente e tem mecanismos ativos para identificar e corrigir vieses.

    Essas características funcionam como checklist de qualidade. Uma plataforma de IA agêntica para cibersegurança que não atenda a segurança, transparência e responsabilização não deveria ser implantada em operações críticas.


    Implementação prática do NIST AI RMF: passo a passo

    A seguir, um roteiro de 8 passos para implementar o NIST AI RMF em operações de cibersegurança.

    1. Inventariar todos os sistemas de IA em uso. Inclua não apenas ferramentas internas, mas também funcionalidades de IA embutidas em produtos de terceiros (SIEM, EDR, plataformas de vulnerabilidades). Muitas organizações desconhecem a quantidade real de modelos de IA ativos em seu ambiente.

    2. Classificar cada sistema por nível de risco. Utilize critérios como: autonomia de decisão (o sistema apenas recomenda ou executa ações?), impacto potencial de uma decisão errada, sensibilidade dos dados processados e reversibilidade das ações.

    3. Estabelecer a estrutura de governança (Govern). Defina um comite ou função responsável pela supervisão de IA. Crie políticas que especifiquem limites de autonomia, requisitos de transparência e processos de aprovação para novos sistemas.

    4. Mapear riscos específicos de cada sistema (Map). Para cada sistema inventariado, documente: dados de entrada, lógica do modelo, contexto de uso, stakeholders impactados e riscos potenciais em cada categoria (vies, segurança, privacidade, confiabilidade, transparência).

    5. Definir métricas e linhas de base (Measure). Estabeleca KPIs para cada risco: taxa de falso positivo/negativo, drift trimestral, cobertura de explicabilidade em decisões críticas.

    6. Implementar controles de mitigação (Manage). Para alto risco: human-in-the-loop obrigatório, logging completo, red-teaming periódico. Para baixo risco: monitoramento automatizado e revisoes semestrais.

    7. Documentar e comunicar. Registros auditoriais de decisões de governança. Comunique limitações conhecidas e controles em vigor.

    8. Revisar e iterar continuamente. Revisoes mínimo trimestrais para alto risco. Atualize mapeamentos a medida que ambiente e ameaças evoluam.


    Alinhamento entre o NIST AI RMF e o EU AI Act

    O EU AI Act, plenamente em vigor desde 2025, é a primeira regulação horizontal de IA do mundo. Embora o AI RMF seja voluntário é o EU AI Act obrigatório para quem opera no mercado europeu, existe alinhamento significativo entre ambos.

    Os dois adotam abordagem baseada em risco. O EU AI Act define quatro categorias (risco inaceitável, alto, limitado, mínimo); o AI RMF fornece ferramentas para que cada organização faca sua própria classificação. As convergencias incluem:

    • Transparência. O EU AI Act exige informações claras aos usuários; o AI RMF aborda isso via explicabilidade e transparência.
    • Gestão de vieses. Ambos enfatizam identificar, medir e mitigar vieses.
    • Governança e accountability. O EU AI Act exige designação de responsáveis; a função Govern do AI RMF endereca isso diretamente.
    • Avaliação de riscos. O EU AI Act exige avaliação de impacto para alto risco; Map e Measure fornecem a metodologia.

    Para organizações brasileiras com operações na Europa, o AI RMF fácilita a conformidade com o EU AI Act. O Marco Legal da IA no Brasil (PL 2338/2023) compartilha princípios semelhantes, tornando o AI RMF base sólida para conformidade regulatória futura.


    Governança de IA em cibersegurança: por que CISOs devem líderar essa agenda

    A IA e simultaneamente ferramenta (usada para proteger) e superfície de ataque (podendo ser explorada). Essa dualidade exige que CISOs assumam papel ativo na governança de IA.

    Cenários que exigem governança rigorosa:

    • Priorização automatizada de vulnerabilidades. Se a IA classifica uma vulnerabilidade crítica como baixa é a equipe não investiga, quem válida essa decisão?
    • Triagem de alertas por agentes agênticos. Sistemas de CTEM com IA agêntica que descartam alertas como falsos positivos precisam de mecanismos de auditoria.
    • Remediação assistida por IA. Agentes que executam correções devem operar com limites claros de autonomia, especialmente para ações irreversiveis.
    • Scoring de risco cibernético. Modelos de CRQ influenciam decisões de investimento. Vieses nesses modelos impactam diretamente o orçamento de segurança.

    O AI RMF fornece vocabulario e estrutura para que CISOs articulem esses riscos junto ao board é a reguladores.


    EcoTrust e human-in-the-loop: um exemplo prático de governança responsável de IA

    A EcoTrust opera como Plataforma de IA Agêntica para CTEM (Continuous Threat Exposure Management). Seus agentes de IA conduzem tarefas complexas de cibersegurança, desde discovery de ativos e priorização de vulnerabilidades até campanhas de remediação, com um princípio de design que se alinha diretamente ao NIST AI RMF: human-in-the-loop governance.

    Na prática, isso significa:

    • Govern: A plataforma define limites claros de autonomia para cada agente. Agentes podem enriquecer dados e gerar recomendações automaticamente, mas ações de alto impacto (como alteração de prioridades críticas ou início de campanhas de remediação) requerem aprovação humana explícita.
    • Map: Cada módulo da plataforma documenta as fontes de dados utilizadas, os modelos aplicados e os cenários em que limitações são conhecidas. A Gestão de Vulnerabilidades (GVul) integra múltiplas fontes (EPSS, CVSS, threat intelligence, contexto de negócio) justamente para reduzir dependência de qualquer modelo único.
    • Measure: A plataforma fornece indicadores continuos de desempenho dos agentes, incluindo métricas de precisão, cobertura e tempo de resposta. CISOs podem auditar o raciocinio por tras de cada recomendação.
    • Manage: O modelo human-in-the-loop e, em si, o principal controle de mitigação. Ele garante que a IA amplifica a capacidade humana sem substituir o julgamento crítico em decisões de alto risco.

    O NIST AI RMF válida essa abordagem ao posicionar governança como função transversal e ao exigir supervisão humana proporcional ao risco.

    Veja como a EcoTrust aplica governança human-in-the-loop em IA agêntica


    Como começar: checklist de adoção do NIST AI RMF

    Para organizações que ainda não possuem uma estrutura formal de gestão de riscos de IA, a lista a seguir serve como ponto de partida pragmático:

    • Inventário completo de sistemas de IA em uso (incluindo IA embutida em ferramentas de terceiros)
    • Classificação de risco de cada sistema (alto, médio, baixo)
    • Designação de responsável(is) pela governança de IA
    • Política escrita de uso aceitável de IA, com limites de autonomia
    • Mapeamento de riscos por categoria (vies, segurança, privacidade, confiabilidade, transparência, accountability, robustez)
    • Métricas definidas e baseline estabelecido para cada sistema de alto risco
    • Controles de mitigação implementados e documentados
    • Processo de revisão periódica (mínimo trimestral para alto risco, semestral para médio risco)
    • Registro auditável de decisões de governança
    • Plano de resposta para comportamento anomalo de IA (equivalente a um plano de resposta a incidentes, mas para IA)

    Conheça o módulo de Gestão de Vulnerabilidades da EcoTrust


    Perguntas frequentes sobre o NIST AI RMF

    O NIST AI RMF é obrigatório?

    Não. O AI RMF e voluntário. No entanto, e amplamente referênciado por reguladores, seguradoras e auditorias de compliance. Adota-lo demonstra maturidade e fácilita conformidade com regulações futuras.

    Qual a diferença entre o NIST AI RMF é o NIST Cybersecurity Framework (CSF)?

    O CSF 2.0 foca em gestão de riscos de cibersegurança de forma ampla. O AI RMF foca especificamente em riscos de sistemas de IA. São complementares: o CSF governa a postura de segurança geral; o AI RMF governa os riscos dos sistemas de IA utilizados dentro dessa postura.

    O NIST AI RMF se aplica a IA generativa e LLMs?

    Sim. O framework cobre qualquer tipo de sistema de IA, incluindo LLMs, sistemas agênticos e ML tradicional. O NIST publicou adicionalmente o "Generative AI Profile" (AI 600-1) como complemento específico para IA generativa.

    Como o NIST AI RMF se relaciona com o EU AI Act?

    Ambos adotam abordagem baseada em risco e compartilham princípios de transparência, gestão de vieses e accountability. O AI RMF pode ser utilizado como metodologia para conduzir avaliações de impacto e implementar requisitos exigidos pelo EU AI Act, especialmente para sistemas de alto risco.

    O que significa human-in-the-loop no contexto do AI RMF?

    É um modelo de governança em que decisões críticas da IA passam por validação humana antes da execução. O AI RMF o posiciona como controle proporcional ao nível de risco, quanto maior o impacto, maior a necessidade de supervisão humana.

    Por onde devo começar a implementar o AI RMF?

    Comece pelo inventário de sistemas de IA em uso. A partir dele, classifique por risco e priorize Govern e Map para os sistemas de maior criticidade.


    Para aprofundamento, consulte a referência oficial: NIST Cybersecurity Framework.

    Conclusão: gestão de riscos de IA não é opcional, e estratégia

    O NIST AI RMF oferece a estrutura mais completa disponível para governar riscos de inteligência artificial. Suas quatro funções, Govern, Map, Measure e Manage, fornecem um ciclo contínuo que permite adotar IA de forma responsável sem sacrificar inovação.

    Para CISOs, sistemas de IA em cibersegurança influenciam diretamente a postura de risco da organização. Governa-los com o mesmo rigor de qualquer controle crítico não é excesso de cautela, e diligência.

    A abordagem da EcoTrust, IA agêntica para CTEM com governança human-in-the-loop, demonstra que é possível combinar autonomia e controle. Esse é o equilíbrio que o NIST AI RMF busca promover: não frear a IA, mas garantir que ela opere dentro de limites que a organização compreende, monitora e aceita conscientemente.

    Conheça o módulo CTEM

    Veja como a EcoTrust aplica IA agêntica para resolver os desafios apresentados neste artigo.

    Explorar CTEM

    Artigos Relacionados