A implementação de governança ética em inteligência artificial (IA) no Brasil requer uma abordagem que considere tanto padrões internacionais quanto especificidades locais. A ausência de um framework nacional específico para aferir o grau de maturidade em governança de IA tem levado organizações a adaptarem referências internacionais reconhecidas, como o Nist AI Risk Management Framework, o Nist AI Playbook e as normas ISO/IEC específicas para IA, ao contexto brasileiro.
Ao analisar o cenário de framework, identifico 13 critérios de avaliação que emergem da experiência prática e sistemática no assessoramento de organizações em diferentes estágios de maturidade digital. Estes elementos não foram selecionados arbitrariamente, mas sim consolidados a partir da análise detalhada de casos reais de implementação de IA em empresas brasileiras, combinando as melhores práticas internacionais com os desafios específicos encontrados no mercado nacional.
A progressão dos níveis de maturidade foi estruturada para refletir a jornada real das organizações em direção à excelência em governança de IA. O primeiro nível, caracterizado pela ausência de implementação, representa o ponto de partida comum de muitas organizações, onde não existem processos ou políticas formais para governança de IA. O segundo nível reconhece os primeiros passos na direção da governança, ainda que com iniciativas fragmentadas e não sistematizadas. O terceiro nível marca uma transição significativa para uma abordagem proativa e integrada, onde processos são definidos e gerenciados de forma sistemática. O quarto nível representa um alinhamento estratégico maduro, com adaptabilidade às mudanças do ambiente de negócios. O quinto e último nível caracteriza a excelência em governança, com inovação ética contínua e referência para o mercado.
Este processo de “tropicalização” considera alguns elementos fundamentais de avaliação: contexto da organização, inventário de sistemas de IA, adesão aos princípios da OCDE, definição de papéis e responsabilidades, planejamento estratégico, definição de recursos, avaliação de riscos e mitigação, segurança da informação e proteção de dados, supervisão e auditoria, treinamento e capacitação, avaliação de fornecedores e terceiros, melhoria contínua e gestão de incidentes.
LEIA MAIS: Conheça os 5 pontos críticos de proteção de dados para E-Commerces
Estes critérios são fundamentais para a avaliação do impacto algorítmico nas organizações. Ao orientar a construção de diretrizes, políticas e protocolos, estes elementos proporcionam uma base sólida para o desenvolvimento responsável da IA. Mais do que simples métricas de avaliação, eles se tornaram pilares para o letramento tecnológico e digital nas organizações, facilitando a compreensão e adoção de práticas éticas em todos os níveis hierárquicos. A aplicação prática destes critérios tem revelado padrões interessantes no desenvolvimento de políticas organizacionais.
A avaliação do contexto organizacional revelou-se crucial por permitir compreender o ambiente específico em que os sistemas de IA serão implementados, considerando aspectos culturais, técnicos e operacionais únicos de cada organização. O inventário de sistemas, por sua vez, emergiu como fundamento essencial para mapear e compreender o alcance e impacto das soluções de IA já em uso ou em desenvolvimento, possibilitando uma gestão mais efetiva de riscos e conformidade legal ou regulatória.
Na avaliação de papéis e responsabilidades, identificamos que organizações bem-sucedidas estabelecem claramente a governança de IA em três camadas distintas: estratégica, com envolvimento direto da alta administração; tática, com comitês especializados e equipes multidisciplinares; e operacional, com times técnicos e usuários finais. Essa estruturação tem se mostrado fundamental para garantir que princípios éticos sejam efetivamente incorporados em todos os níveis da organização.
O critério de avaliação de riscos e mitigação, particularmente crítico no contexto brasileiro, demonstrou-se essencial para identificar potenciais impactos negativos antes que se materializem. Nossa experiência consultiva evidencia que organizações que implementam processos robustos de avaliação de risco conseguem não apenas prevenir incidentes, mas também construir sistemas de IA mais confiáveis e alinhados com valores éticos. Esse processo inclui a análise detalhada de vieses algorítmicos, impactos sociais e ambientais, além de considerações sobre privacidade e proteção de dados.
A segurança da informação e proteção de dados, outro critério fundamental, ganhou ainda mais relevância com a LGPD (Lei Geral de Proteção de Dados). Observamos que organizações precisam ir além do mero compliance, desenvolvendo uma cultura de privacidade by design em seus sistemas de IA. Esta abordagem tem se mostrado mais eficiente quando integrada desde as fases iniciais de desenvolvimento, evitando correções custosas posteriores e construindo confiança junto aos stakeholders.
Quando se fala de treinamento e capacitação, este elemento emerge como transformador nas organizações. Nossa experiência demonstra que o sucesso na implementação de governança de IA está diretamente relacionado à qualidade e abrangência dos programas de desenvolvimento profissional. Não se trata apenas de capacitação técnica, mas de um processo amplo de letramento digital que inclui aspectos éticos, regulatórios e sociais, permitindo que colaboradores em diferentes níveis compreendam e contribuam para o uso responsável da IA no contexto corporativo.
A avaliação de fornecedores e terceiros, critério frequentemente subestimado, tem se revelado crucial no contexto brasileiro, onde muitas organizações dependem de soluções desenvolvidas externamente. O estabelecimento de critérios claros para seleção e monitoramento de fornecedores, incluindo requisitos de transparência algorítmica e compromissos éticos, tem se mostrado fundamental para manter a integridade dos sistemas de IA e a conformidade com políticas internas de governança.
VEJA TAMBÉM: Performance ESG sob a influência da teoria dos stakeholders
Mapa da excelência
A experiência acumulada na implementação destes critérios de avaliação demonstra que a construção de uma cultura organizacional ética em IA é um processo contínuo e evolutivo. O monitoramento constante e a melhoria contínua revelaram-se fundamentais para manter a relevância e efetividade das práticas de governança. Organizações que estabelecem ciclos regulares de avaliação e atualização de suas políticas e procedimentos conseguem manter-se à frente das rápidas mudanças tecnológicas e regulatórias.
Nossa atuação consultiva tem evidenciado que organizações que alcançam níveis mais elevados de maturidade em governança de IA compartilham características comuns: compromisso genuíno da liderança com práticas éticas, investimento consistente em capacitação, estruturas robustas de governança e, principalmente, uma compreensão clara de que a IA deve servir aos propósitos humanos e organizacionais de forma responsável e sustentável.
A consolidação desse framework de governança de IA representa mais que um conjunto de critérios avaliativos; constitui um importante passo na maturação do mercado brasileiro em direção a práticas mais éticas e responsáveis no desenvolvimento tecnológico. Organizações que adotam esta abordagem estruturada não apenas minimizam riscos operacionais e reputacionais, mas também se posicionam estrategicamente para aproveitar as oportunidades que a IA oferece.
É importante ressaltar que esse framework não deve ser visto como uma ferramenta estática, mas sim como um organismo vivo que evolui, conforme o amadurecimento do mercado e o surgimento de novos desafios. A experiência acumulada em diferentes setores e organizações tem permitido seu constante refinamento, incorporando lições aprendidas e adaptando-se às particularidades do ambiente empresarial brasileiro.
O cenário atual do mercado brasileiro, caracterizado por uma crescente adoção de sistemas de IA em diferentes setores, demanda uma abordagem que considere tanto aspectos técnicos quanto implicações sociais mais amplas. Os elementos estabelecidos funcionam como pilares para esta construção, permitindo que organizações desenvolvam uma compreensão profunda dos impactos de suas iniciativas de IA e implementem medidas efetivas para gerenciá-los.
A jornada em direção à excelência em governança de IA no Brasil requer uma abordagem equilibrada entre adaptação local e padrões globais. Os critérios apresentados funcionam como um mapa para esta jornada, permitindo que organizações avaliem seu estágio atual, identifiquem gaps e planejem seu desenvolvimento de forma estruturada. Mais do que um exercício de conformidade, a implementação destes critérios tem se provado um catalisador de transformação organizacional, promovendo uma cultura de inovação responsável e ética no cenário organizacional.
_____________________________________________________________________________________________________________________________________________________
Adalberto Fraga Veríssimo Júnior – é advogado, sócio e data protection officer da Lee, Brock, Camargo Advogados, mestrando em Direito pelo IDP, pós-graduado em Direito Digital e Proteção de Dados pela Ebradi.