Promover a diversidade, a independência e a participação são medidas para uso responsável da IA

22 de setembro de 2025

por Redação Abranet

Promover a diversidade, a independência e a participação são medidas para uso responsável da IA

Promover a diversidade, a independência e a participação; identificar objetivos e contexto da solução e questionar efeitos; eleger e monitorar critérios de fairness; planejar e documentar a gestão de riscos; familiarizar-se com o dataset e analisar sua adequação; entre outros, podem mitigar os vieses negativos em sistemas de IA são medidas para usar a inteligência artificial de forma a mitigar vieses de algoritmos, segundo um guia lançado pelo Centro de Ensino e Pesquisa em Inovação (CEPI) da FGV Direito S.


O uso responsável de sistemas de inteligência artificial consta do “Governança Da Inteligência Artificial Em Organizações Arquitetura de Confiabilidade e Gestão de Vieses”, relatório que marca o encerramento dos trabalhos de um projeto de pesquisa aplicada que contou com a condução de grupo de pesquisa com especialistas externos no tema, além de entrevistas com as empresas parceiras.


A pesquisa elegeu três frentes de atuação: a primeira é a consolidação de um vocabulário comum e conhecimento de base entre os diferentes profissionais que lidam com o desafio de vieses nas soluções tecnológicas de suas empresas; a segunda é a conscientização sobre o panorama de riscos que uma organização está sujeita quando implementa soluções de IA; e a terceira frente diz respeito à adaptação dos instrumentos de governança organizacional a estes desafios.


De acordo com Luiza Morales, pesquisadora do CEPI-FGV, o estudo traça um panorama instrumental importante para que as empresas usem a inteligência artificial de forma ética, promovendo maior segurança ao ecossistema de inovação e atenção ao que vem sendo chamado de justiça algorítmica.


A implementação de soluções de IA é objeto de trabalho para muitas áreas do conhecimento. O relatório relaciona o tema com preocupações oriundas da regulação de proteção de dados pessoais, além de outros campos como Direito Antidiscriminatório, Diversidade e Inclusão, Gestão de Riscos, entre outras.


O estudo evidencia que o tema da discriminação já está pautado em diversos campos do direito, revelando a capilaridade, variedade e relevância que esse campo dedica ao tema de discriminação e, consequentemente, de discriminação a partir de vieses em sistemas algorítmicos. Deste modo, o estudo corrobora a necessidade do entendimento desses sistemas jurídicos, indicando obrigações, direitos e organizacionais, para além dos futuros marcos legais específicos da IA.

 

A pesquisa também traz uma consolidação das principais discussões e entendimentos em relação ao conhecimento sobre tecnologia, sendo esse conhecimento importante para o entendimento das complexificações de quando os algoritmos passam a mediar nossas relações sociais e assim demandam novas soluções jurídicas e organizacionais.


Com a análise de pesquisas aplicadas ao tema, o estudo constatou que se costumam localizar as medidas no ciclo apresentando soluções tanto comuns quanto originais. A partir disso, o relatório consolidou essas medidas em 11 conjuntos de medidas:

  • Realizar supervisão humana
  • Promover diversidade, independência e participação
  • Identificar objetivos e contexto da solução e questionar efeitos
  • Eleger e monitorar critérios de fairness
  • Planejar e documentar a gestão de riscos
  • Familiarizar-se com o dataset e analisar sua adequação
  • Considerar, examinar e selecionar variáveis, features e proxies
  • Considerar a experiência do usuário
    Tratar e preparar os dados
  • Desenhar ou selecionar modelos interpretáveis
  • Operar constrições e obstáculos no modelo
     

Esses conjuntos de medidas são detalhados no relatório de acordo com o que cada momento do ciclo de vida da solução de IA pede, apontando quais tipos de vieses podem ser sanados com cada um desses conjuntos de medidas.


Desse modo, a última contribuição do estudo se caracteriza pela união da consolidação de ciclos com o repositório de medidas, formando uma ferramenta de transposição de frameworks já consagrados que busca trazer praticidade e clareza no grande desafio que é a governança de vieses em IA.


Confira aqui o estudo. 
 

leia

também