A Inteligência Artificial Generativa (IAG) também tem preconceitos? (V.8, N.7, P.4, 2025)
Tempo estimado de leitura: 8 minute(s)
A IAG é uma tecnologia que cria conteúdos originais utilizando os algoritmos (sequência de instruções), estes são projetados para processar dados utilizando as informações fornecidas podendo reforçar estereótipos de gênero.
Ao gerar imagens na IAG nota-se que comportamentos de gênero são reforçados, como mulheres serem representadas de forma amigável e secundária, e os homens em postura dominante e a frente.
Fonte: Gerada pelo Chat GPT-4o (esse texto é a legenda de uma foto)
Você já se perguntou se a Inteligência Artificial Generativa pode ter preconceitos? Nos últimos anos, a Inteligência Artificial Generativa (IAG) tem revolucionado a criação de conteúdo digital. Com sua crescente popularização, utilização e pesquisa, torna-se essencial estabelecer conexões e análises que relacionam essa tecnologia aos setores sociais e culturais. Isto é, uma tecnologia em ascensão não pode ficar limitada apenas a setores específicos, deve se integrar a setores diversos como o educacional, de saúde, político, mercadológico e administrativo. Algumas ferramentas que a utilizam conseguem transformar descrições textuais em imagens detalhadas, permitindo que qualquer pessoa gere ilustrações, retratos e até mesmo simulações de realidades alternativas, como a imagem de abertura desta notícia. Uma pesquisa publicada em 2024 por Luhang Sun e colaboradores, associados à Universidade de Wisconsin-Madison, nos Estados Unidos, revelou como modelos de IA podem reforçar estereótipos de gênero, um fenômeno conhecido como viés algorítmico.
As IAGs são neutras? O viés algorítmico e suas problemáticas
A Inteligência Artificial Generativa (IAG) é uma tecnologia capaz de produzir conteúdo original, como textos, imagens, vídeos, áudios e até códigos de software. Para funcionar, a IAG utiliza um processo chamado aprendizado de máquina (ou machine learning), no qual ela aprende com grandes volumes de dados extraídos de diferentes fontes, como documentos, imagens e comportamentos de usuários. Esses dados alimentam o “cérebro” digital da inteligência artificial, permitindo que ela tome decisões e gere novos conteúdos com base nesse repertório.
O funcionamento da IAG depende de algoritmos, que são conjuntos de instruções lógicas e organizadas, desenvolvidas para realizar uma tarefa ou resolver um problema específico. Quando treinados com dados, esses algoritmos “aprendem” padrões e passam a fazer previsões ou a agir de forma autônoma. Assim, as respostas fornecidas por uma IAG são, na verdade, releituras e reorganizações dos dados nos quais ela foi treinada. Ela não cria a partir do nada, mas sim com base no que “aprendeu” anteriormente.
O problema é que muitos desses dados carregam consigo um viés hegemônico, ou seja, interpretam o mundo a partir de uma perspectiva dominante, que historicamente, tem sido a perspectiva branca, masculina e ocidental. O estudo Smiling Women Pitching Down: Auditing Representational and Presentational Gender Biases in Image-Generative AI (Mulheres sorridentes em queda: auditando vieses de gênero representacionais e apresentacionais na inteligência artificial generativa de imagens) conduzido nos Estados Unidos por Luhang Sun, Mian Wei, Yibing Sun, Yoo Ji Suh, Liwei Shen e Sijia Yang, publicado no Journal of Computer-Mediated Communication, analisou 15.300 imagens geradas pelo DALL·E 2, um modelo de Inteligência Artificial que gera imagens, revelando diferenças significativas na representação de homens e mulheres. As imagens mostraram que as mulheres eram retratadas com maior frequência sorrindo e com a cabeça inclinada para baixo, características associadas à submissão e à fragilidade. Já os homens apareciam com expressões mais sérias e posturas dominantes, o que caracteriza um viés de apresentação.
O reforço de preconceitos pelas IAGs
O impacto dessa forma de gerar imagens não se restringe ao mundo digital, ela tem impacto no mundo real. Essas representações distorcidas afetam como diferentes grupos sociais são vistos, tanto por outros quanto por si mesmos. Além disso, essas imagens reforçam desigualdades estruturais e perpetuam um ciclo vicioso. A IAG, ao aprender com dados que já contêm preconceitos, acaba por perpetuar esses mesmos preconceitos, criando um loop de reforço que só piora a situação.
Esses padrões de representação amplificam estereótipos e reforçam a ideia de que certos papéis e comportamentos são “naturais” para homens ou mulheres, perpetuando uma visão distorcida da realidade.
Diante disso, surge a pergunta: como corrigir e regular o viés de gênero nas IAGs? A resposta não é simples, mas é urgente. Em uma sociedade marcada pela misoginia, é fundamental que ações sejam tomadas para que a IAG, uma ferramenta que se espalha cada vez mais rápido, não se torne um novo mecanismo de exclusão social.
Desafios no Combate ao Viés de Gênero nas IAGs
Para evitar que esses vieses passem despercebidos, o ideal seria contar com equipes diversas no desenvolvimento dessas inteligências. Afinal, corrigir esses problemas não é tarefa só dos programadores, mas de um esforço conjunto entre desenvolvedores, pesquisadores e a sociedade. Transparência, diversidade nas equipes e educação dos usuários fazem toda a diferença para reduzir preconceitos, pois permite uma maior variedade de perspectivas durante o processo de criação e avaliação dos sistemas, o que ajuda a identificar e corrigir preconceitos que poderiam passar despercebidos por equipes homogêneas. Isso torna a tecnologia mais justa, eficaz e representativa da realidade social.
Além disso, políticas públicas e regulamentações precisam acompanhar o avanço da tecnologia para garantir que ela beneficie a todos. A IAG vai continuar se desenvolvendo, sendo necessário que a consciência ética sobre o tema também cresça. Deve-se garantir que a IAG seja uma aliada na construção de um futuro mais igualitário e inclusivo.
Um exemplo de iniciativa internacional que busca orientar o uso responsável da IAG é o Guia para a IA Generativa na Educação e na Pesquisa, lançado pela UNESCO em 2024. O documento propõe diretrizes para regulamentar o uso dessas tecnologias em algumas perspectivas. Para promover a equidade, inclusão e diversidade, propõe a avaliação das IAGs em relação à representatividade dos dados utilizados e que suas produções sejam monitoradas quanto à presença de vieses, e também incentiva governos e instituições que garantam acesso equitativo à tecnologia. Para promover a regulação e responsabilidade institucional orienta que escolas, universidades e centros de pesquisa criem políticas que incluam critérios éticos para seleção de ferramentas, validação dos conteúdos gerados e responsabilização em casos de uso inadequado. Para além disso, também se recomenda que os governos atuem como reguladores e formadores de políticas públicas, garantindo que o uso da IAG esteja alinhado com os direitos humanos e os objetivos de desenvolvimento sustentável. Essas são algumas propostas de diretrizes para a regulamentação e utilização responsável da IAG.
Ficou interessado(a)? Então leia o artigo:
SUN, Luhang et al. Smiling Women Pitching Down: Auditing Representational and Presentational Gender Biases in Image-Generative AI. Journal of Computer-Mediated Communication, v. 29, n. 1, p. zmad045, 2024. Disponível em: https://academic.oup.com/jcmc/article/29/1/zmad045/7596749 . Acesso em: 30 mar 2025.