Conteúdo principal Menu principal Rodapé
A imagem mostra uma mulher com cabelos escuros e longos, combinando tranças finas no topo e cachos definidos, vestindo uma blusa de manga comprida azul royal. Ela está sentada à frente de uma mesa de madeira, com as mãos levantadas em um gesto explicativo enquanto fala.
A professora Sandra Avila: iniciativa tem o objetivo de estimular reflexões críticas a respeito de dados, algoritmos e poder de influência das big techs

Um debate sobre feminismo e ética na inteligência artificial

Disciplina inédita discute limites morais e responsabilidades humanas diante da tecnologia

A imagem mostra uma mulher com cabelos escuros e longos, combinando tranças finas no topo e cachos definidos, vestindo uma blusa de manga comprida azul royal. Ela está sentada à frente de uma mesa de madeira, com as mãos levantadas em um gesto explicativo enquanto fala.
A professora Sandra Avila: iniciativa tem o objetivo de estimular reflexões críticas a respeito de dados, algoritmos e poder de influência das big techs
A imagem apresenta o logotipo do "SEC LABJOR DIVULGAÇÃO CIENTÍFICA". No topo, a sigla "SEC" aparece em vermelho; no centro, a palavra "LABJOR" também em vermelho e letras maiores; e na base, a frase "DIVULGAÇÃO CIENTÍFICA" em letras cinzas finas. À direita, há um ícone cinza composto por três formas retangulares inclinadas ligadas a linhas que terminam em círculos, sugerindo uma conexão de rede ou circuitos.
A imagem apresenta o logotipo do "SEC LABJOR DIVULGAÇÃO CIENTÍFICA". No topo, a sigla "SEC" aparece em vermelho; no centro, a palavra "LABJOR" também em vermelho e letras maiores; e na base, a frase "DIVULGAÇÃO CIENTÍFICA" em letras cinzas finas. À direita, há um ícone cinza composto por três formas retangulares inclinadas ligadas a linhas que terminam em círculos, sugerindo uma conexão de rede ou circuitos.

Uma disciplina de pós-graduação oferecida pela primeira vez no Instituto de Computação (IC) da Unicamp propõe um debate sobre ética e desigualdades sociais, raciais e de gênero presentes na ciência de dados, na programação de máquinas e na inteligência artificial (IA). Feminismo de Dados foi oferecida pela professora do IC Sandra Avila no segundo semestre de 2025 e foi inspirada no livro Data Feminism (The MIT Press, 2020), publicado pelas pesquisadoras estadunidenses Catherine D’Ignazio e Lauren Klein. A primeira turma contou com cerca de 30 alunos.

Ao longo de sua trajetória científica, e após se deparar com a leitura do livro, Avila passou a fazer algumas perguntas fundamentais: por quem e como essas máquinas estão sendo programadas e treinadas, e com quais vieses? “A ciência não é neutra, e os dados também não”, afirma. Um exemplo é o caso emblemático da Amazon, que, durante anos, utilizou um sistema de IA para pré-selecionar currículos de candidatos a vagas de tecnologia. No entanto, ao aprender com dados históricos, o algoritmo passou a favorecer candidatos homens e a penalizar currículos de mulheres, reproduzindo um viés de gênero presente no próprio mercado. Como consequência, a ferramenta foi abandonada em 2017.

“Muitas vezes, as diferenças nos currículos refletem o papel que a mulher ocupa na sociedade. Então, o simples ato de balancear os dados ou ajustar uma métrica não corrige a desigualdade de origem”, explica. Ela lembra ainda que esse tipo de distorção não afeta apenas mulheres, mas também outros grupos historicamente desfavorecidos. “É preciso desafiar as matrizes de dominação, porque elas não incluem populações periféricas e pessoas marginalizadas. Modelos podem ser treinados para funcionar apenas para um determinado grupo, automatizando padrões sociais excludentes.”

A imagem mostra um laboratório de informática repleto de estudantes sentados em bancadas com computadores. Em primeiro plano, duas jovens de cabelos escuros aparecem de costas, usando máscaras de proteção facial; uma delas escreve em um caderno aberto enquanto observa o monitor. Ao fundo, diversas outras pessoas trabalham em frente às telas, e a sala possui paredes brancas, janelas altas e um quadro branco ao fundo.
Estudos demonstram que desigualdades entre grupos sociais podem se refletir nos modelos de treinamento de IA

Formação de profissionais

A imagem mostra um laboratório de informática repleto de estudantes sentados em bancadas com computadores. Em primeiro plano, duas jovens de cabelos escuros aparecem de costas, usando máscaras de proteção facial; uma delas escreve em um caderno aberto enquanto observa o monitor. Ao fundo, diversas outras pessoas trabalham em frente às telas, e a sala possui paredes brancas, janelas altas e um quadro branco ao fundo.
Estudos demonstram que desigualdades entre grupos sociais podem se refletir nos modelos de treinamento de IA

Outra razão que levou Avila a propor essa disciplina na Unicamp foi o seu incômodo, durante as suas aulas de aprendizado de máquina, com a forma “muito automática e sem questionamentos éticos” com que seus alunos lidavam com dados e algoritmos. As aulas apresentam questionamentos provocadores: como desafiar as estruturas de poder e a influência das grandes empresas de tecnologia, as chamadas big techs? A cada aula, os alunos também são convidados a refletir não apenas sobre os problemas, mas também sobre como podem agir para transformá-los. “Se temos um problema, precisamos pensar em como contribuir para a mudança”, afirma a docente.

Para Leonardo Rafael Pires, engenheiro de aprendizado de máquina e aluno especial da disciplina, durante os encontros foi possível compreender que a tecnologia e os dados não são neutros, mas produzidos dentro de contextos históricos, políticos e sociais marcados por desigualdades de gênero, raça e classe. “Em um mundo em que sistemas de reconhecimento facial, predições criminais, filtros automáticos de currículos e algoritmos de crédito moldam o cotidiano de bilhões de pessoas, percebemos que a ética não pode ser tratada como um adendo técnico. Ela precisa ser um eixo central da criação tecnológica”, afirma.

Pires também conta que, ao fazer a matrícula, ficou com receio de ser o único homem, mas foi surpreendido por uma turma diversa. “Logo percebi que o feminismo de dados não é um tema apenas ‘para algumas pessoas’, mas um campo que diz respeito a todos, especialmente àqueles que trabalham com tecnologia e ciência.”

Avila reforça que a disciplina não é voltada apenas para mulheres e que seu objetivo é desconstruir a visão limitada sobre o feminismo, entendendo-o como uma perspectiva que busca dar voz a grupos historicamente minorizados. “Os dados e modelos de IA carregam essas desigualdades”, ressalta.

Beatriz Cardoso Nascimento, doutoranda em Ciência da Computação no IC, já pesquisa a área de ética e inteligência artificial, mas avalia que a disciplina foi um “divisor de águas”. “Essa matéria propõe exatamente que você comece a prestar atenção em certas escolhas e decisões. E isso tem feito uma diferença gigantesca na minha carreira”, afirma. “Mudou totalmente a minha perspectiva sobre o aprendizado de máquina e sobre o meu dia a dia como cientista de dados.”

Um exemplo das lacunas apontadas na disciplina é a falta de informações sobre pessoas negras em modelos de IA utilizados para identificar lesões na pele com potencial de câncer. Uma pesquisa na Unicamp, liderada também por Avila, busca criar um banco de dados dermatológico inclusivo e representativo, que poderá subsidiar o aprendizado de máquina.

A docente estima que existem caminhos, ainda que sejam passos pequenos diante do enorme poder das big techs. Para ela, são fundamentais o letramento digital e em IA, além de regulação jurídica, com leis que orientem o desenvolvimento, uso e comercialização dessas ferramentas. “As empresas teriam condições técnicas de implementar essas mudanças; o problema não é falta de capacidade, mas falta de interesse do ponto de vista comercial”, opina.


Reportagem produzida por estudantes do curso de especialização em Jornalismo Científico do Laboratório de Estudos Avançados em Jornalismo (Labjor) da Unicamp, sob a supervisão do jornalista Guilherme Gorgulho

Ir para o topo