Pesquisas desenvolvidas no Laboratório de Inteligência Artificial (IA), do Instituto de Computação (IC) da Unicamp, recod.ai, apontam o viés preconceituoso de modelos gerados por IA, ao fazerem o reconhecimento facial ou produzirem textos. As pesquisas apresentam as limitações dos modelos analisados, a partir do viés humano, que sempre estará presente, seja por meio da aplicação da tecnologia ou por meio de seu desenvolvimento. No caso da imagem, quando o modelo de IA não reconhece pessoas de pele negra e no texto dos modelos generativos, quando criam narrativas estereotipadas. Os pesquisadores entrevistados são dos cursos de Computação e de Letras. Nina Da Hora tem orientação da professora Sandra Avila e coorientação da antropóloga e pesquisadora Marisol Marini, professora da Universidade de São Paulo (USP). A pesquisa de Gustavo Bonil é orientada por Simone Hashiguti, professora do Instituto de Estudos da Linguagem (IEL). Avila é sua coorientadora. Bonil é membro do projeto “H.IAAC: Hub de Inteligência Artificial e Arquiteturas Cognitvas”.
Ficha técnica:
Produção – Fábio Gallacci
Apoio de produção – Rogério Bordini (recod.ai IC Unicamp)
Reportagem – Hebe Rios
Imagens – Marcos Botelho Jr.
Edição – Aguinaldo Matos
Edição de capa – Paulo Cavalheri
Coordenação – Patrícia Lauretti
#unicamp #inteligenciaartificial