Há uma forte tendência nos diversos setores da economia em adotar a Inteligência Artificial (IA) para realizar funções diversas. Esse movimento, liderado por grandes empresas, utiliza desde modelos analíticos e preditivos mais tradicionais até ferramentas mais recentes de IA Generativa, como o ChatGPT ou o Gemini, visando alavancar seus resultados financeiros. Segundo um relatório da McKinsey de 2024, 78% das organizações entrevistadas afirmam já usar IA em pelo menos uma função de negócio. Nessa mesma linha, o relatório da OCDE (Organização para a Cooperação e Desenvolvimento Econômico) de 2025 aponta uma alta expectativa de ganhos de produtividade com a adoção de IA por firmas entrevistadas, dentre elas, 167 brasileiras.
Apesar do entusiasmo, essa inserção de tecnologia disruptiva traz sérios riscos. A imprecisão dos resultados, a quebra de privacidade e a violação de propriedade intelectual são apenas alguns dos problemas que podem gerar resultados adversos para as empresas. Esses riscos são tão evidentes que, segundo o mesmo estudo, cerca de 27% dos entrevistados afirmam que 100% dos resultados da IA Generativa são revisados por humanos antes do uso. Em contraste, parcela similar declara revisar apenas até 20% dos resultados advindos de tal ferramenta. Ainda, o relatório aponta que não há uma propensão a abordar riscos relacionados à precisão ou explicabilidade dos resultados da IA.
O desafio da ‘caixa preta’ no setor público
No setor público, a situação não é diferente. O relatório da OCDE de 2025 destaca o potencial da IA para melhorar processos internos e criar políticas mais eficazes e responsivas às necessidades dos cidadãos, fortalecendo a responsabilização dos governos. No entanto, há uma preocupação central: os riscos de uma implementação inadequada, como a amplificação de vieses e a falta de transparência, que podem levar a resultados injustos e discriminatórios com profundas implicações sociais.
Muitos modelos de IA são focados em predição e não oferecem explicações sobre o porquê de suas conclusões. Afinal, eles foram desenvolvidos para o poder preditivo, não para a explicabilidade. Ao tentar decifrá-los, encontramos apenas complexas fórmulas matemáticas, difíceis de interpretar.
É nesse ponto que a falta de transparência da IA como uma ‘caixa preta’ se torna ainda mais crítica e desafiadora para a gestão pública. Imagine chegar a uma consulta médica e ter que aceitar um diagnóstico sem entender suas causas, ou ter o pedido de um serviço público negado sem qualquer justificativa.
A explicabilidade como solução
Com essa necessidade em mente, surge mais recentemente, como uma alternativa às metodologias existentes, a IA Explicável (xAI) e modelos interpretáveis de Aprendizado de Máquina (iML, do termo em inglês Interpretable Machine Learning), um campo dedicado a desenvolver modelos de IA transparentes e interpretáveis.
No setor público, isso é vital, porque a responsabilidade social não pode ser diluída. A transparência e a interpretabilidade são a chave para fortalecer a confiança e a legitimidade no processo decisório. Além disso, modelos explicáveis podem auxiliar na identificação de vieses perpetuados por dados não representativos, garantindo que as políticas públicas sejam mais justas.
Embora a gestão pública com IA ainda precise amadurecer, essas tendências apontam para um caminho promissor. Entender o que leva um município a não cumprir metas ou um domicílio a ter insegurança alimentar é muito mais valioso do que apenas saber quantos não as cumpriram. A compreensão dos fatores por trás desses resultados é fundamental, e o uso adequado da tecnologia certa pode nos auxiliar de forma poderosa, ética e transparente.
Em última análise, a adoção da IA na gestão pública deve ir além da mera eficiência preditiva. É preciso considerar o uso correto da IA na produção de evidências para o suporte e o desenho de políticas públicas, visando à construção de um futuro mais justo e equitativo, com a tomada de decisão baseada em modelos de IA, sim, mas sempre de forma transparente e a serviço da sociedade – e não apenas seguindo a tendência do momento.
Este texto não reflete, necessariamente, a opinião da Unicamp.
Bibliografia
MCKINSEY & COMPANY. The state of AI in early 2024: Gen AI adoption spikes and starts to generate value. Nova York: McKinsey & Company, 2024. Acesso em: 6 set. 2025.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO; BOSTON CONSULTING GROUP; INSEAD. The adoption of artificial intelligence in firms: new evidence for policymaking. Paris: OECD Publishing, 2025. Acesso em: 6 set. 2025.
ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO. Governing with artificial intelligence: are governments ready?. Paris: OECD Publishing, 2024. (OECD Artificial Intelligence Papers, n. 20). Acesso em: 6 set. 2025.
Foto de capa:
