Drones transformam guerras e impactam direitos humanos
Avanço tecnológico suscita discussões sobre automação dos conflitos globais
Eliane Fonseca Daré
Texto
Antonio Scarpinetti | Imago/Alamy Stock Photo
Fotos
O uso de drones nas guerras tem se intensificado desde o início dos anos 2000, criando um cenário de combate remoto em que os militares realizam cada vez mais tarefas distantes dos campos de batalha. Seja na guerra entre Rússia e Ucrânia, no conflito que opõe Israel e Hamas ou nas operações contra grupos armados como Al-Shabaab na Somália, os direitos humanos são muitas vezes relegados a segundo plano. No meio do avanço tecnológico desse aparato bélico, civis têm sido vítimas fatais de ataques coordenados a distância.
Em dissertação de mestrado defendida no Programa de Pós-Graduação em Política Científica e Tecnológica do Instituto de Geociências (IG), Ana Bárbara Gomes Pereira, sob orientação de Rafael de Brito Dias, investigou as contradições jurídicas entre os direitos humanitários e os direitos de guerra, além do emprego da violência estatal. O trabalho usou como estudo de caso um ataque com drone realizado pelos Estados Unidos (EUA) responsável pela morte de dois civis iemenitas em 2012.
O caso iemenita ocorreu no contexto da guerra ao terrorismo iniciada pelos EUA após os atentados de 11 de setembro de 2001. Em um ataque remoto, conduzido por meio de um drone, cinco homens foram mortos. Desses, três eram suspeitos de envolvimento em uma organização terrorista, enquanto os outros dois eram tio e sobrinho, moradores da vila atacada. O primeiro era um religioso, professor e doutorando na Universidade de Hadhramout, enquanto o outro atuava como guarda de trânsito. No momento do ataque, o clérigo conversava com radicais que o haviam procurado devido a um sermão pregado dias antes contra o extremismo e a violência. Os cinco foram atingidos por um míssil lançado a partir de um drone – um dos quase 400 ataques realizados contra o Iêmen desde 2002 e que vitimaram cerca de 150 civis. Pereira observa que há poucas referências e relatórios sobre essa temática. No caso dos iemenitas, a família buscou a justiça para que os EUA reconhecessem a morte de seus parentes, e isso ajudou a pesquisadora a encontrar materiais confiáveis que subsidiassem o estudo proposto.
Pereira buscou identificar as escolhas técnicas que constroem e sustentam o ecossistema de guerras a distância e analisar como a pretensão da objetividade científica é paralela ao argumento de neutralidade e idoneidade das escolhas técnicas. O caso dos iemenitas descortinou múltiplas dimensões – discursiva, legal e técnica – de uma infraestrutura que sustenta a política estadunidense de uso de drones no combate ao terrorismo. Os EUA têm permissão, por exemplo, para operar uma base aérea norte-americana no território da Alemanha. No ataque ao Iêmen, o coordenador estava em solo americano. Para que o comando ao drone chegasse ao Oriente Médio, devido à curvatura da Terra, foi preciso que o sinal passasse pela base americana no país europeu, colocando-o como peça central na viabilidade dessa tecnologia.
Dias explica que o trabalho de Pereira se encaixa em uma agenda mais ampla de pesquisa desenvolvida pelo Grupo de Análise de Políticas de Inovação (Gapi), do IG, que passa pela reflexão sobre políticas da vida e da morte. “A forma como esse tipo de tecnologia é produzida no contexto do mundo contemporâneo acaba reforçando o que poderíamos chamar de política da morte”, afirma o docente. De acordo com Dias, essa infraestrutura é projetada para criar dinâmicas específicas no contexto da guerra, delineando uma fronteira entre o que é considerado legítimo e ilegítimo no direito internacional, bem como entre o que é moral e imoral. Pereira considera que o elemento do direito é mais um nicho dessa infraestrutura. “Existe um direito internacional que é conivente com determinados tipos de violência. Fui muito bem orientada na dissertação a perceber como essas violências acontecem, apesar do direito. Existe todo esse sistema de proteção internacional e humanitário que vai até um certo ponto”, explica a pesquisadora.
Pereira cita as políticas de inimizade, teorizadas pelo historiador camaronês Achille Mbembe, a partir das quais se nega a diplomacia nesses territórios. “Há evidências de que esse não seja um caso isolado [o dos iemenitas]. Ao contrário, há diversos relatórios internacionais humanitários que apresentam outros testemunhos de familiares vítimas desta política que, em última instância, configura uma política de violência e extermínio”, afirma Pereira. A maior parte das vítimas civis sequer tem sua identidade confirmada em documentos oficiais após os ataques conduzidos com drones. “A inserção dessa máquina autônoma nas relações transfronteiriças degrada o sistema internacional de direitos humanos, altera o entendimento e a permissividade sobre vigilância, controle e poder e enfraquece a diplomacia e os processos de governança e de regulação internacionais”, afirma a pesquisadora em sua dissertação.
Desafios éticos e sociais
Pereira expressa grande preocupação com o texto apresentado no projeto de lei 2338/2023, que permite a utilização de inteligência artificial em armas letais para a defesa nacional. A pesquisadora vê a proposta como uma surpresa negativa, destacando a necessidade de controle humano significativo em casos de sistemas autônomos. Ressalta, ainda, que essa abordagem pode abrir precedentes para diversas iniciativas de vigilância que comprometem importantes direitos fundamentais.
Movimentos contrários ao projeto de lei defendem o banimento de tecnologias de reconhecimento facial, policiamento preditivo, armas autônomas e sistemas para reconhecimento de emoções como forma de impedir o aprofundamento do racismo. A pesquisadora, ativa na campanha “Tire meu rosto da sua mira” pelo banimento do reconhecimento facial na segurança pública, questiona: “A política de vigilância necessariamente aumenta a segurança? Não temos tantas evidências assim. Temos visto vários exemplos de como essas tecnologias têm falhado, especialmente para populações mais vulnerabilizadas, como pessoas negras, que têm sido presas porque o reconhecimento facial falhou.”