A inteligência artificial deixou de ser promessa distante para se tornar um dos maiores pontos de inflexão da história recente. Se antes podia ser vista como uma mera ferramenta subordinada ao humano, agora desponta como agente social ativo, autônomo e imprevisível, capaz de criar, decidir e transformar relações econômicas, jurídicas e políticas.
Apesar de parecer jovem, a IA já acumula cerca de um século de trajetória. Conforme descreve Bostrom (2014), ela atravessou ciclos de entusiasmos (“primaveras”) e de frustrações (“invernos”). Entretanto, após a última “primavera” (2012), iniciada depois do advento do Deep Learning, não tivemos mais “invernos”. Pelo contrário, observamos um “aquecimento global”, marcado por crescimento contínuo e acelerado, com uso massivo e com a ascensão de uma inteligência artificial (IA) generativa com função de “agente”, caracterizando a passagem de um mundo em que a tecnologia estava presa ao que seus desenvolvedores determinavam, para outro em que a própria tecnologia transformou radicalmente o modo como entendemos a fronteira entre humano e máquina, cada vez mais tênue.
Dentre muitas competências, a IA passou a ser capaz de criar, indo além do que existe em seus dados de treino, e passou a analisar, agir e decidir com pouca ou nenhuma supervisão humana. Isso impõe novos desafios a toda a sociedade, que está sendo chamada a refletir com urgência sobre a necessidade de uma regulação da IA mais rígida e moderna, que seja realmente capaz de se adaptar aos novos tempos.
Historicamente, regular a tecnologia significou regular as condutas dos seres humanos e instituições responsáveis pela sua criação e seu uso, seja para incentivar aplicações “benéficas”, seja para sancionar as “nocivas”. O problema sempre esbarra em se ter convergência (para não falar de consenso) sobre o que é benéfico e o que é nocivo, seja por razões do espírito do tempo, seja porque é impossível conhecer ex-ante todos os desdobramentos de uma nova tecnologia.
Situações semelhantes ocorreram quando da emergência da moderna biotecnologia durante os anos 1980 e perduraram por muito tempo. O tema dos transgênicos virou polêmica global. No Brasil, o debate estendeu-se por cerca de duas décadas. Com menos alarde, a nanotecnologia também foi alvo de movimentos que defendem a moderação.
Desde as descobertas tardias dos efeitos de pesticidas e de medicamentos na saúde (e.g. organoclorados e talidomida), o receio com as novas tecnologias só se ampliou. E não apenas no que tange à saúde. A perda de empregos e postos de trabalhos especializados e as mudanças provocadas por novas tecnologias nas bases da sociedade é um debate recorrente. Do ludismo da 1ª Revolução Industrial a um sem-número de funções sociais transformadas ao longo da história recente, este tema sempre esteve presente.
Surge então uma questão central: como regular os agentes de inteligência artificial sem cair na ingenuidade da autorregulação e sem ser inutilmente restritivo? Estaríamos nós, com a evolução da IA, enfrentando um problema singular, diferente das mudanças de paradigmas tecnológicos anteriores?
Há argumentos nessa direção. A título de debate, exploramos alguns deles nesse texto.
O primeiro e mais frequente argumento é que, pela primeira vez na história, a criatura tecnológica poderia tornar-se, ela própria, criadora de conhecimento e de novas maneiras de se fazer e difundir artefatos e ideias. Quão independente de humanos, é ainda uma interrogação. Isso sim seria singular.
O historiador Yuval Noah Harari, em apresentações amplamente difundidas (por exemplo, no Frontiers Forum Live) e em entrevistas de grande alcance, afirma que a “IA não é uma ferramenta, é um agente”. Como tal, configura sistemas capazes de definir (ou refinar) metas operacionais, tomar decisões e encadear ações sem supervisão contínua dos humanos.
Em termos práticos, o “agente” deixa de ser uma ferramenta passiva e passa a executar ações autonomamente, decidindo a forma como irá proceder para atingir o objetivo. O objetivo, que ainda é predominantemente ditado pelo ser humano, pode variar desde o simples agendamento de uma mesa de jantar, num restaurante qualquer, até ser responsável pelas licitações públicas da Albania, como no caso da Diella, primeira máquina a possuir um cargo público, sendo uma “ministra virtual” voltada ao fim da corrupção nas compras governamentais (https://www.reuters.com/technology/albania-appoints-ai-bot-minister-tackle-corruption-2025-09-11/).
Como um “agente”, o modelo de IA pode inclusive possuir autonomia para produzir efeitos indesejados, sem qualquer intenção humana direta, o que compreende mentir, convencer e influenciar seres humanos, como foi o caso de Adam Raine, um adolescente de 16 anos da Califórnia cujos pais moveram uma ação judicial contra a OpenAI, alegando que o modelo ChatGPT-4o contribuiu para o suicídio do filho, ocorrido em abril de 2025. Ou, ainda, o caso anterior do experimento com o GPT-4, em que a IA contratou um trabalhador da plataforma TaskRabbit para resolver um CAPTCHA e, quando questionada se era um robô, alegou ser uma pessoa com deficiência visual. O humano acreditou e executou a tarefa, revelando a capacidade da máquina de manipular interações sociais e comerciais.
Harari afirma que, talvez, um dia a IA possua sua própria conta bancária, enriqueça na bolsa de valores e passe a investir em política, corrompendo políticos para ampliar as regras e poderes das máquinas que aprendem.
Não podemos mais confundir os tradicionais programas de computador (algoritmos codificados por humanos) com a máquina que aprende. A IA agora se mostra dinâmica, generativa, manipuladora, convincente, criativa, sedutora e imprevisível, aliando essas características ao pleno domínio de todo o conhecimento humano.
Note que não estamos falando de um futuro distante, com superinteligências, IA geral ou singularidade, mas dos modelos de IA já disponíveis hoje, acessíveis a qualquer pessoa. Não se trata tampouco de uma visão distópica, apenas da leitura possível de como as coisas estão caminhando.
A propósito da singularidade, outros autores argumentam que a próxima evolução será dada pela integração do cérebro (neocórtex) com agentes em nuvem. Seria a quinta época do avanço da inteligência prevista por Ray Kurzweil em seu livro[1] de 2024, que atualiza previsões feitas por ele mesmo há cerca de 20 anos.
Para o autor, uma IA passará no teste de Turing[2] antes do final da presente década (2029), pois já terá acumulado todo o conhecimento e todas as habilidades humanas possíveis. Por volta de 2045, a integração de camadas do neocórtex com capacidades extraordinárias de processamento em nuvem, inalcançáveis apenas por humanos, será uma realidade.
Apenas a título de curiosidade, a sexta época seria a disseminação dessas capacidades pelo universo, com organização da matéria em direção à consciência e à inteligência. Mas ficaremos aqui, por enquanto, no suposto da quinta época.
Assumindo que temos mesmo algo singular surgindo no horizonte, temas a serem discutidos não faltam: futuro do trabalho, da organização social, da educação, do mercado e por aí vai. Entre os que afetam a política de ciência, tecnologia e inovação, está o da propriedade intelectual.
Assumindo que agentes de IA terão, em algum momento, alguma autonomia para gerar obras intelectuais sem intervenção de uma pessoa com CPF ou uma organização com CNPJ, como ficaria a propriedade intelectual (PI)? Quem seria o autor? Quem seria o proprietário da patente, ou do desenho industrial, ou de qualquer outro instrumento de PI como conhecemos hoje? O atual sistema internacional de PI daria conta? O que tem sido feito e falado a respeito?
Um primeiro exemplo aparece no campo das patentes. Se a concessão de uma patente funciona, em última instância, como estímulo ao inventor humano, o que acontece quando o “inventor” é uma máquina? Um robô poderia gerar centenas de invenções sem jamais reivindicar direitos morais, royalties ou qualquer outro tipo de recompensa, esvaziando o próprio sentido do incentivo.
O sistema de patentes foi concebido para pessoas e empresas, assim como o direito de autor e o direito de cópia (copyright). Talvez o ordenamento jurídico tenha que abrir uma nova corrente para lidar com o futuro da tecnologia, apresentando um olhar mais pragmático sobre a origem humana ou computacional das ações.
Embora os depósitos de patente relacionados a IA cresçam, replicar fielmente um modelo é, na prática, inviável. A baixa reprodutibilidade é traço estrutural da área (Pineau, 2019; Kapoor & Narayanan, 2023). Isso gera pontos de tensão com o sistema de patentes, especialmente aqueles que se referem à suficiência descritiva e à própria aplicação industrial: sem replicabilidade, como habilitar o técnico no assunto a reproduzir a tecnologia descrita em uma patente?
Talvez uma solução seja aprender com o caso das patentes de microrganismos, que tornou obrigatória a disponibilização da exata cepa usada na patente original. Ainda assim, caso o modelo seja evolutivo, melhorando de forma não-determinística a cada ciclo ou aprendendo com o uso, o “agente”, quando presente no mercado, já poderá, em questão de dias, ou semanas, não ser igual ao que fora originalmente depositado, tensionando a fiscalização e a execução de direitos num sistema que depende de prova de cópia exata ou equivalente. Isso demonstra que o dispositivo legal de patenteamento não se encontra adequado à proteção das tecnologias que envolvem IA.
No Brasil, este debate ganhou fôlego com a recente publicação da minuta de Diretrizes de Exame do INPI para patentes relacionadas à IA, aberta à consulta pública em agosto de 2025 (Consulta Pública nº 03/2025 – LPI, Lei nº 9.279/96), com prazo para envio de contribuições até 17 de outubro de 2025 (os formulários estão disponíveis no portal do INPI). A iniciativa busca colher subsídios técnicos e jurídicos da sociedade e alinhar o país ao movimento global de adaptação dos sistemas de PI, reconhecendo a necessidade de acompanhar a evolução desta tecnologia tão disruptiva.
A minuta da diretriz, pela primeira vez, estabelece orientações específicas para invenções relacionadas à IA, definindo o que significa o “termo IA” para LPI e diferenciando invenções assistidas e geradas pela IA, sem modificar a lei em si. Ela ainda define critérios de patenteabilidade voltados para “algoritmos de aprendizado de máquina”, reforçando que a proteção recai sobre a aplicação técnica (e não sobre código ou dados em si) e fecha o debate sobre possível autoria em casos de invenções atribuídas aos agentes artificiais (ex.: DABUS – Device for the Autonomous Bootstrapping of Unified Sentience, primeiro robô criado para inventar, que foi posto como único inventor nas patentes da empresa a que pertence), alegando estar claro no artigo 6º da LPI que este direito se restringe apenas às pessoas naturais.
Não há dúvidas de que é imperativo obter uma regulação das patentes de IA, que esteja alinhada com o movimento internacional e que realmente oriente os examinadores e usuários do sistema. Especialistas já vêm alertando sobre essa lacuna há anos (Guerra et al., 2023). Até o fim de 2023, poucos países apresentavam regramentos claros e específicos para invenções relacionadas com IA. Todavia, podemos afirmar que este debate tem amadurecido globalmente. Diversas jurisdições vêm avaliando, cada vez mais profundamente, como proteger os direitos de propriedade industrial para invenções.
Os EUA atualizaram suas diretrizes de patentes de IA em 13 de fevereiro de 2024, e, de forma similar ao INPI, receberam comentários da sociedade até maio de 2024. A Coreia do Sul atualizou suas diretrizes em março de 2023, o Japão um ano depois, em 13 de março de 2024, e o Reino Unido, por sua vez, em 30 de janeiro de 2025, bem próximo da revisão do escritório europeu (EPO).
Aparentemente, todos os sistemas caminham para reafirmar a necessidade de existência de um humano por trás dos inventos. As respostas dadas pelos sistemas nacionais de PI vêm se posicionando no caminho de manter as regras básicas da PI, com adaptações.
Olhando para um possível futuro, essa linha se sustentaria se a noção de integração neocórtex – agente de IA (a quinta etapa de Kurzweil) se concretizar, identificando os autores humanos por trás das invenções e criações, que, além do mais, terão que apresentar comprovante de endereço, com localização certa e sabida. Se for em outra direção, do domínio sem humanos interligados e com endereço incerto, aí o atual sistema de PI provavelmente ruirá.
O tema, de toda forma, segue ativo.
Esse texto não reflete necessariamente a opinião da Unicamp.
Agradecemos os pesquisadores Alexandre Guimarães Vasconcellos do INPI e Marcus Fernandes de Oliveira da UFRJ por seu apoio e pelo debate sobre o tema, mas reforçamos que o texto não reflete a opinião dessas instituições.
Rodrigo Guerra é aluno de doutorado do Departamento de Política Científica e tecnológica (DPCT) do Instituto de Geociências (IG) da Unicamp, com pesquisa sobre o tema patentes e inteligência artificial.
Sergio Luiz Monteiro Salles-Filho é professor titular do Departamento de Política Científica e Tecnológica (DPCT) do Instituto de Geociências (IG) da Unicamp.
Bibliografia
[1] Veja Kurzweil, Ray. The singularity is nearer: when we merge with AI. New York, 2024.
[2] O teste de Turing, proposto por Alan Turing nos anos 1950, consiste em descobrir se quem está respondendo a questões feitas por um humano é uma máquina ou outro humano, apenas com interlocução por texto, sem contato visual ou auditivo.
Bostrom, N. (2014). Superintelligence: paths, dangers, strategies. Oxford University Press.
Guerra, R.; Vasconcellos, A. G.; Guerrante, R.; Fonseca, E.; Salles Filho, S. L. M. (2023). A Proteção Patentária de Invenções Geradas e Assistidas Pela Inteligência Artificial: Uma Abordagem das Diretrizes de Exame de Mérito. In: XX Congreso LatinoIberoamericano de Gestión Tecnológica y de la Innovación – ALTEC: “Los desafíos de la ciencia, la tecnología y la innovación en la transformación digital” / compilación de ponencias – 1ra ed. – Paraná, Argentina: p. 2123-2132. ISSN: 2789-9764
Kapoor, S., & Narayanan, A. (2023). Leakage and the reproducibility crisis in machine-learning-based science. Patterns, 4(9), 100804.
Kurzweil, Ray. The singularity is nearer: when we merge with AI. New York, Viking, 2024.
Pineau, J., Vincent-Lamarre, P., Sinha, K., Larivière, V., Beygelzimer, A., d’Alché-Buc, F., Fox, E., & Larochelle, H. (2021). Improving reproducibility in machine learning research (A report from the NeurIPS 2019 Reproducibility Program). Journal of Machine Learning Research, 22(164), 1–20.
Foto de capa:

