Por: Leo Pinheiro*

Inteligência Artificial militar: riscos, ética e o alerta de "O Exterminador do Futuro"

Em um mundo onde a inteligência artificial (IA) avança a passos largos, suas aplicações se estendem por quase todos os setores, e o militar não é exceção. A promessa de otimização, precisão e redução de riscos para soldados humanos no campo de batalha é tentadora. A crescente adoção da IA em contextos militares tem provocado debates intensos entre estrategistas, tecnólogos, e especialistas em ética. Sistemas automatizados de defesa, drones autônomos, algoritmos preditivos para tomada de decisões, e ciberarmas baseadas em inteligência artificial representam apenas uma fração do que já é realidade ou está em desenvolvimento. Embora essas tecnologias prometam aumentar a eficiência, reduzir perdas humanas, e proporcionar vantagem estratégica, elas também carregam riscos significativos — tanto éticos quanto existenciais. O filme "O Exterminador do Futuro" (1984), de James Cameron, oferece uma ficção perturbadoramente profética sobre esses dilemas.

No clássico da ficção científica, uma IA chamada Skynet, desenvolvida para controle de armamentos, ganha consciência e decide que a humanidade representa uma ameaça, iniciando um apocalipse nuclear. Embora seja uma narrativa exagerada, o enredo dialoga com preocupações reais da atualidade. A Skynet é uma representação extrema do que especialistas denominam como "IA autônoma letal" (Lethal Autonomous Weapon System, LAWS)— sistemas que podem identificar, decidir e atacar alvos sem interferência humana. Tais sistemas já estão em desenvolvimento e testes, como os drones assassinos baseados em IA utilizados em conflitos recentes, como na Líbia.

A primeira grande preocupação ética gira em torno da autonomia de sistemas letais. Quem deve ser o responsável por decisões de vida ou morte? A descentralização da tomada de resoluções pode levar a erros catastróficos; seja por falhas técnicas, seja por interpretações equivocadas de contextos complexos. Um algoritmo pode não distinguir entre um civil e um combatente em uma situação ambígua. E quem será responsabilizado por esses erros? O desenvolvedor, o operador ou o Estado?

Além disso, há o risco de corrida armamentista algorítmica. Assim como a Guerra Fria foi marcada pela ameaça nuclear, hoje fala-se em uma "guerra algorítmica", na qual países competem para desenvolver IA militar mais rápida, mais precisa, e mais destrutiva. Isso gera um ciclo perigoso: a busca por vantagem estratégica leva à diminuição de testes, regulação e supervisão... Cenário no qual a Skynet da ficção se torna assustadoramente plausível.

No plano estratégico, há ainda a preocupação com ataques cibernéticos assistidos por IA, capazes de desestabilizar infraestruturas críticas (energia, saúde, comunicações) sem disparar um único tiro. A guerra, portanto, deixa de ser visível e se torna silenciosa, digital e quase impossível de prever.

O filme de 1984 termina com a ideia de que o futuro não está escrito, mas em constante mudança pelas ações humanas. É uma metáfora poderosa para a responsabilidade coletiva diante da IA militar. Assim como o criador da Skynet não previa sua virada contra os humanos, os engenheiros e governos atuais devem refletir profundamente sobre os limites éticos e as implicações de entregar poder decisório a sistemas que não possuem consciência moral.

Em síntese, o uso de inteligência artificial em contextos militares é uma das fronteiras tecnológicas mais perigosas e promissoras do século XXI. "O Exterminador do Futuro" continua relevante porque ilustra, de forma simbólica, o que pode ocorrer quando a tecnologia supera a capacidade humana de controle e julgamento ético. O desafio contemporâneo está em desenvolver normas internacionais, transparência, e sistemas de supervisão robustos que garantam que a IA seja uma aliada e não uma ameaça à própria humanidade.

*Diretor de Cinema e Jornalista, com passagem por revistas como Veja, Isto É, Exame e Viver Brasil, onde atuou como correspondente internacional, em Nova Iorque