Opinião: IA na Guerra—A silenciosa mudança da indústria de tecnologia em direção ao campo de batalha

Image generated using ChatGPT

Opinião: IA na Guerra—A silenciosa mudança da indústria de tecnologia em direção ao campo de batalha

Tempo de leitura: 6 minuto

O debate sobre armas autônomas, políticas de segurança tecnológica e ética em IA no âmbito militar é contínuo, mas os últimos dias trouxeram grandes desenvolvimentos. Líderes da OpenAI, DeepSeek e até mesmo o fundador do Spotify anunciaram novos acordos para trabalhar com governos em tecnologias de defesa e IA estratégica

As tensões em torno do uso da inteligência artificial na guerra se intensificaram nos últimos dias. Este mês, várias empresas de tecnologia anunciaram novas parcerias estratégicas com governos para desenvolver projetos de defesa. E, como em muitos aspectos no âmbito da IA, houve uma mudança acentuada nos últimos meses na maneira como a IA está sendo abordada para o desenvolvimento militar e de armas.

Há apenas alguns dias, a OpenAI e o governo dos EUA anunciaram um contrato de 200 milhões de dólares para desenvolver ferramentas de defesa alimentadas por IA. Os detalhes ainda são escassos, com os oficiais enfatizando “operações administrativas” como a principal aplicação.

Enquanto isso, o empreendedor sueco e fundador do Spotify Daniel Ek apoiou a empresa alemã Helsing ao liderar uma rodada de investimento de 600 milhões de euros. A Helsing, que originalmente se concentrava em tecnologia de software, agora está se movendo para o desenvolvimento de drones, submarinos e aeronaves.

A Reuters recentemente revelou que o DeepSeek está ajudando as operações militares e de inteligência da China. Um alto funcionário dos EUA disse que a startup de IA tem ajudado a resolver os desafios na guerra comercial entre os EUA e a China, e seu modelo de código aberto está ajudando o governo chinês em operações de vigilância.

Grandes empresas de tecnologia estão colaborando com governos de maneiras que não estamos acostumados a ver—pelo menos não tão publicamente—e estão se envolvendo em atividades que tradicionalmente não faziam parte de seu papel, como executivos sênior de tecnologia se juntando à Reserva do Exército dos EUA.

O que está acontecendo?

Uma Mudança na Fala

As empresas de tecnologia passaram de “Nunca usaríamos IA para fins militares” para “Talvez vamos silenciosamente apagar esta cláusula de nossas políticas” para “Ótimas notícias, agora estamos construindo armas movidas a IA para o governo!”

Pelo menos, é assim que parece para o observador atento.

Não faz muito tempo, os gigantes da IA pareciam orgulhosos em declarar que nunca apoiariam aplicações militares, mas algo mudou. O Google é um ótimo exemplo.

Em 2017, o Departamento de Defesa dos EUA lançou o Projeto Maven, a Equipe de Guerra Algorítmica, uma iniciativa para integrar a IA às operações militares. O Google estava inicialmente envolvido, mas protestos internos – motivados por preocupações éticas dos funcionários – levaram a empresa a se retirar temporariamente.

No ano passado, surgiu outro impulso em direção às atividades militares, e quase 200 trabalhadores do Google DeepMind instaram a empresa a abandonar os contratos militares.

“Qualquer envolvimento com a fabricação de armas e militares impacta nossa posição como líderes em IA ética e responsável, e vai contra nossa declaração de missão e os princípios de IA declarados”, escreveram os funcionários preocupados.

Desta vez, a resposta do Google foi esperar e atualizar silenciosamente suas diretrizes de ética em IA ao remover a parte em que afirmavam que nunca desenvolveriam tecnologia de IA que pudesse causar danos. Demis Hassabis, chefe de IA do Google, explicou que eles estavam apenas se adaptando às mudanças no mundo.

Embora o caso do Google ilustre a relação em evolução entre a IA e o uso militar, é apenas um exemplo de uma mudança mais ampla em toda a indústria em direção ao atendimento de objetivos de defesa.

A IA está remodelando o setor militar e de defesa

O lançamento do Project Maven, ou como alguns podem chamar, “quando o governo dos EUA percebeu que grandes modelos de linguagem poderiam ser extremamente úteis na guerra”, revelou uma das razões pelas quais o governo dos EUA está interessado em IA.

A capacidade dos sistemas de IA de processar enormes quantidades de dados, identificar objetos no campo de batalha e analisar imagens é especialmente atraente no setor de defesa.

Análises Aprimoradas, Além das Capacidades Humanas

Desde 2022, tanto a Ucrânia como a Rússia têm integrado sistemas de IA em suas operações militares.

O governo ucraniano fez parcerias com empresas de tecnologia e implementou várias estratégias para aproveitar ao máximo os grandes modelos de linguagem. Recentemente, processou 2 milhões de horas de filmagens de campos de batalha—o equivalente a 228 anos de vídeo—para treinar modelos de IA para processos militares. Quantos humanos seriam necessários para analisar essa quantidade de dados?

“Isto é alimento para a IA: Se você quer ensinar uma IA, você lhe dá 2 milhões de horas (de vídeo), ela se tornará algo sobrenatural,” explicou o fundador do sistema digital sem fins lucrativos OCHI, Oleksandr Dmitriev. As filmagens podem otimizar o desempenho das armas e ajudar a melhorar as táticas de combate.

Outro sistema de IA, Avengers, é a plataforma de inteligência alimentada por IA desenvolvida pelo Centro de Inovação do Ministério da Defesa da Ucrânia, que processa vídeos ao vivo de drones e identifica até 12.000 unidades inimigas por semana.

Drones: Um Artigo Quente No Campo de Batalha

Drones no campo de batalha — frequentemente referidos como “máquinas de matar” — são atualmente uma das tecnologias mais valiosas na guerra moderna devido à sua autonomia, precisão e baixo custo. Esses robôs permitem que nações em guerra realizem ataques de alto impacto sem arriscar pilotos humanos e por uma fração do custo tradicional.

Até maio deste ano, a Rússia havia implantado mais de 3.000 drones Veter kamikaze na Ucrânia. Esses sistemas são capazes de identificar alvos e executar ataques autonomamente.

Há apenas alguns dias, soldados ucranianos implantaram o drone Gogol-M, um drone “nave-mãe” que pode percorrer até 300 quilômetros, transportar outros drones, evadir o radar ao voar em altitudes baixas e escanear o solo abaixo para detectar e atacar tropas inimigas.

De acordo com o The Guardian, cada ataque usando este poderoso drone custa cerca de $10.000, enquanto um sistema de mísseis usando tecnologia um pouco mais antiga teria custado entre $3 e $5 milhões.

A novíssima startup Theseus rapidamente levantou $4.3 milhões depois que seus jovens fundadores compartilharam uma postagem na plataforma de mídia social X no ano passado, dizendo que haviam construído um drone por menos de $500 que podia voar sem um sinal de GPS.

Embora a tecnologia de drones ainda não seja tão precisa quanto alguns desenvolvedores esperam – especialmente quando afetada por condições climáticas que reduzem sua “visibilidade” – ela mostrou grande potencial no setor.

Um Consenso Global Difícil de Alcançar

Não são apenas os países em guerra ou as principais potências mundiais que estão desenvolvendo novas tecnologias alimentadas por IA para defesa. Muitas nações têm integrado a IA aos esforços de cibersegurança e ao desenvolvimento de armas autônomas há anos. Isso não é apenas um fenômeno de 2025.

Desde 2014, as Nações Unidas têm tentado concordar em estruturas regulatórias com várias nações, sem sucesso.

Mais de 90 nações recentemente se reuniram na Assembleia Geral da ONU em Nova York para discutir o futuro de armas autônomas controladas por IA e suas regulamentações. Elas não chegaram a um consenso, e a Assembleia Geral apenas aprovou uma resolução não vinculativa de 2023, que alerta sobre a necessidade de abordar os sistemas de armas autônomos letais (LAWS).

O grande debate agora é sobre implementar ou não um quadro global. Muitos países concordam com a necessidade de novas diretrizes globais que possam regular empresas privadas de IA e nações. Outros países, como os EUA, China, Rússia e Índia, preferem manter as leis internacionais atuais e criar, independentemente, novas para cada nação de acordo com suas necessidades locais – ou interesses. E acabamos de testemunhar o quão caótico foi o processo de criação de novas regulamentações de IA, mesmo a nível estadual na Califórnia.

Empresas de Tecnologia Cada Vez Mais Envolvidas

Ativistas como Laura Nolan do Stop Killer Robots se preocupam com a falta de medidas de segurança e quadros legais que controlam o avanço das empresas de tecnologia no desenvolvimento de armas autônomas e software de IA para o exército.

“Geralmente, não confiamos nas indústrias para se auto-regularem… Não há motivo para acreditar que as empresas de defesa ou tecnologia sejam mais dignas de confiança,” disse Nolan à Reuters.

Em 2024, pesquisadores revelaram que instituições chinesas têm usado o modelo de linguagem de grande escala de código aberto da Meta, o Llama, para fins militares. O Pentágono fechou um acordo com a Scale AI para desenvolver o Thunderforge—um projeto de IA para modernizar a tomada de decisões militares. E a OpenAI se associou ao contratante militar Anduril—um aliado de defesa do Exército dos EUA, do Reino Unido, da Ucrânia e da Austrália.

Startups de defesa também têm crescido na Europa, ganhando espaço não apenas no desenvolvimento de novas tecnologias e projetos, mas também na atração de talentos de alto nível.

Um Desenvolvimento Complicado

Outro fator intimamente ligado ao envolvimento das empresas de tecnologia nas estratégias de defesa nacional é o nacionalismo. Cada vez mais desenvolvedores de software e especialistas em IA optam por trabalhar em projetos que se alinham com seus ideais e raízes culturais, em vez de simplesmente buscar salários mais altos. Alguns até recusaram empregos nos EUA que ofereciam o dobro do salário – como no Google ou OpenAI – para se juntar a empreendimentos europeus como a Helsing, por exemplo.

Os fios da política, tecnologia, nacionalismo e batalhas ideológicas estão se entrelaçando cada vez mais – muitas vezes deixando para trás considerações de ética, moralidade e humanismo.

Desenvolvimentos recentes deixam claro que gigantes da tecnologia estão desempenhando um papel enorme nos esforços militares e de defesa nacional ao redor do mundo. O desenvolvimento de armas autônomas e tecnologias relacionadas à guerra está avançando em um ritmo ultra-rápido, enquanto os esforços das Nações Unidas para estabelecer acordos internacionais e regulamentos para o futuro da humanidade parecem cada vez mais minimizados.

Sem acordos internacionais – e com empresas de tecnologia ambiciosas apoiadas por governos para desenvolver as armas mais poderosas do mundo usando IA – o que o futuro reserva para a humanidade nos próximos anos?

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback