quinta-feira - 24 - abril - 2025

Mundo / IA / Início do Fim? Ou o Novo Faraó? As Máquinas Devem Escravizar os Humanos: A IA nasceu para ajudar a humanidade, mas em breve será usada para matar inimigos em guerras

Publicado por: Marcelo José de Sá Diretor-Presidente e Editor-Geral do Site do Jornal Espaço

 

Memorandos internos de big techs proibiam o uso de IA em iniciativas militares, mas tudo mudou recentemente — e devemos nos preocupar

Um drone militar dos Estados Unidos. Foto: Defense Visual Information Distribution Service (Licença gratuita)

 

A OpenAI, desenvolvedora do ChatGPT, nasceu como uma organização sem fins lucrativos e dizia ter como missão criar tecnologia amigável para a humanidade. Seu presidente de conselho até 2023, Greg Brockman, afirmou em 2018 que “a melhor coisa que eu poderia imaginar fazer era aproximar a humanidade da construção de IA real de forma segura”. Na época, Elon Musk ainda tinha uma posição importante na empresa, antes de se envolver em um embate que ainda não terminou.

O Google nasceu com filosofia similar. Seu principal lema era Don’t be evil (”não seja maligno”, em tradução livre), adotado oficialmente em 2004 e abandonado em 2015, quando a empresa foi reestruturada em torno da controladora Alphabet. Corporações costumam mudar rápido quando o dinheiro entra em jogo.

Em 2018, a gigante de buscas fez uma parceria com o Pentágono para criar tecnologia que analisaria imagens de drones com IA — algoritmos da empresa vasculhariam objetos e combatentes nas imagens com objetivos estratégicos. Era o infame Projeto Mavem. Na época, funcionários da empresa ficaram indignados com o uso da tecnologia da empresa para fins militares e o programa acabou abandonado.

Essas posturas são quase impensáveis nos dias atuais. A ligação entre as big techs e o complexo militar-industrial dos Estados Unidos hoje é profunda, praticamente indissociável. A Amazon fornece infraestrutura de nuvem, a Microsoft é uma das maiores fornecedoras de serviços de segurança cibernética ao Departamento de Defesa, e Google e OpenAI — empresas que já se descreveram como “benéficas” — estão desenvolvendo software de IA para o campo de batalha.

Dilema ético

Usar inteligência artificial na frente de combate era um dilema ético. Há anos, a ONU faz alertas e apelos sobre o assunto. Empregar algoritmos para decidir quando e em quem atirar ou bombardear não parece uma ideia promissora — afinal, quem pode ser culpado em caso de erros ou crimes de guerra? E como confiar em uma tecnologia cujas decisões não podem ser previstas ou entendidas até mesmo pelos maiores especialistas no assunto?

Tanto é que um memorando interno do Google listava “armas ou outras tecnologias cujo principal propósito ou implementação é causar ou facilitar diretamente ferimentos às pessoas” como “aplicações de IA que não buscaremos”. O memorando foi escrito dois meses depois do mal-estar interno causado pelo Projeto Maven, mas foi atualizado no início de fevereiro deste ano pelo CEO Sundar Pichai, que removeu qualquer referência a não criar IA militares.

Em janeiro de 2024, a OpenAI já tinha feito o mesmo, após deletar uma norma interna que não permitia o uso de suas ferramentas em “atividades que tenham alto risco de dano físico”.

IA na guerra

Em dezembro, a OpenAI anunciou uma parceria com a Anduril Industries — empresa focada na criação de equipamento militar com IA — para usar um modelo de inteligência artificial que ajude forças de combate a identificar aliados e se defender de ataques aéreos.

Conforme a Anduril afirmou em um comunicado da época:

“Como parte da nova iniciativa, a Anduril e a OpenAI explorarão como modelos de IA de ponta podem ser alavancados para sintetizar rapidamente dados sensíveis a tempo, reduzir a carga sobre operadores humanos e melhorar a consciência situacional.”

Uma das ideias é evitar que enxames de drones, como os usados na guerra na Ucrânia, atinjam tropas americanas em campos de batalha. Mas a Anduril lida com armas letais controladas por IA — mísseis e drones são os principais deles.

As duas empresas afirmam que têm preocupações sérias com segurança, como afirma novamente a Anduril em seu comunicado.

“Sujeita a uma supervisão robusta, esta colaboração será guiada por protocolos tecnicamente informados, enfatizando a confiança e a responsabilidade no desenvolvimento e emprego de IA avançada para missões de segurança nacional.”

Essa era uma mudança já esperada, dado a íntima relação entre a indústria de tecnologia ocidental e a indústria militar. É o que aponta Giovanni La Porta, CEO da Vórtice.ai, em entrevista ao blog.

“Empresas de tecnologia sempre trabalharam em parceria com as forças de defesa e segurança dos EUA. Um exemplo clássico é a IBM, que desenvolveu computadores para os militares dos EUA logo após a Segunda Guerra Mundial e, posteriormente, se tornou um dos pilares da computação empresarial. Outro caso é a DARPA, que financiou pesquisas que levaram ao desenvolvimento da internet e, indiretamente, ao crescimento de gigantes como Google, Amazon e outras Big Techs”, afirma La Porta.

Mesmo fora do conglomerado das maiores fabricantes de armas do mundo, alguns engenheiros já mostraram como poderiam ser armas guiadas por IA. Elas ainda dependem de certo controle humano para fins de demonstração, mas nada parece impedir que dispositivos totalmente autônomos possam ser operados no campo de batalha.

Um exemplo recente que viralizou é um rifle conectado a uma API do ChatGPT, capaz de disparar e responder a prompts com velocidade e precisão assustadoras. A criação é de um engenheiro conhecido online como STS 3D, que fez uma demonstração já famosa.

 

Sugestão de pauta ou denúncias é só enviar no e-mail: redacao@jornalespaco.com.br

Contatos de Reportagens e Marketing:

62 9 9989-0787 Vivo

62 9 8161-2938 Tim

62 9 9324-5038 Claro

Instagram: @Jornal Espaço

plugins premium WordPress