wp-header-logo.png

A guerra moderna tem se tornado uma espécie de operação algorítmica. O recente conflito aberto envolvendo os Estados Unidos, Israel e o Irã marcou um ponto de inflexão na história militar global. Durante as ofensivas, os Estados Unidos empregaram maciçamente drones autônomos e sistemas de inteligência artificial para mapear, priorizar e atacar alvos no território iraniano. Essa digitalização do campo de batalha garantiu uma vantagem tática brutal, acelerando o planejamento de bombardeios que antes levavam dias para serem executados de forma analógica.

No entanto, a extrema velocidade do processamento de dados levantou questionamentos sobre a permanência efetiva do controle humano nessas missões letais.

Para destrinchar esse cenário, a reportagem conversou com Pedro Teberga, especialista em negócios digitais e professor da Faculdade Einstein. Na visão do especialista, o debate público está focado no ponto errado: “O problema não é a tecnologia, é o tempo que se leva para a tomada de decisão acontecer”, afirma.

A ilusão do controle e a automação por consentimento

A narrativa oficial das forças armadas sustenta que sempre haverá um operador humano treinado para autorizar o disparo final. Contudo, a prática revela uma dinâmica muito mais automatizada. Segundo o especialista, quando um sistema identifica um alvo em frações de segundo, o operador humano possui uma janela de apenas três ou quatro segundos para decidir sobre o ataque.

De acordo com Pedro, a psicologia militar chama esse fenômeno de automação por consentimento. “Nesse cenário, ele não está controlando nada, está apenas confirmando o que a máquina já escolheu. O humano está presente formalmente, mas cognitivamente já saiu da jogada”, explica.

O professor ressalta que infraestruturas consolidadas, como o sistema de defesa israelense Iron Dome, já operam com essa lógica por absoluta necessidade de resposta rápida. “Então, quando alguém diz que há supervisão humana, a pergunta certa é sobre quanto tempo essa supervisão dura. Porque três segundos é reflexo, não pode ser considerado decisão”.

Falhas sistêmicas e o perigo do viés algorítmico

Além da velocidade crítica de resposta, a tecnologia militar atual ainda apresenta desafios estruturais graves de identificação visual. O especialista aponta que o principal perigo reside na capacidade da inteligência artificial de confundir padrões matemáticos com a realidade em solo. Como o software aprende a reconhecer situações a partir de dados históricos, qualquer mudança brusca de cenário pode induzi-lo ao erro.

Para ilustrar a gravidade desse problema, Pedro cita um exemplo prático de campo. “Um agricultor carregando equipamento numa imagem de baixa qualidade pode ser classificado como ameaça”, ilustra.

Na avaliação do professor, as consequências escalam de acordo com o ambiente: “Em uma aplicação comercial, esse erro é um inconveniente. Já numa decisão letal, é uma tragédia”. O especialista lembra ainda o problema crônico dos vieses de dados e o risco de manipulação cibernética, onde pesquisadores já provaram que alterações invisíveis ao olho humano conseguem enganar e desviar esses sistemas completamente.

O racha no Vale do Silício e os contratos militares

É justamente fundamentado nesse alto risco de danos colaterais que companhias de tecnologia decidiram traçar firmes limites de segurança. A Anthropic, uma das principais desenvolvedoras do setor, publicou um posicionamento categórico reconhecendo essas vulnerabilidades técnicas e afirmando que não está pronta para permitir o uso de seus modelos em armamentos totalmente autônomos.

Contudo, a recusa por princípios éticos abre espaço imediato para a concorrência. Após o recuo da Anthropic, a OpenAI avançou rapidamente em negociações diretas com o Pentágono, aceitando contratos com ressalvas estruturais que, segundo o especialista, são impossíveis de serem verificadas por atores externos. Esse movimento agressivo provocou intensa apreensão entre os próprios funcionários do setor de tecnologia.

Na análise de Pedro, o mercado lê essas decisões não como convicção, mas como puro posicionamento estratégico. “Quando uma empresa impõe limites voluntários, ela abre espaço para a concorrente entrar sem esse custo. É uma dinâmica clássica”, analisa.

Segundo o professor, a pressão no setor se inverte rapidamente, fazendo com que quem mantém restrições pareça menos competitivo. “O Pentágono sabe disso e usa – há relatos de que a estratégia deliberada é negociar com cada empresa separadamente, apostando que o medo de ficar de fora do contrato vai fazer alguém ceder primeiro”.

A pressão geopolítica e a arquitetura letal

A pressão governamental pela inovação armamentista encontra forte respaldo na geopolítica global. Nações rivais, como China e Rússia, avançam rapidamente no desenvolvimento de algoritmos de combate sem os mesmos freios internos impostos por corporações norte-americanas. O especialista reconhece que o argumento do Pentágono é sempre focado na ameaça iminente: se os Estados Unidos não desenvolverem a tecnologia, o adversário o fará.

Contudo, o professor adverte que o armamento autônomo muda a equação do combate ao operar em larga escala, com custo cada vez menor e sem risco de baixas para quem o emprega. “Ceder à corrida sem um acordo multilateral é como se fosse iniciar uma competição sem árbitro”, pontua.

Tecnicamente, a barreira que impede a máquina de efetuar disparos letais não reside na inteligência artificial em si, mas na arquitetura do sistema operacional ao seu redor.

De acordo com o pesquisador, o modelo processador não sabe distinguir se está recomendando um alvo no painel ou acionando um disparo. Isso é responsabilidade do código. E o gargalo definitivo ocorre na perda de comunicação. “O que o drone faz quando perde o sinal está definido no código, não em tratado”, ressalta o especialista. “E é exatamente nesse momento que a fronteira entre inteligência e ação letal desaparece”.

O colapso da responsabilidade em crimes de guerra

Neste cenário de automação extrema, o vácuo estrutural do direito internacional moderno torna-se alarmante. O especialista destaca o forte contraste entre a diplomacia e a velocidade do setor privado. Enquanto a Convenção de Genebra levou décadas para ser negociada entre os Estados, gerando mecanismos de fiscalização reais, o setor de tecnologia opera sob outra lógica.

“Os Termos de Uso de uma empresa de tecnologia podem ser alterados numa reunião de diretoria, sem consulta pública, sem verificação externa”, alerta Pedro. O direito internacional, de acordo com ele, simplesmente não acompanhou a tecnologia, permitindo que o vácuo legislativo seja preenchido por contratos privados.

Se a guerra se torna majoritariamente gerida por redes de software, a hierarquia militar perde sua essência. Segundo o professor, o soldado na linha de frente vira um mero supervisor de sistema, e o comandante transforma-se em um gestor de parâmetros numéricos.

É neste ponto que o especialista levanta o questionamento. “Quando um sistema autônomo mata civis, quem é o responsável? O general que autorizou o uso? O engenheiro que escreveu o código? A empresa que vendeu o sistema? O Estado que o implantou?”, indaga.

Nenhuma dessas respostas resolve o impasse de forma isolada. Para o especialista, o risco concreto é que atrocidades passem a ocorrer sistematicamente sem que ninguém seja responsabilizado de forma efetiva. “O direito foi construído sobre a ideia de agente humano responsável. Quando o agente é um algoritmo, esse fundamento desmorona”, conclui.

source
Fonte : CNN

Destaques Informa+

Relacionadas

Menu