Por dentro da ética confusa de fazer guerra com máquinas
LarLar > blog > Por dentro da ética confusa de fazer guerra com máquinas

Por dentro da ética confusa de fazer guerra com máquinas

Jul 18, 2023

A IA está abrindo caminho para a tomada de decisões em batalha. Quem é o culpado quando algo dá errado?

Numa guerra num futuro próximo – que poderá começar amanhã, pelo que sabemos – um soldado assume posição de tiro num telhado vazio. Sua unidade tem lutado pela cidade, quarteirão por quarteirão. É como se os inimigos pudessem estar esperando silenciosamente atrás de cada esquina, prontos para lançar fogo sobre seus alvos no momento em que disparassem.

Através da mira, o soldado examina as janelas de um prédio próximo. Ele percebe roupas limpas penduradas nas varandas. Chega a notícia pelo rádio de que sua equipe está prestes a atravessar um terreno aberto abaixo. À medida que eles saem, uma caixa vermelha aparece no canto superior esquerdo da mira. O sistema de visão computacional do dispositivo sinalizou um alvo potencial – uma figura em silhueta em uma janela está se preparando, ao que parece, para atirar.

O soldado não tem uma visão clara, mas na sua experiência o sistema tem uma capacidade sobre-humana de captar o mais fraco sinal de um inimigo. Então ele coloca a mira na caixa e se prepara para apertar o gatilho.

Em uma guerra diferente, também possivelmente no horizonte, um comandante fica diante de um banco de monitores. Um alerta aparece de um chatbot. Traz a notícia de que satélites detectaram um caminhão entrando em um determinado quarteirão da cidade que foi designado como possível área de preparação para lançamentos de foguetes inimigos. O chatbot já aconselhou uma unidade de artilharia, que calcula ter a maior “probabilidade de morte” estimada, a apontar para o camião e aguardar.

Segundo o chatbot, nenhum dos edifícios próximos é uma estrutura civil, embora repare que a determinação ainda não foi corroborada manualmente. Um drone, que havia sido enviado pelo sistema para uma análise mais detalhada, chega ao local. O vídeo mostra o caminhão dando ré em uma passagem estreita entre dois complexos. A oportunidade de tirar a foto está chegando ao fim rapidamente.

Para o comandante, tudo agora fica em silêncio. O caos, a incerteza, a cacofonia – tudo reduzido ao som de um relógio e à visão de um único botão brilhante:

“APROVAR ORDEM DE INCÊNDIO.”

Puxar o gatilho – ou, conforme o caso, não puxá-lo. Para apertar o botão ou para esperar. Legalmente – e eticamente – o papel da decisão do soldado em questões de vida ou morte é preeminente e indispensável. Fundamentalmente, são estas decisões que definem o ato humano de guerra.

A automação pode nos ajudar a fazer escolhas difíceis, mas não pode fazer isso sozinha.

Não deveria surpreender, portanto, que os Estados e a sociedade civil tenham assumido a questão das armas autónomas inteligentes – armas que podem seleccionar e disparar contra alvos sem qualquer intervenção humana – como uma questão de séria preocupação. Em Maio, após quase uma década de discussões, as partes da Convenção das Nações Unidas sobre Certas Armas Convencionais concordaram, entre outras recomendações, que os militares que as utilizam provavelmente terão de “limitar a duração, o âmbito geográfico e a escala da operação” para cumprirem as as leis da guerra. A linha não era vinculativa, mas era pelo menos um reconhecimento de que um ser humano tem de desempenhar um papel – em algum lugar, em algum momento – no processo imediato que leva a um assassinato.

Mas as armas autónomas inteligentes que substituem totalmente a tomada de decisões humanas (provavelmente) ainda não foram utilizadas no mundo real. Até mesmo os drones e navios “autônomos” colocados em campo pelos EUA e outras potências são usados ​​sob estreita supervisão humana. Enquanto isso, sistemas inteligentes que apenas guiam a mão que puxa o gatilho têm ganhado espaço no kit de ferramentas do guerreiro. E eles silenciosamente se tornaram sofisticados o suficiente para levantar questões novas – perguntas que são mais difíceis de responder do que as disputas bem cobertas sobre robôs assassinos e, a cada dia que passa, mais urgentes: o que significa quando uma decisão é apenas parcialmente humana e máquina parcial? E quando, se é que alguma vez, é ético que essa decisão seja uma decisão de matar?

Durante muito tempo, a ideia de apoiar uma decisão humana por meios informatizados não foi uma perspectiva tão controversa. O tenente-general aposentado da Força Aérea Jack Shanahan diz que o radar do caça a jato F4 Phantom que ele voou na década de 1980 foi uma espécie de auxílio à decisão. Ele o alertou sobre a presença de outras aeronaves, ele me disse, para que pudesse descobrir o que fazer com elas. Mas dizer que a tripulação e o radar eram cúmplices iguais seria um exagero.