Sabemos que os drones estão ficando cada vez mais populares e acessíveis, mas se esses dispositivos controlados por seres humanos começassem a utilizar inteligência artificial?
Esse tipo de situação ocorreu nos céus e estradas ao Sul de Seattle em agosto do ano passado, onde uma dúzia de drones militares e robôs sobrevoaram o local. A missão era encontrar terroristas que eram suspeitos de se esconder em alguns prédios.
Portanto, com essa quantidade de equipamento militar, não haveria como um ser humano pilotar e ficar de olho em todos eles. Então com isso, foram programados para encontrar e eliminar os combatentes inimigos quando necessário.
Saiba um pouco mais sobre a operação
Primeiramente, essa missão foi apenas um teste promovido pela Agência de Projetos de Pesquisa Avançada de Defesa do Pentágono. Esses equipamentos estavam armados, porém com nada letal, apenas transmissores de rádio para simular as interações com os alvos.
Sobretudo, esse experimento foi executado para ver como a inteligência artificial poderia ajudar a expandir o uso da automação militar, inclusive em casos nos quais uma decisão de um ser humano seria muito difícil por conta da rapidez.
De antemão, esses testes mostram como o Pentágono está ficando cada vez mais aberto à utilização de armas autônomas, visto que existem conclusões que a tomada de decisão das máquinas em situações complexas e mais rápidas.
É mesmo necessário ter um humano no circuito? Palavras do General John Murray, do exercito dos EUA
Acima de tudo, cada equipamento automatizado recebeu um objetivo geral e através de algoritmos de Inteligência Artificial, elaboraram um plano para ação em questão. Cada um teve sua função tática, alguns cercaram o edifício, outros fizeram varreduras de vigilância.
Porém alguns foram destruídos por explosivos simulados, que consistiam em faróis representando as ameaças, assim ao optarem a atacar foram detonados.
Problemas ao dar tanta autonomia a esses algoritmos
Em suma, algumas nações já usam autonomia de sistemas em setores militares há décadas. Porém os grandes avanços nos algoritmos de Inteligência Artificial podem mudar a forma que essas armas são utilizadas.
Assim como, mostrado nas demonstrações feitas com drones as vezes será difícil manter o ser humano informado nesses tipos de situações. O grande problema disso, é que dentro desses algoritmos podem abrigar preconceitos ou se comportarem de formas imprevisíveis. Por exemplo, uma Inteligência Artificial treinada a reconhecer determinado tipo de roupa ou uniforme, pode atacar de forma errada pessoas que estiverem com vestuários parecidos.
Portanto, ainda há muito a ser discutido sobre o assunto assim como desenvolvido para que esses algoritmos cheguem em um nível de confiabilidade suficiente nos quais não coloquem em risco pessoas inocentes.