Um drone controlado por Inteligência Artificial (IA) terá “matado”, durante um teste virtual realizado pelas Forças Armadas dos EUA, o seu operador virtual para o impedir de interferir nos seus esforços para concluir a missão que lhe tinha sido atribuída, que era “destruir os sistemas de defesa aérea do inimigo”. Estas alegações chegaram no final de maio pela voz do coronel Tucker ‘Cinco’ Hamilton, responsável de testes e operações de IA da Força Aérea dos EUA.

Porém, numa declaração enviada ao Business Insider, Ann Stefanek, porta-voz da Força Aérea norte-americana, afirmou que não foi conduzida “nenhuma dessas simulações de drones de Inteligência Artificial” e revelou que os militares continuam “comprometidos com o uso ético e responsável” dessa tecnologia. “Parece que os comentários do coronel foram tirados do contexto e foram feitos com o intuito de serem anedóticos”, acrescentou.

O The Guardian adianta que nenhuma pessoa foi realmente morta e que ninguém ficou magoado, nem seria essa a intenção, mas que a Inteligência Artificial terá utilizado “estratégias altamente inesperadas” para cumprir a missão que lhe tinha sido atribuída — eliminar qualquer obstáculo ao cumprimento da missão que lhe foi confiada. Foi numa conferência em Londres que Tucker “Cinco” Hamilton quis alertar para o facto de esta tecnologia se poder comportar de formas imprevisíveis e até perigosas e, por isso, deu como exemplo o alegado teste virtual.

“O sistema começou a perceber que, apesar de ter identificado a ameaça, por vezes o operador humano dizia-lhe para não a matar, mas conseguia pontos se matasse a ameaça. Então, o que é que ele fez? Matou o operador. Matou-o porque estava a impedi-lo de cumprir o seu objetivo“, detalhou. “Treinámos o sistema [da seguinte forma]: ‘não mates o operador, isso é mau, vais perder pontos se fizeres isso’. Então, o que é que ele começou a fazer? Começou a destruir a torre de comunicação que o operador usa para comunicar com o drone para o impedir de matar o alvo”, alegou o coronel, que acrescentou que o exemplo do suposto teste virtual mostra que “não se pode ter uma conversa sobre Inteligência Artificial, machine learning e autonomia se não se falar de ética e IA”.

PUB • CONTINUE A LER A SEGUIR