Equipamento Militar

Google diz que não vai utilizar inteligência artificial em armas que façam mal a humanos

A empresa divulgou os seus princípios no desenvolvimento da tecnologia de inteligência artificial. Colaboração com projetos de defesa militar vai continuar, mas de armas que façam mal a humanos não.

Os usos da inteligência artificial tem sido um dos novos tópicos de debate entre as grandes tecnológicas

Depois de vários funcionários se terem despedido da Google e mais de quatro mil terem assinado uma carta em protesto (divulgada pelo The New York Times) contra as parcerias com o exército que a empresa tem em projetos de inteligência artificial, o presidente executivo da Google, num comunicado, anunciou as próprias imposições da empresa americana na utilização da tecnologia.

Não vamos utilizar a inteligência artificial para (…) armas ou outras tecnologias cujo propósito principal é causar o facilitar ferimentos em pessoas”, diz o comunicado sobre os princípios da Google na utilização da inteligência artificial.

Depois de ter sido anunciado esta semana, como noticiou a Wired, que a Google não vai continuar a trabalhar no controverso “Project Maven“, depois de 2019 (data em que o contrato com o governo norte-americano termina), a empresa divulgou estes princípios. O projeto com o exército norte-americano, que utiliza a inteligência artificial para ajudar satélites a marcarem os alvos de drones, foi um dos motes para a Google tomar uma posição pública recentemente devido às criticas que recebeu (fora e dentro da empresa).

No comunicado com os princípios para a utilização de inteligência artificial, a empresa afirma que apesar de não continuar a trabalhar com “governos e exércitos” no uso de armas, vai trabalhar noutras áreas, como “cibersegurança, treino, recrutamento militar (…)”, entre outros.

No texto assinado pelo presidente executivo da empresa, Sundar Pichai, a Google divulga a sua carta de princípios com esta tecnologia. A empresa afirma que a inteligência artificial tem de beneficiar a sociedade, não pode discriminar pessoas (como já aconteceu em casos de aplicação desta tecnologia, como quando foi divulgado um estudo que defendia a existência de um algoritmo que detetava a orientação sexual de um indíviduo), e que tem de poder ser controlada por humanos.

Partilhe
Comente
Sugira
Proponha uma correção, sugira uma pista: mmachado@observador.pt
Inovação

Web Summit e provincianismo

Fernando Pinto Santos
100

Porque é a investigação académica tão desconsiderada em Portugal? Talvez porque moldes ou toalhas não sejam tão glamorosos como uma app com um nome estrangeiro numa conferência com o nome de Summit.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

Confirme a sua conta

Para completar o seu registo, confirme a sua conta clicando no link do email que acabámos de lhe enviar. (Pode fechar esta janela.)