Visitámos a inteligência artificial do Facebook. Vídeos como o de Christchurch vão sempre acontecer /premium

15 Junho 2019

No centro de inteligência artificial do Facebook vimos que "estão desejosos de contratar mulheres", é impossível conter vídeos de terrorismo e falámos sobre Deus com LeCun, vencedor do prémio Turing.

Devemos temer a inteligência artificial ou abraçá-la para resolver os problemas da sociedade? A resposta não é certa. Contudo, no FAIR (Facebook Artificial Intelligence Research), o centro de investigação de inteligência artificial do Facebook, trabalha-se para resolver este tipo de questões. Como explica ao Observador o máximo responsável pelo centro, Yann LeCun, que recentemente foi um dos premiados com o prémio Turing (o “Nobel da Informática”): “Não resolvemos a inteligência artificial, ainda”.

A 15 de março, o atentado em Christchurch, na Nova Zelândia, mostrou como a inteligência artificial pode ser crucial para o trabalho do Facebook. O vídeo do massacre que matou 51 pessoas foi transmitido em direto na rede social fundada e gerida por Mark Zuckerberg. Automaticamente, a filtragem automática retirou 1,5 milhões de vídeos ligados ao ataque. O problema? Mesmo assim, o vídeo não desapareceu por completo da plataforma e o terror causado pelo australiano de extrema-direita Brenton Tarrant pôde ser visto e revisto por inúmeros utilizadores.

Além da investigação em inteligência artificial, é este tipo de problemas práticos que o FAIR quer resolver. Contudo, como assumem os próprios cientistas em visita ao centro, a propagação destes vídeos nunca vai ser completamente mitigada. Atualmente, para a inteligência artificial poder ser eficiente na triagem das imagens que promovem o terror, tem de “aprender” com outros filmes, explica Le Cunn. Infelizmente (ou felizmente, dependendo do ponto de vista), o repertório disponível de vídeos de atentados semelhantes ao do ataque de Christchurch não é vasto.

Mesmo que os investigadores do Facebook insiram no sistema de filtragem automática vídeos de outros tiroteios, cada um é diferente. No final, qualquer erro faz com que a liberdade de expressão possa acabar por ser condicionada. Um exemplo dado pelos investigadores do FAIR foi a possível utilização de vídeos de videojogos ou filmes de tiros. Contudo, se assim fosse, os vídeos de atentados podiam desaparecer, mas o sistema atual também iria filtrar os vídeos de entretenimento com que aprendeu a bloquear conteúdos.

O FAIR num mundo pós-Cambridge Analytica (e que critica como a China utiliza a inteligência artificial)

Mesmo depois de ser conhecido que a empresa de análise de dados britânica Cambridge Analytica utilizou indevidamente informação de 87 milhões de utilizadores do Facebook, o centro de investigação de inteligência artificial parece escudar-se dos escândalos da empresa que o criou em 2012. Os escritórios no centro de Paris continuam a acolher grande parte da equipa de investigação de inteligência artificial que trabalha em conjunto com a sede do Facebook em Menlo Park, na Califórnia, e outros espaços, como Tel Aviv ou Nova Iorque. Este centro francês até cresceu e, desde 2017, ganhou mais um andar para conferências e mesas de trabalho. Além disso, a proximidade com várias faculdades continua a ser um dos pilares destes projeto.

Como contou Jerôme Pesenti, vice-presidente de inteligência artificial no Facebook, e Antoine Bordes, diretor de investigação, são os cientistas contratados pela rede social que decidem o que querem investigar dentro da área de inteligência artificial. Depois, por vezes, o Facebook utiliza o conhecimento do FAIR para poder melhorar os produtos que tem. “Vocês não estão a desenvolver técnicas de reconhecimento de imagem?”, exemplifica Pesenti como uma das questões que o Facebook fez sobre os avanços feitos pelo FAIR. Depois, é este tipo de tecnologia que é utilizada por quem desenvolve os produtos na plataforma. Neste caso de Pesenti, a empresa mãe fez a pergunta para começar a criar sistemas de filtragem mais eficientes na rede social em 2013.

Contudo, mesmo com a investigação que o FAIR faz, “a inteligência artificial ainda está a melhorar para perceber tudo o que vê”, conta Pesenti. Os avanços, esses, já podem ser vistos em máquinas como o Portal, o ecrã inteligente do Facebook que segue o utilizador como um cameraman para o enquadrar no ecrã corretamente durante uma videochamada.

"O reconhecimento facial é um produto do Facebook, mas não estamos a estudá-lo. Está resolvido. Depende apenas de quão grande é a base de dados. Se calhar, o governo chinês quer construir isso [uma ferramenta que identifique toda a gente na Internet], mas não nós"

Apesar de ainda existirem bastantes dúvidas sobre inteligência artificial, também já há bastantes certezas. “O reconhecimento facial é um produto do Facebook, mas não estamos a estudá-lo. Está resolvido. Depende apenas de quão grande é a base de dados. Se calhar, o governo chinês quer construir isso [uma ferramenta que identifique toda a gente na Internet], mas não nós”, conta perentoriamente Yann LeCun. É devido ao trabalho do investigador que atualmente podemos utilizar ferramentas de reconhecimento digital de imagens.

Seja em ferramentas para minimizar os efeitos de vídeos como o de ataque em Christchurch nas redes sociais ou através da análise de dados para anúncios ou reconhecimento de imagem, “todos os produtos do Facebook estão a utilizar a inteligência artificial de muitas formas“, afirmam os responsáveis. Contudo, a pensar no futuro, o FAIR já está a fazer testes de novas coisas. “Um robô que anda pela casa e que sabe encontrar as chaves de casa”, exemplifica Pesenti. As vantagens para o Facebook ainda não são certas, mas se for como os avanços em reconhecimento de imagem através de inteligência artificial, a base da tecnologia pode ser utilizada para resolver problemas que a rede social ainda nem sabe que vai enfrentar.

Os investigadores do FAIR, como Joelle Pineau, contam que ainda há desafios para desvendar na inteligência artificial. Alguns são apenas técnicos, como ensinar a uma máquina o que pode acontecer num cenário e, com esse conhecimento, aplicá-lo a outra situação de maneira semelhante. Por estranho que possa parecer, isso ainda está longe de ser resolvido. Como refere Pineau, ao contrário dos humanos, a inteligência artificial pode perceber que um objeto cai se for atirado de uma janela, mas sozinha não vai perceber que o mesmo objeto também cai de outros sítios que não um parapeito.

[Um vídeo com um exemplo da utilização de inteligência artificial pelo Facebook em que, pelo reconhecimento de imagem, um programa diz o que está na imagem para auxiliar invisuais] 

No fim, por mais questões técnicas que sejam resolvidas, no FAIR assume-se que, com polémicas ou não do Facebook, há uma missão: ter uma inteligência artificial ética. “Temos de criar legislação para o avanço responsável da inteligência artificial. Temos de criar maneiras que sejam éticas e que promovam o bem estar social”, dizem os investigadores.

Mas em relação a casos polémicos que o Facebook tem enfrentado, como a Cambridge Analytica e Christchurch. Há mudanças? A resposta é “não”. Quanto à segurança, mantém-se apertada, mas já o era em 2017 (o caso Cambridge Analytica foi revelado plenamente em março de 2018).

Yann LeCun, vencedor do prémio Turing. “Sou ateu por que sou um cientista. Porque sou um racionalista”

Na visita ao FAIR também conseguimos falar com Yann LeCun. Não é só o francês responsável pelo centro, é também um dos vencedores de 2019 do prémio Turing. Como refere o The New York Times, LeCun é um dos principais responsáveis pelos “componentes chaves de rede neurais, que estão a remodelar a forma como os computadores são construídos”. Como diz o próprio: “É uma grande honra e é uma grande mudança em relação há alguns anos, em que o trabalho que fazíamos não era muito considerado”.

As descobertas que LeCun fez para o desenvolvimento de tecnologias de reconhecimento de voz e imagem, que atualmente “já têm resultados muito bons”, fizeram com que esse reconhecimento fosse mais amplo. Contudo, para o Facebook, ter LeCun à frente do FAIR não é só querer distinguir-se na investigação nesta área, é também uma afirmação de como quer desenvolver e utilizar a inteligência artificial eticamente.

Por ordem, os investigadores do FAIR: Joaquin Quinonero Candela, Jérôme Pesenti, Yann LeCun, Joelle Pineau e Antoine Bordes

Publicamente ateu, quando o Observador lhe pergunta se o trabalho com inteligência artificial o torna mais convicto da não existência de um deus ou deuses, o cientista afirma que “põe de lado a ideia de uma divindade”. “É uma hipótese extra que sinto que não precisamos para explicar como é que o mundo funciona“, continua. Assume também, entre risos, que se tornou “ateu antes de ser um cientista”. No entanto, acima de tudo, a ideia de religião “é uma coisa privada” e diz que tem só uma missão com o trabalho que faz: “O meu objetivo é minimizar o sofrimento humano e maximizar o bem estar humano”.

A questão do ateísmo de LeCun surgiu em 2017, quando o responsável do FAIR rejeitou um convite para falar numa universidade da Arábia Saudita. Motivo: “podia ser considerado um terrorista” por ser ateu. “Só tenho discussões muito sérias com as pessoas sobre religião quando essas crenças levam a comportamento irracional no mundo real e podem afetar outras pessoas”, argumenta. Nos EUA, onde vive atualmente, “a religião está na tua cara a toda a hora”, diz. “É com isso que não concordo, com a influência da religião na vida pública. Não é algo que pensava muito quando vivia em França, porque é um país muito secular, uma das nações mais seculares do mundo, certamente na Europa”, desabafa.

O trabalho que tem desenvolvido com inteligência artificial não influencia esta decisão e assume esta convicção moral com uma frase: “Tem a ver com o facto de ser um cientista, por isso sou um racionalista”. É este pensamento pragmático que leva LeCun a dizer também que “todas as tecnologias podem ser utilizadas para bons e maus fins”. Sobre a discussão crescente sobre a ética necessária para inteligência artificial, diz que no final, a questão “é um problema humano, um problema político”, e não um problema que vamos ter de enfrentar com as máquinas.

Quanto à pior aplicação que fazem das tecnologias que criou, é perentório na resposta: “A pior utilização é a da China, com o reconhecimento facial. Há câmaras nas ruas e reconhecem as pessoas a toda a hora. De um ponto de vista ocidental, isto é uma enorme invasão de privacidade. O governo chinês está feliz porque garante segurança, mas não algo que cedia e acho que ninguém no Ocidente está disponível para isso. Sinto-me mal por a tecnologia que inventei estar a ser utilizada com esse propósito. Só posso advogar bons usos”.

No FAIR, LeCun vai continuar a desenvolver a inteligência artificial. Ateísmos e maus usos da tecnologia que inventou de parte, é dos cientistas mais otimistas atualmente sobre o avanço da tecnologia e continua a afirmar que não há um exterminador implacável que nos vá matar a todos. Como explica: “Não temos a tecnologia, de todo, para termos robôs que consigam sequer abrir uma porta. Vai demorar décadas até os robôs serem melhores. Depois, temos a questão se o robô vai ter o desejo de controlar a raça humana. O meu ponto de vista é que isso não vai acontecer: é uma projeção de que os robôs são como humanos. Nós temos esse sentimento de dominar, mas é derivado da natureza humana, não tem a ver com inteligência, tem a ver com testosterona.

“As empresas estão desejosas de contratar mulheres”

O FAIR é a forma que o Facebook encontrou para mostrar que quer um futuro melhor e para cativar a confiança dos utilizadores e utilizadoras (com o pleonasmo no feminino). Na área da inteligência artificial, como conta a investigadora canadiana Joelle Pineau: “As empresas estão desejosas de contratar mulheres neste momento. Nem que seja por que estão todas a ser criticadas por não terem mulheres suficientes”. Contudo, há um problema: “São precisas mais mulheres [para se candidatarem a estes cargos]”. As universidades nem são tanto o problema, é não haver maneira de cativar mais mulheres a continuarem a enveredar este caminho que pode levar ao FAIR.

“Estou no ramo há 20 anos e não mudou muito. Há mais mulheres, mas a percentagem é muito pouca”, assume Pineau. A investigadora fala também que é preciso mostrar que a área é apelativa e pôr toda a sociedade pensar “que uma mulher pode ser programadora”. Isto é importante numa altura em que se começa a discutir uma inteligência artificial ética, explica.

Pineau vai mais longe e diz: “Acho que é uma falha de imaginação não olharmos para jovens mulheres e não as imaginarmos como programadoras. Não pensamos num modelo de liderança que se pareça com isso. Felizmente, o Facebook não tem essa falta de imaginação”

"Acho que é uma falha de imaginação não olharmos para jovens mulheres e não as imaginarmos como programadoras. Não pensamos num modelo de liderança que se pareça com isso"

Relativamente ao futuro da área que investiga, à semelhança dos outros investigadores do FAIR, também não se preocupa com problemas técnicos, mas sim mais práticos, e diz: “Fico assustada [com o futuro da IA], mas não sobre a maioria das coisas de que as pessoas ficam — um cenário do exterminador e dos robôs — fico assustada quando as pessoas utilizam metodologia fraca. Caso contrário, não podemos confiar na nossa ciência“.

“Temos de criar legislação para o avanço responsável de inteligência artificial e não fechar tudo”, defende Pineau. “Temos de criar maneiras que sejam éticas e façam o bem social, mas isso é muito difícil, é preciso perceber tudo num contexto social”. No FAIR, a única mulher no painel de cinco investigadores, defendeu que novos modelos têm de passar pela partilha de conhecimento entre faculdades e empresa — Pineau tem um contrato com a Universidade de Montreal e o Facebook — e “intercolaboração”.

*O Observador esteve no FAIR, em Paris, a convite do Facebook

Não queremos ser todos iguais, pois não?

Maio de 2014, nasceu o Observador. Junho de 2019, nasceu a Rádio Observador.

Há cinco anos poucos acreditavam que era possível criar um novo jornal de qualidade em Portugal, ainda por cima só online. Foi possível. Agora chegou a vez da rádio, de novo construída em moldes que rompem com as rotinas e os hábitos estabelecidos.

Nestes anos o caminho do Observador foi feito sem compromissos. Nunca sacrificámos a procura do máximo rigor no nosso jornalismo, tal como nunca abdicámos de uma feroz independência, sem concessões. Ao mesmo tempo não fomos na onda – o Observador quis ser diferente dos outros de órgãos de informação, porque não queremos ser todos iguais, nem pensar todos da mesma maneira, pois não?

Fizemos este caminho passo a passo, contando com os nossos leitores, que todos os meses são mais. E, desde há pouco mais de um ano, com os leitores que são também nossos assinantes. Cada novo passo que damos depende deles, pelo que não temos outra forma de o dizer – se é leitor do Observador, se gosta do Observador, se sente falta do Observador, se acha que o Observador é necessário para que mais ar fresco circule no espaço público da nossa democracia, então dê o pequeno passo de fazer uma assinatura.

Não custa nada – ou custa muito pouco. É só escolher a modalidade de assinaturas Premium que mais lhe convier.

Partilhe
Comente
Sugira
Proponha uma correção, sugira uma pista: mmachado@observador.pt

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

Confirme a sua conta

Para completar o seu registo, confirme a sua conta clicando no link do email que acabámos de lhe enviar. (Pode fechar esta janela.)