“As pessoas dizem que dão valor à privacidade mas, depois, trocam-na por uma qualquer app gratuita” /premium

25 Fevereiro 2019434

"Só mais tarde na vida é que algumas pessoas vão perceber quão importante teria sido proteger a sua privacidade". O alerta é de Tim O'Brien, um veterano da Microsoft que hoje se dedica à ética.

Se perguntarmos a uma pessoa qualquer, escolhida de forma aleatória, ela irá dizer que “sim, claro, a privacidade é algo muito importante”, mas depois “o seu comportamento é completamente o oposto”, comenta Tim O’Brien, um veterano da Microsoft que hoje se dedica, sobretudo, à pesquisa sobre questões relacionadas com a ética na inovação tecnológica, sobretudo na Inteligência Artificial (IA).

Na opinião de Tim O’Brien, um dos keynote speakers do evento “Building the future”, organizado em Lisboa pela Microsoft no final de janeiro, “a maioria das pessoas, na prática, mostra-se rapidamente disponível para secundarizar as questões relacionadas com a privacidade, a troco de pertencer a um grupo ou receber uma app gratuita ou outro tipo de benefício”. E “só mais tarde na vida é que algumas destas pessoas vão perceber quão importante teria sido proteger a sua privacidade”, avisa.

O Tim ocupa a maior parte do seu tempo, na Microsoft, a sensibilizar os clientes e as empresas para a responsabilidade na inovação tecnológica. É assim?
Sim, o meu trabalho envolve alguma advocacia, falar com clientes, com parceiros, a dar palestras. Mas também faço muita pesquisa sobre ética intercultural. Porque a ética é um conjunto de normas culturais e sociais sobre o que é correto fazer numa dada situação — e isso não é universal, varia entre culturas e entre países. Este é um campo onde há pouca pesquisa, no campo mais alargado da ética na inteligência artificial.

O debate sobre a ética na tecnologia, no geral, tem de acelerar?
Esse debate não é novo. Se recuarmos 100 anos, até à Primeira Grande Guerra, falou-se de ética a propósito do uso de aviões para fazer bombardeamentos, a propósito do uso de gases venenosos. Isto não é uma discussão nova, mas nas tecnologias de que falamos hoje o potencial que existe para fazer mal às pessoas é algo sem precedentes. O acesso a essas tecnologias é mais distribuído e a velocidade da inovação é mais rápida do que acontecia com as tecnologias que existiam no passado.

Está a referir-se à inteligência artificial, em especial?
Sim, que é um tema que já é estudado há mais de 50 anos. Mas foi nos últimos 10 anos que se viram avanços em áreas como a Inteligência Artificial conversacional, tradução por máquinas, modelos analíticos, portanto a velocidade é um aspeto importante a ter em conta porque na tecnologia as leis e a regulação tendem a marcar passo, em relação à velocidade da inovação. Vimos, por exemplo, quanto tempo levou até se criar um regime de proteção de dados como o RGPD, na Europa. Neste caso, estamos a falar de tecnologias que têm potencial para violar direitos humanos, quebrar leis — e os governos têm um papel importante a desempenhar nesta matéria.

A velocidade é um aspeto importante porque na tecnologia as leis e a regulação tendem a marcar passo, em relação à inovação. Vimos quanto tempo levou até se criar um regime de proteção de dados como o RGPD. Neste caso, estamos a falar de tecnologias que têm potencial para violar direitos humanos e quebrar leis.
Tim O'Brien, lider da advocacia da Microsoft sobre ética na Inteligência Artificial

Mas o Tim fala sobre a diversidade cultural e sobre como o que é certo e errado varia conforme as partes do mundo. É possível criar regras uniformes e universais?
Quando se fala em ética, normalmente divide-se entre ética da cultura Ocidental e Oriental, onde a cultura ocidental é baseada na herança judaico-cristã e a cultura oriental tende a não valorizar muito o individualismo. Como empresa norte-americana, tentamos não impor os nossos valores locais na nossa base de clientes, que é global. Temos baseado a nossa política no cumprimento da lei de cada geografia, mas quando se fala da inovação tecnológica responsável a lei não é suficiente. No que diz respeito à privacidade, por exemplo, até mesmo dentro da UE há sensibilidades diferentes sobre aquilo que significa privacidade nos dados. A Alemanha pensa uma coisa e o Reino Unido pensa outra, muito diferente, sobre coisas como a segurança pública vs privacidade. Um dia teremos de ter um conjunto de normas globais — até porque temos algumas empresas, incluindo empresas chinesas, que não escondem ter ambições globais. Na Microsoft temos um compromisso muito claro com a auto-regulação e insistimos sempre com o nosso governo para que crie regulação.

As outras, como as chinesas, não fazem isso? Quem pode regular isto, a Organização das Nações Unidas?
Talvez. Porque não as Nações Unidas? Nós recorremos frequentemente, como referencial, ao que defendem organizações como as Nações Unidas, a Human Rights Watch, a Freedom Watch. Muitas vezes usamos esses organismos como referência para decidir, por exemplo, se vendemos esta ou aquela tecnologia a certos governos… Mas a minha questão é que a tecnologia está a evoluir tão rapidamente que nem as Nações Unidas poderão ter capacidade para acompanhar, quando sabemos que nem os nossos governantes estão a conseguir acompanhar, através da criação de leis.

É como dizia Elon Musk? Que é preciso regular a Inteligência Artificial antes de haver “robôs a descer as ruas a alvejar pessoas”? O que é que os governos têm de fazer?
Numa questão como o reconhecimento facial, por exemplo, acredito que tem de haver regulação para o uso dessa tecnologia por parte das autoridades policiais. Essa é uma tecnologia muito poderosa, com um potencial muito grande para violar os direitos das pessoas, e as próprias empresas tecnológicas também têm de se auto-regular nessa matéria.

As pessoas têm noção das possíveis implicações de uma vigilância com reconhecimento facial? Muita gente dirá, provavelmente, que não se importa que isso aconteça, a troco de um maior sentimento de segurança.
O que está em causa é termos o nosso rosto reconhecido e, depois, haver um computador a identificar-nos — com alguma margem de erro. Estamos a falar de se usarem tecnologias que se comprovou recentemente, por exemplo, terem dificuldades em reconhecer rostos com pele mais escura, como os afro-americanos. Estas tecnologias podem agravar os riscos de marginalização e discriminação. Além disso, de um modo geral, há questões muito importantes relacionadas com a privacidade. Há um caso muito famoso de um pai que soube que a filha estava grávida porque uma loja detetou um padrão de compras e começou a enviar-lhe publicidade específica para casa, a vender produtos de bebé. A mulher ainda não tinha contado à família mas o pai ficou a saber por causa desses envios de publicidade. A loja não desrespeitou nenhuma lei, mas não viu limites na sua utilização de tecnologia para obter negócio, não quis saber da privacidade da pessoa.

Há um caso de um pai que soube que a filha estava grávida porque uma loja detetou um padrão de compras e começou a enviar-lhe publicidade específica para casa, a vender produtos de bebé. A mulher ainda não tinha contado à família mas o pai ficou a saber por causa disso. A loja não desrespeitou nenhuma lei, mas não viu limites na sua utilização de tecnologia para obter negócio, não quis saber da privacidade da pessoa.
Tim O'Brien, lider da advocacia da Microsoft sobre ética na Inteligência Artificial

As pessoas compreendem como as empresas usam estas tecnologias?
Julgo que na Europa as pessoas estão um pouco mais sensibilizadas para estas questões. São mais curiosas e querem perceber como é que as empresas usam os dados. Basta ver que nos EUA não há qualquer regime comparável ao RGPD. Não há regras de privacidade como as que existem na Europa. Se perguntarmos a uma pessoa qualquer, de forma aleatória, ela irá dizer-nos que “sim, a privacidade é algo muito importante” para elas, mas depois o seu comportamento é completamente o oposto. As pessoas preocupam-se menos com a privacidade do que aquilo que dizem, o que se pode explicar por pressões sociais como a pressão dos pares — sobretudo nos jovens, cria-se uma perceção de que se não estás nas redes sociais é porque não existes. Muitas vezes só mais tarde na vida é que algumas destas pessoas vão perceber quão importante teria sido proteger a sua privacidade. A realidade é que a maioria das pessoas, na prática, mostra-se rapidamente disponível para secundarizar as questões relacionadas com a privacidade, a troco de pertencer a um grupo ou receber uma app gratuita ou outro tipo de benefício.

Mas é impossível escapar a isso, a ter os nossos dados a serem trabalhados por sistemas de IA?
Sim, muitas pessoas pensam que isto da Inteligência Artificial é algo que pertence ao futuro, que está relacionado com os robôs. Mas se vê filmes no Netflix, está a usar algoritmos de IA. Se recebe recomendações da Amazon, está a usar a IA. Se faz pesquisas na internet, também está a usar a IA. Qualquer pessoa que usa a Internet está, mesmo que não se aperceba, a alimentar bases de dados utilizadas por empresas que usam essa informação para melhorar o funcionamento dos algoritmos de IA.

A Microsoft também?
Claro, somos muito transparentes em relação a isso. Estamos no negócio dos motores de busca. E queremos que as pessoas usem o nosso motor de pesquisa porque isso ajuda a torná-lo melhor. Queremos que usem os nossos sistemas de tradução porque também ajuda a que eles melhorem. Felizmente para nós, a publicidade online não é a principal área de negócio, como acontece com outras empresas — temos um conjunto alargado de fontes de negócio e, portanto, a nossa motivação é melhorar nestas tecnologias para, por exemplo, vender serviços cognitivos a empresas, para as ajudar a tornar as suas operações mais eficientes, os seus colaboradores mais produtivos ou as suas instalações mais seguras, por exemplo.

Recentemente escrevemos, no Observador, sobre um relatório que apontava os riscos de a IA cair nas “mãos erradas”. Um dos riscos estava relacionado com a facilidade com que se conseguem difundir vídeos falsos, os chamados deepfakes. Na era das fake news, como é que se consegue controlar isto?
Nem é preciso ir tão longe, ao ponto de falar dos deepfakes. Veja como se espalhou aquela informação falsa sobre o apoio do Papa Francisco à candidatura presidencial de Donald Trump. Era fácil perceber que era uma história falsa, mas espalhou-se por todo o lado, a uma velocidade impressionante. Mesmo uma coisa tão obviamente falsa causou um problema grave de desinformação — portanto como será quando tivermos coisas mais difíceis de desmentir? Temo que a crença vai sempre viajar mais rapidamente do que o esforço para a desmentir — portanto estou convencido de que a única solução é as pessoas serem um pouco mais inteligentes, serem mais criteriosas na propagação de informação, não se limitarem a gravitar em direção a conteúdos que confirmam os seus preconceitos.

Mas como é que se faz isso? Como é que se promove essa maior sensibilidade por parte das pessoas?
Eu penso que nesta fase, depois deste último ciclo eleitoral, as pessoas já estão um pouco mais sensibilizadas para estes riscos. O público, em geral, compreende agora um pouco melhor como a desinformação pode ter impacto na vida democrática e nas eleições. Tenho esperança de que, porque existe essa maior sensibilização, no futuro poderá ser diferente.

Acha que as pessoas vão saber detetar melhor as informações falsas?
Sim, mas até se gera outro problema, nesta era das fake news. Outro perigo é quando estamos perante algo que, de facto, é real, aconteceu mesmo — mas alguém pode dizer que é falso. Isto é um conceito novo, que não existia há uns anos. Alguém escreve um artigo sobre si, sobre ter aceitado um suborno ou algo assim, e há um vídeo que mostra o seu rosto, enquanto recebe um suborno. Hoje pode dizer: “Isso é um deepfake“. Ou suponha que há um registo sonoro, de alguém a aceitar um suborno: também se pode dizer que o áudio é completamente falso, que é feito com as tecnologias que hoje existem e são muito fáceis de utilizar.

Veja como se espalhou a informação falsa sobre o apoio do Papa à candidatura de Donald Trump. Era fácil perceber que era uma história falsa, mas espalhou-se por todo o lado. A única solução é as pessoas serem um pouco mais inteligentes, serem mais criteriosas na propagação de informação, não se limitarem a gravitar em direção a conteúdos que confirmam os seus preconceitos.
Tim O'Brien, lider da advocacia da Microsoft sobre ética na Inteligência Artificial

Quando se fala de ética, pensa-se, também, em questões como aquelas que dominam o debate sobre os veículos autónomos. As questões como o “problema do trolley” — ter a máquina a decidir virar para um lado e matar um conjunto de pessoas ou virar para o outro e matar uma criança, por exemplo. Também é uma área onde faz pesquisa?
Eu tenho alguns problemas com essas teorias porque, na realidade, qual é a probabilidade de alguém ter de tomar decisões como essas, na vida real? Contudo, são questões importantes em áreas como a pesquisa sobre veículos autónomos. Não é uma área onde a Microsoft esteja presente, mas há questões éticas e de responsabilidade civil complexas — aliás, mesmo quando se fala de um carro que não é totalmente autónomo há questões legais complexas, porque se um condutor atropela alguém quando o carro ia em piloto automático, mas com possibilidade de intervir, se o condutor não intervier será responsabilizado. Portanto, eu não sei exatamente em que ponto é que estamos nesta evolução, dos carros autónomos — só sei que há razões óbvias por que os testes são feitos em locais como o Arizona, onde o clima é ameno, não há muita chuva nem neve (com os quais os sistemas têm muitas dificuldades em lidar), não há colinas e o sistema de estradas é todo em ângulos de 90º. Testar um carro destes em Lisboa seria bem mais complicado…

Depreendo que seja, de certo modo, um pessimista sobre esta tecnologia dos carros autónomos… É da opinião de que muitas pessoas estão a exceder-se um pouco no seu otimismo, em comparação com aquilo que é realista a médio prazo?
Digamos que tenho tendência para achar que poderá demorar um pouco mais do que as pessoas pensam, precisamente por causa das questões de que falámos. Estamos a falar de situações onde existe potencial para fazer mal a alguém. Basta que olhemos para a forma como os medicamentos e as terapias médicas e farmacêuticas chegam ao mercado… É um processo muito controlado, com muita supervisão, ensaios clínicos. Ter carros autónomos a serem testados em estradas abertas é algo que considero um pouco preocupante.

Independentemente dos benefícios que se apontam para essa tecnologia, nomeadamente a redução drástica dos acidentes?
Sim, os benefícios seriam inegáveis. E vão até mais longe: basta olhar para o setor da camionagem nos EUA, as empresas desse setor têm muita dificuldade em contratar os condutores de que precisam. Fala-se muito de ter os robôs a roubarem postos de trabalho, mas há escassez de trabalhadores em várias áreas, inclusivamente por razões demográficas que afetam muitos países, incluindo aqui na Europa. A IA pode ser decisiva para assegurar o crescimento das economias. Só estou a dizer que temos de avançar de forma responsável.

Tenho tendência para achar que os carros autónomos poderão demorar um pouco mais do que as pessoas pensam, por questões da ética. Estamos a falar de situações onde existe potencial para fazer mal a alguém. Basta olhar para a forma como os medicamentos e as terapias médicas chegam ao mercado... É um processo muito controlado, com muita supervisão.
Tim O'Brien, lider da advocacia da Microsoft sobre ética na Inteligência Artificial

É mais correto falar de homem vs máquina ou de homem com máquina vs homem sem máquina?
Claramente, o que vai importar é homem com máquina (vs homem sem máquina). Vemos as máquinas, desde sempre, como um potenciador das capacidades humanas, nunca como uma ameaça. Há uma série de características humanas que as máquinas, simplesmente, não poderão ter: empatia, curiosidade, inteligência emocional. Continuamos a ver, porém, muitos trabalhos entediantes, repetitivos, que provavelmente ficam mais bem feitos se forem feitos por uma máquina. Essa pessoa fica livre para…

Para estar desempregada?
Não será assim. E já vimos no passado como não é assim. Temos várias histórias na Microsoft, de como vendemos produtos que foram recebidos com alguma apreensão por quem trabalhava naquelas áreas, mas depois acabaram por ficar muito satisfeitos porque houve muitas coisas repetitivas que foram eliminadas das suas rotinas e deixaram, por exemplo, de acordar às 2 da manhã com um pager a fazer bip-bip. E recordamo-nos como as caixas multibanco iam significar desemprego para os bancários, mas aconteceu o contrário: quanto mais caixas automáticas eram instaladas mais bancários eram contratados, porque tornou-se mais barato abrir pequenas sucursais bancárias — para isso contratou-se mais gente e as pessoas passaram a poder dedicar-se mais a outras atividades, porque as operações simples podiam ser feitas pela máquina.

Não queremos ser todos iguais, pois não?

Maio de 2014, nasceu o Observador. Junho de 2019, nasceu a Rádio Observador.

Há cinco anos poucos acreditavam que era possível criar um novo jornal de qualidade em Portugal, ainda por cima só online. Foi possível. Agora chegou a vez da rádio, de novo construída em moldes que rompem com as rotinas e os hábitos estabelecidos.

Nestes anos o caminho do Observador foi feito sem compromissos. Nunca sacrificámos a procura do máximo rigor no nosso jornalismo, tal como nunca abdicámos de uma feroz independência, sem concessões. Ao mesmo tempo não fomos na onda – o Observador quis ser diferente dos outros de órgãos de informação, porque não queremos ser todos iguais, nem pensar todos da mesma maneira, pois não?

Fizemos este caminho passo a passo, contando com os nossos leitores, que todos os meses são mais. E, desde há pouco mais de um ano, com os leitores que são também nossos assinantes. Cada novo passo que damos depende deles, pelo que não temos outra forma de o dizer – se é leitor do Observador, se gosta do Observador, se sente falta do Observador, se acha que o Observador é necessário para que mais ar fresco circule no espaço público da nossa democracia, então dê o pequeno passo de fazer uma assinatura.

Não custa nada – ou custa muito pouco. É só escolher a modalidade de assinaturas Premium que mais lhe convier.

Partilhe
Comente
Sugira
Proponha uma correção, sugira uma pista: ecaetano@observador.pt

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

1
Registo
2
Pagamento
Sucesso

Detalhes da assinatura

Esta assinatura permite o acesso ilimitado a todos os artigos do Observador na Web e nas Apps. Os assinantes podem aceder aos artigos Premium utilizando até 3 dispositivos por utilizador.

Só mais um passo

Confirme a sua conta

Para completar o seu registo, confirme a sua conta clicando no link do email que acabámos de lhe enviar. (Pode fechar esta janela.)